Los temas sobre el sesgo de la información y la privacidad continúan cogiendo fuerza. Las bibliotecas han formado parte de estas discusiones. Aunque son temas que se discuten individualmente, ambos tienen implicaciones para el público y los usuarios de las bibliotecas. En la conferencia de Midwinter de la American Library Association (ALAMW21, por sus siglas en inglés), se discutieron estos temas en la plenaria de las Top Technology Trends (Lamanna, Freeman, Bignoli, & Austin, 2021). Entre los peligros que se encuentra elementos de privacidad, desinformación, persecución, entre otros.
En una entrada anterior, sobre el sesgo en las herramientas de búsqueda de la biblioteca, comenté sobre el sesgo sobre los resultados que se recuperan en las bases de datos suscritas y los catálogos automatizados. En libros como Weapons of Math Detruction, Automating Inequality, Algorithms of Oppression, Dark Matters y Race After Technology se discute la desigualdad que existe y que perpetúan la tecnología. Algunas de las tecnologías que las bibliotecas utilizan para contabilizar la entrada de los usuarios en las bibliotecas, herramientas de reconocimiento y de inteligencia artificial promueven o agravan ciertos elementos relacionados a la desigualdad social y racial. En el caso de la tecnología utilizada para contabilizar usuarios o el uso de herramientas de reconocimiento facial, estas pueden ser utilizadas para la vigilancia. La vigilancia de algunas tecnologías puede disuadir a los usuarios de comunidades marginadas, por miedo a ser intervenidos por las autoridades policiacas. Cabe mencionar que parte del compromiso profesional del bibliotecario debe ser salvaguardar la privacidad del usuario. Aunque algunas de estas tecnologías parecen ser omnipresentes, es imperativo conocer sobre ellas y cómo las compañías que las suplen utilizan la información recopilada.
La inteligencia artificial posee grandes beneficios para las bibliotecas y las ciencias de la información. Esta puede crear proyectos para educar sobre las prácticas culturales de una comunidad o facilitar el manejo de datos dentro de las unidades de información para producir informes precisos, tal como fue discutido Aldrich y Kitajima en su ponencia de ALAMW21 (Smith, 2020). Sin embargo, Bignoli (2021) alerta que algunas de las tecnologías que aparentan ser beneficiosas para las bibliotecas pueden resultar en prácticas conocidas como “disaster capitalism”. Un ejemplo de ello ha sido las tecnologías y herramientas implementadas durante la pandemia de COVID-19, la cual recurrieron en la explotación de empleados o presos. Otras tecnologías mencionadas son las utilizadas para las métricas, las cuales se basan en tecnología de vigilancia. Este tipo de tecnología es ampliamente discutido en los textos Dark Matters de Simone Browne y Race After Technology de Riha Benjamin.
Los textos predictivos son parte de cómo la inteligencia artificial estudia el comportamiento de los usuarios. Estos textos se pueden reflejar en las herramientas de búsqueda y sugieren temas de búsqueda, como lo hace Google y algunos servicios de bases de datos suscritas como EBSCO, Gale, JSTOR, entre otros. Los algoritmos utilizados por este tipo de herramientas no están libres de sesgos, como lo detalla Safiya Umoja Noble en su texto Algorithms of Oppression. La tecnología, también estudia los compartimientos de las personas y en ocasiones determinan su valor de acuerdo con su historial de crédito, lugar dónde residen y etnicidad. Estos son estudiados por Eubank (2018) en Automating Inequality y por O’Neil en Weapons of Math Destruction.
La pertinencia de estos elementos en el entorno bibliotecario yace en cómo guiamos a los usuarios de nuestras unidades de información a navegar estas herramientas, sus beneficios y los aspectos perjudiciales. También nos brinda una idea sobre la cautela que cada unidad debe tener en cómo implementa servicios de entidades externas o “third party”. No sólo esto atenta contra la privacidad del usuario, sino con su experiencia cómo usuario con la tecnología. Otro aspecto que se debe tener en cuenta en cómo es que las tecnologías y herramientas que implementamos fueron desarrolladas; cómo la adquisición de esa herramienta forma parte de una cultura que atenta contra el bienestar de la comunidad a la que servimos.
Referencias
Benjamin, R. (2019). Race After Technology: Abolitionist Tools for the New Jim Code. Polity.
Browne, S. (2015). Dark Matters: On Surveillance and Blackness. Duke University Press.
Carlton, A. (2021, 24 de enero). Libraries and invasive technology. American Libraries. https://americanlibrariesmagazine.org/blogs/the-scoop/libraries-and-invasive-technology/
Eubank, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. Macmillan.
Heilweil, R. (2020, 18 de febrero). Why algorithms can be racist and sexist. Vox. https://www.vox.com/recode/2020/2/18/21121286/algorithms-bias-discrimination-facial-recognition-transparency
Noble, S.U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press.
O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy.
Reidsma, M. (2019). Marked by Trust: Bias in Library Discovery. Library Juice Press.
Schuetze, S. (2020). Diversity, equity and inclusión: Dr. Safiya Umoja Noble chats with ExLibris. ExLibris. https://exlibrisgroup.com/blog/diversity-equity-inclusion-dr-safiya-umoja-noble-chats-with-ex-libris/
Smith, C. (2021, 25 de enero). Meeting the future head-on. American Libraries. https://americanlibrariesmagazine.org/blogs/the-scoop/meeting-the-future-head-on/
Interesante artículo, opino que la discusión debe centrarse en el uso que se hace sobre la información recopilada por estos sistemas de inteligencia artificial y no en su uso. La tecnología en sí misma no es buena ni mala, esto dependerá del uso que se le de a la misma.
Gracias por su comentario, Luis.