El sesgo en las herramientas de búsqueda de la biblioteca

Los algoritmos son un conjunto de instrucciones o reglas no definidas, ordenadas que permiten la solución de un problema computacional.  Los algoritmos permiten procesar datos o llevar cabo tareas en un programa.  Los algoritmos se caracterizan por su lenguaje matemático y por su secuencia (O’Neil, 2016).  Durante la Segunda Guerra Mundial los algoritmos comenzaron a tener auge como parte de los procesos llevados a cabo a través de computadoras para descifrar lenguajes en código.  No obstante, su uso no se limitó a ello durante las décadas de los 1930 a 1940 (O’Neil, 2016).

El sesgo algorítmico sucede cuando los valores o prejuicios humanos están reflejados en la codificación de un programa.  En el caso de un sistema de búsqueda como lo es Google, Bing o los motores de búsquedas de una base de datos, reflejan dichos valores o prejuicios.  Autores como Noble (2018), Eubank (2018), O’Neil (2016) y Reidsma (2019) estipulan que los valores que contienen los algoritmos son productos de sus creadores y compañías.  Por lo cual, estos no son neutrales.  Noble (2018) estipula que algunos algoritmos pueden reforzar ideologías de la supremacía blanca, racismo, sexismo y otros tipos de discrimen.

Los algoritmos en los motores de búsqueda comerciales y de las bibliotecas son productos humanos.  Estos están basados en una serie de principios e instrucciones detallados por sus creadores.  Algunos de los ejemplos comunes sobre el sesgo algorítmico son aquellos presentados por Noble (2018) en su libro Algorithms of Oppression: How Search Engines Reinforce Racism, donde presenta como plataformas como Google proveen resultados sexistas y racistas.  Los ejemplos que muestra Noble (2018) incluye resultados, textos sugeridos e imágenes.  También se menciona situaciones en las que el sesgo algorítmico de Google ha funcionado en beneficio para ataques de terroristas por parte de miembros de grupos que apoyan la supremacía blanca (i.e., el ataque cometido por Dylann Roof contra una iglesia en Charleston en Carolina del Sur, donde fallecieron 9 personas afroamericanas) o para el beneficio de las elecciones presidenciales de los EE. UU. en el 2016.

Los algoritmos no se limitan a proveer resultados basados en los valores de sus creadores, Heilweil (2020) discute que los algoritmos también pueden mostrar resultados en las búsquedas basados en el comportamiento del usuario y cuáles ha sido su historial de búsqueda y consumo en línea.  No obstante, esto no está exento de evidenciar contenido que en realidad beneficie al usuario o qué promueva prejuicios.  El uso de algoritmos también es utilizado para predecir comportamientos, los cuales en muchas instancias están plagados de errores que afectan negativamente el bienestar de una persona o una comunidad, como lo evidencia Eubank (2018) en su texto Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor.  O’Neil (2016) también detalla cómo los errores matemáticos y algorítmicos pueden afectar negativamente a las comunidades en su obra, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy.  Ambos textos exploran los aspectos sociales sobre cómo los expedientes financieros, localización e información en perfiles en la red tienen un impacto sobre el bienestar, éxito o desarrollo de una persona.

El sesgo algorítmico no se limita a los motores de búsqueda.  En las ciencias bibliotecarias existe varios sesgos, sobre todo en los encabezados de materias de la Biblioteca del Congreso de los EE. UU. (LOC, por sus siglas en inglés) y los del Sistema de Clasificación Decimal (DDCS, por sus siglas en inglés) de Melvil Dewey (Berman, 1993). Ambos sistemas han sido criticados por la profesión, sobre todo su uso sobre encabezados relacionados a temas LGBTTQI+, mujeres, temas raciales, temas religiosos (i.e., aquellos que no son cristianos) e inmigración.  En los últimos años, uno de los encabezados de materia más criticados ha sido el de “Illegal Aliens”, el cual ha sido retado por estudiantes de Dartmouth College y recibió la atención de la American Library Association.  Tanto Noble (2018) como Reidsma (2019) indican que los encabezados de materia inciden y se proyectan en los resultados de las búsquedas en los sistemas automatizados de las bibliotecas, sobre todo en las bases de datos.  Esto puede proveer resultados o mostrar sugerencias con prejuicios, contenido racista o sexista.

Las bases de datos suscritas de las bibliotecas son servicios provistos por compañías externas.  En muchas instancias sus contenidos no son controlados por el personal bibliotecario, sino son producto de una selección realizada por la compañía en base a un estimado sobre necesidades los usuarios.  Por ende, las bases de datos suscritas no necesariamente reflejan los valores de la unidad de información o las necesidades de información de los usuarios.  En su libro, Reidsma (2019) hace un estudio sobre los servicios de discovery de las bases de datos suscritas.  Este tipo de servicio intenta simular y ser mercadeado como un motor de búsquedas con propiedades similares a las de Google.  Su diferencia yace en que los servicios de Discovery utilizan las bases de datos de las bibliotecas, el catálogo automatizado y otros servicios suscritos.  En su estudio, Reidsma (2019) encontró que los sistemas de Discovery (entre estos se encuentran Summon, EBSCO, Pimo y OCLC) que estudió poseen sesgos.  Uno de los ejemplos que presenta es sobre el estrés y agobio en el empleo.  En la lista de los resultados, todos los artículos presentados estaban relacionados a las mujeres.  Reidsma (2019) indica que en ningún momento su búsqueda delimitó el contenido a un género.  Sin embargo, el sistema interpretó que el tema indagado sí está relacionado exclusivamente a las mujeres.  Esto presenta un sesgo en el algoritmo de búsqueda, ya que el fenómeno indagado no es uno exclusivo de un género.  Mas allá del ejemplo presentado por Redisma (2019) al inicio de su libro, Marked by Trust: Bias in Library Discovery, el autor presenta otros ejemplos y críticas sobre los sistemas suscritos de las bibliotecas.

El personal bibliotecario, al igual que las compañías de las bases de datos suscritas, promocionan las bases como fuentes confiables y fidedignas.  Aunque la información que contiene varios de los artículos, libros y otros materiales en las bases de datos suscritas son evaluados por pares y pasan por un proceso riguroso de edición, estos no están libres de sesgos.  Incluso, Reidsma (2019) encontró que algunas enciclopedias virtuales a las cuales algunas bibliotecas están suscritas poseen información obsoleta.  Este tipo de error o descuido por. Parte de los curadores de los contenidos de las bases de datos afectan como la información que albergan las bibliotecas es vista y como el usuario interactúa con la información.  En el caso de las biografías de figuras que ya han fallecido, muestra que estas siguen con vida.  En otros casos, se muestra que algunos líderes permanecen en su escaño, a pesar de ya no estar liderando.  Otros errores de gran peso que discute Reidsma (2019) son la redirección de algunos temas a otros.  Estas redirecciones evidencian los sesgos algorítmicos de los proveedores de las bases de datos o del catálogo de la biblioteca.  Alguno de los temas más contundentes en este tipo de sesgo lo fueron temas religiosos, temas sobre la violencia de género y sugerencias sobre la identidad racial.

El contenido que albergan las bibliotecas siempre estará sujeto al sesgo.  Las bibliotecas, como espacios administrados por seres humanos no son neutrales.  Igualmente, la tecnología que alberga y sus ofrecimientos digitales.  Aunque los ofrecimientos y servicios de la biblioteca sacian las necesidades de sus usuarios, hay que tener en cuenta cuál es el rol de la información.  El bibliotecario, como profesional de la información, debe saber cómo evaluar críticamente la información y la estructura de las bases de datos a las cuales la biblioteca está suscrita.  Dicha evaluación debe tener en cuenta los ejercicios y lecciones que se llevan a cabo al momento realizar lecciones competencias de información.

La transparencia sobre cómo operan las bases de datos y servicios suscritos de las bibliotecas es importante para los usuarios.  Su uso está designado a ellos y debe atender sus necesidades.  Es por ello por lo que, de haber sesgos que evidencian prejuicios hacia un grupo, es vital atenderlo.  El problema no debe recaer en como el usuario hizo la búsqueda, sino en los algoritmos que se utilizaron para reflejar los resultados de dicha búsqueda.  Tanto Noble (2018) como Reidsma (2019) exponen que las compañías que ofrecen servicios de búsqueda de información y los motores de búsqueda, deben tomar responsabilidad sobre el lenguaje que utilizan en sus algoritmos.  El usuario o el bibliotecario quien hace la búsqueda no debe cuestionar la validez de sus términos o la viabilidad de su tema de investigación; más cuando los resultados que está obteniendo están atados a prejuicios.  Los servicios de las bibliotecas, incluyendo aquellos suscritos, deben reflejar las necesidades de los usuarios; no los valores de las empresas. Mientras este tipo de fenómeno continúe perpetuándose en las herramientas de búsqueda, los bibliotecarios y demás profesionales de la información deben crear lecciones sobre el sesgo en la información.  A su vez, se debe tener en cuenta la evaluación crítica de las herramientas de búsqueda, los resultados que provee y las sugerencias que muestra.

Referencias

Albright, C. (2019). “Change the subject’: A hard-fought battle over words. Dartmouth News. https://news.dartmouth.edu/news/2019/04/change-subject-hard-fought-battle-over-words

Eubank, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. Macmillan.

Heilweil, R. (2020, 18 de febrero). Why algorithms can be racist and sexist. Vox. https://www.vox.com/recode/2020/2/18/21121286/algorithms-bias-discrimination-facial-recognition-transparency

Noble, S.U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press.

O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy.

Reidsma, M. (2019). Marked by Trust: Bias in Library Discovery. Library Juice Press.

Schuetze, S. (2020). Diversity, equity and inclusión: Dr. Safiya Umoja Noble chats with ExLibris. ExLibris. https://exlibrisgroup.com/blog/diversity-equity-inclusion-dr-safiya-umoja-noble-chats-with-ex-libris/

Deja un comentario