Sesgo algorítmico

Un medio computacional es que el resultado del algoritmo no es neutral, justo o equitativo.

El sesgo algorítmico puede ocurrir cuando los datos utilizados para entrenar un algoritmo de aprendizaje automático reflejan los valores implícitos de los humanos involucrados en la recopilación, selección o uso de esos datos. Se han identificado y criticado sesgos algorítmicos por su impacto en los resultados de los motores de búsqueda, los servicios de redes sociales , la privacidad y el perfil racial . En los resultados de la investigación, este sesgo puede generar resultados que reflejen sesgos racistas, sexistas u otros sesgos sociales o culturales, a pesar de la supuesta neutralidad de los datos. Un ejemplo concreto es el de los intérpretes en línea que traducen sistemáticamente el término inglés "nurse" (neutral) a "nurse" (femenino) y el término "doctor" (neutral) a "doctor" (male). El estudio de los sesgos algorítmicos está particularmente interesado en algoritmos que reflejan una discriminación "sistemática e injusta" .

El sesgo algorítmico no es necesariamente una intención deliberada de los diseñadores del algoritmo para engañar a los usuarios. Es aún más importante para ellos ser conscientes de esto, ya que el uso de un algoritmo sesgado que se supone que es objetivo puede influir fuertemente en sus opiniones. Este problema plantea la cuestión de la falta de retroalimentación de los diseñadores de algoritmos sobre su creación, ya planteada por los ingenieros de las principales plataformas de Internet.

Definiciones

Un algoritmo está sesgado cuando su resultado no es neutral, justo o equitativo. Por tanto, esta definición se basa en tres conceptos: neutralidad , lealtad y equidad . Los sesgos algorítmicos pueden dar lugar a situaciones de discriminación .

Equidad algorítmica

Para evitar que los algoritmos estén sesgados, algunas investigaciones como Pedreshi 2008 tienen como objetivo desarrollar algoritmos que respeten los principios de equidad .

Este enfoque implica definir la equidad. Corbett-Davies y Goel 2018 distinguen tres definiciones:

Hamilton (2016) también distingue entre equidad individual y de grupo. La equidad individual garantiza que las personas con características similares sean tratadas de la misma manera, mientras que la equidad de grupo trata a las personas de diferentes grupos de manera diferente para lograr la igualdad de resultados .

Orígenes

Los sesgos de algoritmos pueden resultar de sesgos cognitivos del programador de algoritmos, sesgos estadísticos vinculados en particular a datos de entrenamiento o incluso sesgos económicos.

Sesgo de los programadores

Los programadores que desarrollan algoritmos pueden estar sujetos a muchos sesgos cognitivos . Entre estos sesgos, el sesgo de la oveja Panurge consiste en utilizar modelos populares sin asegurar su relevancia en un contexto dado. El sesgo de confirmación es promover su visión del mundo sin tener en cuenta los datos que no van en su dirección.

Los científicos de datos que programan los algoritmos no son representativos de la población general. Un estudio del Institute AI Now  (in) 2018 destaca que solo el 15% del personal de investigación en inteligencia artificial en Facebook y el 10% en Google son mujeres.

La sobrerrepresentación de hombres blancos entre los científicos de datos y la subrepresentación de las minorías puede llevar a los científicos de datos a no tener suficientemente en cuenta los posibles sesgos y la discriminación. Esto es lo que D'Ignazio y Klein 2020 denominan " riesgo de privilegio" .

Sesgo estadístico

Los sesgos estadísticos pueden provenir de los datos contenidos en la entrada del algoritmo o del algoritmo mismo.

En 2015, se suspendió un algoritmo de evaluación de currículums desarrollado por Amazon cuando se descubrió que discriminaba fuertemente a los currículums femeninos.

El sesgo también puede provenir del método estadístico , como el sesgo de variable omitida , el sesgo de selección o el sesgo de endogeneidad .

Sesgos económicos

Los sesgos económicos están vinculados a los incentivos económicos de los actores.

Por ejemplo, Lambrecht y Tucker 2017 demostraron que era más rentable orientar anuncios de trabajos tecnológicos a hombres que a mujeres.

Sesgos algorítmicos por dominio de aplicación

Incrustaciones léxicas

Los modelos de inserción de palabras pueden reproducir sesgos psicológicos humanos.

Caliskan, Bryson y Narayanan 2017 estudian el modelo de incrustación vectorial Glove  (en) y muestran que encontramos asociaciones implícitas entre palabras portadoras de prejuicio. Proponen un método de medición del prejuicio inspirado en la prueba de asociación implícita .

Reconocimiento facial

Según Buolamwini y Gebru 2018 , las mujeres son reconocidas con menos facilidad por el software de reconocimiento facial de IBM , Microsoft y Face ++ . De los 127O retratos oficiales de figuras políticas que se les presentaron, Face ++ acertó en el 99,3% de los hombres, pero solo en el 78,7% de las mujeres. Así, el 95,9% de los errores de la empresa se refieren a mujeres.

Algoritmos de recomendación

Los algoritmos de recomendación pueden conducir a resultados sesgados en cierto contenido.

Por ejemplo, el trabajo de ingeniería inversa en el algoritmo de recomendación de YouTube realizado por Guillaume Chaslot y la asociación Algotransparencia muestra que el algoritmo tiende a favorecer el contenido conspirativo.

Agentes conversacionales

En 2016, el agente conversacional Tay desarrollado por Microsoft y desplegado en Twitter tuvo que ser eliminado 24 horas después del uso de comentarios racistas.

Justicia predictiva

En algunos estados americanos, la justicia de libertades y detención basa sus decisiones en la liberación anticipada de detenidos en algoritmos de evaluación de riesgos; esto se llama justicia predictiva . En 2016, una encuesta de las ONG ProPublica reveló que el algoritmo de la empresa Northpointe  (en) , aunque sus creadores afirman que no tiene en cuenta directamente la raza, era un sesgo racista.

Lucha contra el sesgo algorítmico

Hay varias posibilidades para luchar contra el sesgo algorítmico. Según TechCrunch, se deben crear bases de datos compartidas y reguladas que eviten que las personas manipulen los datos. De hecho, admitiendo que la inteligencia coincide con la ausencia de prejuicios, los algoritmos aún no son lo suficientemente inteligentes y, por lo tanto, libres de prejuicios para corregirse; mientras esperan que puedan hacerlo, los humanos, conscientes de lo que es el prejuicio, deben controlarlos para evitar que aumenten las orientaciones deformadas que resultan de los datos sesgados a través de los cuales aprenden.

Una de las principales dificultades en la lucha contra el sesgo algorítmico es la opacidad del funcionamiento de los algoritmos. Esta opacidad puede tener cuatro orígenes; el secreto establecido intencionalmente por empresas que quieren proteger su propiedad intelectual, el analfabetismo de usuarios e investigadores, pero también el hecho de que con su evolución en el tiempo algunos algoritmos pueden volverse ilegibles por su complejidad y finalmente algunos algoritmos, especialmente los de gran tamaño Los servicios en línea son demasiado grandes para estudiarlos. Si bien algunos investigadores han intentado desarrollar métodos para mejorar la transparencia, otros, como Shoshana Zuboff y Ruha Benjamin, afirman que los algoritmos no pueden abordarse como objetos aislados, sino como parte de un gran conjunto cultural y socio-técnico.

Auditoría de algoritmos e ingeniería inversa

Para documentar los sesgos algorítmicos, es necesario poder auditarlos . Para ello, Angwin et al. 2016 han recopilado datos y desarrollado su propio modelo para poder resaltar, el sesgo del algoritmo de evaluación del riesgo de reincidencia.

Teoría crítica y enfoques etnográficos

Según la socióloga Angèle Christin, con las auditorías existen otras dos formas de abordar el problema del sesgo de los algoritmos. El primero es el enfoque histórico y cultural. Consiste en una reconsideración de eventos de sesgo algorítmico en secuencias más largas basadas en la sociología crítica . Los algoritmos reproducirían estructuras preexistentes de discriminación , vigilancia y mercantilización . El segundo es el enfoque etnográfico. Permite, por un lado, determinar qué fuerzas estructurales permiten la aparición de sesgos y, por otro lado, considerar cómo los algoritmos se ven influenciados por sus usos diarios. Angèle Christin ofrece tres métodos en el marco de este enfoque para estudiar algoritmos. La “refracción algorítmica” consiste en examinar las reconfiguraciones que se producen durante el uso de algoritmos y su interacción con el público y las instituciones. La “comparación algorítmica” se refiere al análisis de diferentes usos del mismo algoritmo en diferentes campos para comprender la aparición de sesgos en las diferencias en las aplicaciones y el funcionamiento. Finalmente, la “triangulación algorítmica” se basa en el uso de algoritmos secundarios para recolectar datos sobre el algoritmo estudiado.

Normativas

Estados Unidos

El Estados Unidos no tiene una amplia legislación que regula el sesgo algorítmica. Este problema se puede abordar a nivel federal o estatal, y varía según el sector, el uso y la industria o el gobierno involucrado. En 2017, la ciudad de Nueva York aprobó una ley que establece una comisión para monitorear el uso de algoritmos en la ciudad.

Reseñas

En una columna publicada en el sitio web de la revista Data & Society , el investigador Kinjal Dave critica el uso del término sesgo para designar los prejuicios de los algoritmos. Según ella, el término sesgo resultante de la psicología social se refiere a una imperfección del individuo mientras que los algoritmos constituyen fuerzas institucionales.

D'Ignazio y Klein 2020 también abordan esta revisión. Para ellos, hablar de sesgo algorítmico y sugerir que podríamos corregir estos sesgos es una distracción. En lugar de hablar de prejuicios, prefieren hablar de opresión.

Bibliografía

Filmografia

Notas y referencias

  1. (in) Helen Nissenbaum , "  Cómo los sistemas informáticos encarnan valores  " , Computer , vol.  34, n o  3,Marzo de 2001, p.  120-119 ( DOI  10.1109 / 2.910905 , leído en línea , consultado el 17 de noviembre de 2017 )
  2. (en) Lucas Introna y Helen Nissenbaum , "  Definición de la Web: la política de los motores de búsqueda  " , Computadora , vol.  33, n o  1,2000, p.  54–62 ( DOI  10.1109 / 2.816269 , leído en línea , consultado el 17 de noviembre de 2017 )
  3. (en) Kate Crawford , "  ¿Puede un algoritmo ser agonístico? Diez escenas de la vida en públicos calculados  ” , Ciencia, tecnología y valores humanos , vol.  41, n o  1,24 de junio de 2015, p.  77–92 ( DOI  10.1177 / 0162243915589635 )
  4. (in) Zeynep Tüfekçi , Daños algorítmicos más allá de Facebook y Google: desafíos emergentes de la agencia computacional  " , Ensayos del simposio de Colorado Technology Law Journal , vol.  13,2015, p.  203–216 ( leído en línea , consultado el 17 de noviembre de 2017 )
  5. (en) Lisa Nakamura , Los nuevos medios de monitoreo , Londres, Routledge,2009, 149-162  pág. ( ISBN  978-0-415-56812-8 )
  6. (en) Laura Sydell , "  ¿Pueden las computadoras ser racistas? The Human-Like Bias Of Algorithms  ” , en NPR.org , National Public Radio / All Things Considered (consultado el 17 de noviembre de 2017 )
  7. (in) Batya Friedman y Helen Nissenbaum , "  Sesgo en los sistemas informáticos  " , ACM Transactions on Information Systems , vol.  14, n o  3,Julio de 1996, p.  330–347 ( leído en línea , consultado el 18 de noviembre de 2017 )
  8. (en) Paul Lewis, '  ' Nuestras mentes pueden ser secuestrados ': ¿Quién los expertos de tecnología temen una distopía teléfono inteligente  " , diario ,2017
  9. Patrice Bertail, David Bounie, Stephan Clémençon y Patrick Waelbroeck, “  Algorithms: bias, discrimination and equity  ” , en https://www.telecom-paris.fr (consultado el 14 de julio de 2020 ) .
  10. (in) Pedreshi , "  Minería de datos consciente de la discriminación  " , Actas de la 14ª Conferencia Internacional ACM sobre Descubrimiento del Conocimiento y Minería de Datos SIGKDD ,2008( DOI  10.1145 / 1401890.1401959 , leído en línea , consultado el 14 de julio de 2020 )
  11. (en) Sam Corbett-Davies y Sharad Goel , "  La medida de la equidad y la mala medida: una revisión crítica del aprendizaje automático justo  " , Arxiv.org ,2018( leer en línea ).
  12. Evan Hamilton, Evaluación comparativa de cuatro enfoques para el aprendizaje automático consciente de la equidad , Haverford College Computer Science , 2016
  13. Sarah West Myers, Meredith Whittaker y Kate Crawford. “Sistemas discriminatorios: género, raza y poder en la IA”, AI Now Institute, 2019, https://ainowinstitute.org/discriminatingsystems.pdf .
  14. (es) de Catherine D'Ignazio y Lauren F. Klein , “Capítulo 1. El Poder” , en datos Feminismo , MIT Press,2020( leer en línea ).
  15. (en) Jeffrey Dastin, "  Amazon elimina la herramienta secreta de reclutamiento de inteligencia artificial que mostraba el contratiempo de las mujeres sesgadas  " en Reuters.com ,10 de octubre de 2018(consultado el 14 de julio de 2020 ) .
  16. (en) Anja Lambrecht y Catherine Tucker , "  ¿Discriminación algorítmica? : sesgo algorítmico aparente en la publicación de anuncios madre  ” , manuscrito inédito, Instituto de Tecnología de Massachusetts ,2017
  17. (en) Aylin Caliskan , Joanna J. Bryson y Arvind Narayanan , "La  semántica derivada automáticamente de los cuerpos del lenguaje contienen sesgos similares a los humanos  " , Science ,14 de mayo de 2017( DOI  10.1126 / science.aal4230 , leer en línea ).
  18. (in) Joy Buolamwini y Timnit Gebru , "  Sombras de género: disparidades de género interseccionales de precisión en la clasificación comercial - MIT Media Lab  " , Actas de la investigación de aprendizaje automático ,2018( leer en línea )
  19. http://gendershades.org/
  20. (en) Paul Lewis y Erin McCormick, "  Cómo un ex miembro de YouTube investigó el algoritmo secreto de las TIC  " , The Guardian ,2 de febrero de 2018( leer en línea ).
  21. (en) James Vincent, "  Twitter enseñó al chatbot de inteligencia artificial amigable de Microsoft a ser un idiota racista en menos de un día  " , The Verge ,24 de marzo de 2016( leer en línea ).
  22. (en) Julia Angwin , Jeff Larson , Surya Mattu y Lauren Kirchner , "  Machine Bias  " , ProPublica ,23 de mayo de 2016( leer en línea )
  23. (en) Catalina D'Ignazio y Lauren F. Klein , “2. recoger, analizar, Imagínese, Teach” , en datos Feminismo , MIT Press,2020( leer en línea )
  24. "  ¿Cómo luchar contra los sesgos algorítmicos?  » , En Microsoft RSLN ,18 de noviembre de 2016(consultado el 16 de febrero de 2018 )
  25. Frank Pasquale , The Black Box Society , Harvard University Press,5 de enero de, el año 2015( ISBN  978-0-674-73606-1 , leer en línea )
  26. Jenna Burrell , "  Cómo 'piensa' la máquina: comprensión de la opacidad en los algoritmos de aprendizaje automático  " , Big Data & Society , vol.  3, n o  1,6 de enero de 2016, p.  205395171562251 ( ISSN  2053-9517 y 2053-9517 , DOI  10.1177 / 2053951715622512 , leído en línea , consultado el 23 de junio de 2021 )
  27. (en-US) "  Google tiene 2 mil millones de líneas de código, y todo está en un solo lugar  " , cableado ,2015( ISSN  1059-1028 , leído en línea , consultado el 23 de junio de 2021 )
  28. Diakopoulos, N y Friedler, S, "  Cómo mantener algoritmos responsables  ", MIT Technology Review ,17 de noviembre de 2016
  29. Nick Seaver , “  Algoritmos como cultura: algunas tácticas para la etnografía de sistemas algorítmicos  ”, Big Data & Society , vol.  4, n o  29 de noviembre de 2017, p.  205395171773810 ( ISSN  2053-9517 y 2053-9517 , DOI  10.1177 / 2053951717738104 , leído en línea , consultado el 23 de junio de 2021 )
  30. (in) Angèle Christin , "  El etnógrafo y el algoritmo: más allá de la caja negra  " , Teoría y Sociedad , vol.  49, sin huesos  5-6,octubre 2020, p.  897–918 ( ISSN  0304-2421 y 1573-7853 , DOI  10.1007 / s11186-020-09411-3 , leído en línea , consultado el 23 de junio de 2021 )
  31. Ruha Benjamin , Carrera después de la tecnología: herramientas abolicionistas para el Nuevo Código Jim ,2019( ISBN  978-1-5095-2640-6 , 1-5095-2640-4 y 978-1-5095-2639-0 , OCLC  1078415817 , leer en línea )
  32. 祖博夫 (Zuboff, Shoshana), 1951-文字作者 ,監控 資本主義 時代 = La era del capitalismo de vigilancia: la lucha por un futuro humano en la nueva frontera del poder ( ISBN  978-957-13-8116-9 , 957 -13-8116-0 y 978-957-13-8117-6 , OCLC  1199122574 , lea en línea )
  33. David Beer , The Data Gaze: Capitalism, Power and Perception , SAGE Publications Ltd,2019( ISBN  978-1-5264-3692-4 y 978-1-5264-8534-2 , leer en línea )
  34. (en) Julia Powles , "  Intento audaz y defectuoso de la ciudad de Nueva York para hacer que los algoritmos sean responsables  " , The New Yorker ,21 de diciembre de 2017( ISSN  0028-792X , leído en línea , consultado el 16 de febrero de 2018 )
  35. (in) kinjal Dave, Daños algorítmicos sistémicos  " , Datos y sociedad ,31 de mayo de 2019( leer en línea ).
  36. (en) "  Filmmaker - CODIFICADO BIAS  " en CODIFICADO BIAS (consultado el 1 st de noviembre de 2020 ) .

Ver también

Artículos relacionados