Imagina que estás en una entrevista de trabajo. A medida que responde las preguntas del reclutador, un sistema de inteligencia artificial (IA) escanea su rostro y lo califica por nerviosismo , empatía y confiabilidad . Puede parecer ciencia ficción, pero estos sistemas se utilizan cada vez más, a menudo sin el conocimiento o consentimiento de las personas.
La tecnología de reconocimiento de emociones (ERT) es, de hecho, una industria floreciente de miles de millones de dólares que tiene como objetivo utilizar la inteligencia artificial para detectar emociones a partir de expresiones faciales. Sin embargo, la ciencia detrás de los sistemas de reconocimiento de emociones es controvertida : hay sesgos integrados en los sistemas.
Muchas empresas utilizan ERT para probar las reacciones de los clientes a sus productos, desde cereales hasta videojuegos. Pero también se puede usar en situaciones con mucho más en juego , como en la contratación , la seguridad del aeropuerto para señalar rostros como reveladores de engaño o miedo, en el control de fronteras , en la vigilancia para identificar a «personas peligrosas» o en la educación para monitorear la participación de los estudiantes. con su tarea.
Terreno científico inestable
Afortunadamente, la tecnología de reconocimiento facial está recibiendo atención pública. La premiada película Coded Bias, lanzada recientemente en Netflix, documenta el descubrimiento de que muchas tecnologías de reconocimiento facial no detectan con precisión los rostros de piel oscura. Y el equipo de investigación que administra ImageNet, uno de los conjuntos de datos más grandes e importantes utilizados para entrenar el reconocimiento facial, se vio obligado recientemente a difuminar 1,5 millones de imágenes en respuesta a preocupaciones de privacidad .
Las revelaciones sobre el sesgo algorítmico y los conjuntos de datos discriminatorios en la tecnología de reconocimiento facial han llevado a grandes empresas de tecnología, incluidas Microsoft, Amazon e IBM, a detener las ventas. Y la tecnología enfrenta desafíos legales con respecto a su uso en la policía en el Reino Unido. En la UE, una coalición de más de 40 organizaciones de la sociedad civil ha pedido la prohibición total de la tecnología de reconocimiento facial.
Al igual que otras formas de reconocimiento facial, ERT plantea preguntas sobre prejuicios, privacidad y vigilancia masiva. Pero ERT plantea otra preocupación: la ciencia de la emoción detrás de ella es controvertida. La mayoría de las ERT se basan en la teoría de las «emociones básicas» que sostiene que las emociones están biológicamente programadas y las personas de todo el mundo las expresan de la misma manera.
Sin embargo, esto se cuestiona cada vez más. La investigación en antropología muestra que las emociones se expresan de manera diferente entre culturas y sociedades. En 2019, la Association for Psychological Science llevó a cabo una revisión de la evidencia y concluyó que no existe apoyo científico para la suposición común de que el estado emocional de una persona puede inferirse fácilmente de sus movimientos faciales. En resumen, ERT se basa en un terreno científico inestable.
Además, al igual que otras formas de tecnología de reconocimiento facial, ERT está codificada con prejuicios raciales. Un estudio ha demostrado que los sistemas interpretan constantemente los rostros de las personas negras como más enojados que los rostros de las personas blancas, independientemente de la expresión de la persona. Aunque el estudio del prejuicio racial en ERT es pequeño, el prejuicio racial en otras formas de reconocimiento facial está bien documentado.
Hay dos formas en que esta tecnología puede dañar a las personas, dice la investigadora de inteligencia artificial Deborah Raji en una entrevista con MIT Technology Review : “Una forma es no funcionar: en virtud de tener tasas de error más altas para las personas de color, las pone en mayor riesgo . La segunda situación es cuando funciona, donde tienes el sistema de reconocimiento facial perfecto, pero se puede utilizar fácilmente como arma contra las comunidades para acosarlas «.
Entonces, incluso si la tecnología de reconocimiento facial puede ser imparcial y precisa para todas las personas, es posible que aún no sea justa o equitativa. Vemos estos efectos dispares cuando la tecnología de reconocimiento facial se usa en sistemas policiales y judiciales que ya son discriminatorios y dañinos para las personas de color. Las tecnologías pueden ser peligrosas cuando no funcionan como deberían. Y también pueden ser peligrosos cuando funcionan perfectamente en un mundo imperfecto.
Los desafíos que plantean las tecnologías de reconocimiento facial, incluida la ERT, no tienen respuestas fáciles ni claras. Resolver los problemas presentados por ERT requiere pasar de la ética de la IA centrada en principios abstractos a la ética de la IA centrada en la práctica y los efectos en la vida de las personas.
La IA puede ser racista. HQuality / Shutterstock
Cuando se trata de ERT, debemos examinar colectivamente la controvertida ciencia de la emoción incorporada en estos sistemas y analizar su potencial de sesgo racial. Y debemos preguntarnos: incluso si ERT pudiera diseñarse para leer con precisión los sentimientos internos de todos, ¿queremos una vigilancia tan íntima en nuestras vidas? Estas son preguntas que requieren la deliberación, las aportaciones y la acción de todos.
Proyecto de ciencia ciudadana
ERT tiene el potencial de afectar la vida de millones de personas, sin embargo, ha habido poca deliberación pública sobre cómo, y si, debe usarse . Por eso hemos desarrollado un proyecto de ciencia ciudadana .
En nuestro sitio web interactivo (que funciona mejor en una computadora portátil, no en un teléfono) puede probar un ERT privado y seguro para usted mismo, para ver cómo escanea su rostro e interpreta sus emociones. También puede jugar juegos que comparan las habilidades humanas con las de la inteligencia artificial en el reconocimiento de emociones y aprender sobre la controvertida ciencia de las emociones detrás de ERT.
Lo más importante es que puede contribuir con sus perspectivas e ideas para generar nuevos conocimientos sobre los posibles impactos de la ERT. A medida que el científico de la computación y activista digital de alegría Buolamwini dice : “Si usted tiene una cara, que tienen un lugar en la conversación.”
https://theconversation.com/ai-is-increasingly-being-used-to-identify-emotions-heres-whats-at-stake-158809