Por Ariel Vercelli
A Charles Darwin le encantaba escribir, y su curiosidad y capacidad de observación cobran vida en las páginas. Además de proponer la teoría de la evolución, Darwin estudió las expresiones y emociones tanto de personas como de animales. Debatió en sus escritos hasta qué punto las emociones son científicas, universales y predecibles; e incluso dibujó personajes con expresiones exageradas que se conservan en la biblioteca pública de Nueva York.
Todo el mundo se ha alzado en armas contra ChatGPT, la IA generalizada y la perspectiva de que los robots ocupen los puestos de trabajo de las personas, por eso los reguladores han aumentado las advertencias contra la IA y el reconocimiento de emociones.
En este contexto tan alejado de Darwin, el reconocimiento de las emociones es el intento de identificar los sentimientos o el estado de ánimo de una persona mediante el análisis por IA de imágenes faciales, grabaciones de vídeo, o audio.
El modelo de IA puede ver una boca abierta, ojos entrecerrados y mejillas contraídas con la cabeza echada hacia atrás, por ejemplo, y registrar una risa. Por tanto, concluye que el sujeto está contento.
Sin embargo, en la práctica, esto es más complejo. Y, según algunos, es un ejemplo peligroso e invasivo del tipo de pseudociencia que suele producir la inteligencia artificial.
Algunos defensores de la privacidad y los derechos humanos, como European Digital Rights (EDRi, por sus siglas en inglés) exigen una prohibición total del reconocimiento de emociones. La Ley de Inteligencia Artificial de la UE, aprobada por el Parlamento Europeo en junio, no es una prohibición total, aunque prohíbe el uso del reconocimiento de emociones por parte de los cuerpos de seguridad en la policía, la gestión de fronteras, los lugares de trabajo y los colegios.
Tus expresiones faciales, movimientos oculares, tono de voz y manera de caminar son formas terribles de juzgar quién eres o qué harás en el futuro. Sin embargo, se están invirtiendo millones de dólares en el desarrollo de una IA que detecte nuestras emociones con estos parámetros.
¿Detectores de mentiras infalibles?
¿Hasta qué punto los temores sobre el reconocimiento de las emociones están fundados, y una estricta regulación podría perjudicar la innovación positiva?
Un grupo de empresas ya están vendiendo esta tecnología para una amplia variedad de usos. Por ejemplo, Affectiva ha explorado cómo esta IA, que analiza las expresiones faciales humanas, podría utilizarse para determinar si un conductor está cansado y evaluar cómo reaccionan los espectadores ante el tráiler de una película. Otras empresas, como HireVue, han vendido el reconocimiento de las emociones como una forma de seleccionar a los candidatos más prometedores para un trabajo. Una práctica que ha recibido duras críticas. Claro, también hay aplicaciones importantes que permiten a personas ciegas o con baja visión comprender mejor las emociones de quienes les rodean. Sin embargo, varias empresas han vendido a las fuerzas de seguridad algunos programas informáticos que averiguan si alguien miente, o pueden detectar comportamientos sospechosos.
iBorderCtrl, un proyecto piloto patrocinado por la Unión Europea, brinda una versión de reconocimiento de emociones como parte de su oferta tecnológica de gestión de fronteras. Según su web, el Sistema Automático de Detección del Engaño “cuantifica la probabilidad de engaño en las entrevistas analizando los microgestos no verbales de los entrevistados. Aunque reconoce la “controversia científica en torno a su eficacia”.
Problema matemático
El reconocimiento facial y el de emociones tienen que ver con el control social.
Pero las emociones son complicadas, e incluso los seres humanos no pueden identificarlas con precisión en los demás. Aunque la tecnología ha mejorado en los últimos años gracias a la disponibilidad de más y mejores datos, así como el aumento de la potencia informática, la precisión varía mucho en función de los resultados que persigue el sistema y la calidad de los datos que utiliza. Las emociones humanas son complejas, varían en función de la cultura y el contexto, por eso son imprecisas.
Esto lleva de nuevo a Darwin. Una pregunta fundamental en este campo es si la ciencia puede llegar a determinar las emociones. Puede que veamos avances en la computación afectiva a medida que progrese la ciencia subyacente de las emociones, o puede que no.
Se asemeja a una parábola para este amplio momento de la IA. La tecnología se encuentra en un período de gran expectación, y la idea de que la IA puede hacer que el mundo sea más reconocible y predecible puede resultar atractiva. Sin embargo, ¿puede reducirse todo a un problema matemático?










