Por Ariel Vercelli
Al mismo tiempo que los legisladores de la Unión Europea (UE) presentaron una nueva demanda antimonopolio contra Google, la votación del Parlamento Europeo para aprobar su proyecto de Ley de Inteligencia Artificial puso la guinda a una importante semana para la política tecnológica. La votación de la Ley de Inteligencia Artificial (IA) se aprobó por abrumadora mayoría y ha sido anunciada como uno de los avances más importantes del mundo sobre la regulación de la IA. Sin embargo, es posible que pasen unos dos años antes de que la ley se aplique realmente. Con una estructura similar a la Ley de Servicios Digitales de la UE, un marco jurídico para las plataformas online, la Ley de IA adopta un «enfoque basado en el riesgo». Ya que introduce restricciones basadas en el grado de peligrosidad que los legisladores prevén que tendría una aplicación de IA. Las empresas también tendrán que presentar sus propias evaluaciones de riesgo sobre su uso de IA.
Algunas aplicaciones de la IA se prohibirán por completo, si los legisladores consideran que el riesgo es inaceptable. Mientras que las tecnologías consideradas de «alto riesgo» tendrán nuevas limitaciones en su uso y requisitos en torno a la transparencia. Estas son algunas de las principales implicaciones: 1) Prohibición de la IA de reconocimiento de emociones (no podrá hacerse análisis facial de las personas bajo vigilancia, o en espacios como las escuelas y lugares de trabajo). Los fabricantes de software de reconocimiento de emociones afirman que la IA es capaz de determinar cuándo un estudiante no está entendiendo cierta materia.
2) Prohibición de la biometría en tiempo real y la vigilancia predictiva en los espacios públicos (las policías están a favor de las tecnologías biométricas, que consideran necesarias). 3) Prohibición de puntuación social (se prohibiría la calificación social por parte de las agencias públicas, o la práctica de utilizar datos sobre el comportamiento social de las personas para hacer generalizaciones y perfiles). 4) Nuevas restricciones para la IA generativa (prohíbe el uso de cualquier material protegido por derechos de autor en el entrenamiento de grandes modelos lingüísticos, como el GPT-4 de OpenAI). 5) Nuevas restricciones a los algoritmos de recomendación en redes sociales (los sistemas de recomendación de las redes sociales estarán sujetos a una inspección mayor sobre su funcionamiento. Y las empresas tecnológicas podrían ser más responsables del impacto de los contenidos generados por los usuarios).