Hojas sueltas… Osos espaciales

Ariel Vercelli

El 15 de noviembre pasado, Meta (Facebook) presentó un nuevo gran modelo de lenguaje denominado Galactica, diseñado para ayudar a los científicos. Sin embargo, en vez del big bang que Meta esperaba, Galactica desapareció después de tres días de intensas críticas. Después de animar a todos a probarla, la empresa eliminó la demostración pública que había lanzado.
El paso en falso de Meta, y su arrogancia, muestran una vez más que las Big Tech tienen un punto débil ante las fuertes limitaciones de los grandes modelos de lenguaje. Existe una gran cantidad de investigaciones que destacan los defectos de esta tecnología, incluida su tendencia a reproducir prejuicios y afirmar falsedades como hechos reales.
Sin embargo, Meta y otras empresas que trabajan con grandes modelos de lenguaje, incluido Google, insistirán.
Galactica es un gran modelo de lenguaje para la ciencia, entrenado en 48 millones de ejemplos de artículos científicos, sitios web, libros de texto, notas de conferencias y enciclopedias. Meta promocionó su modelo como un atajo para investigadores y estudiantes. En palabras de la empresa, Galactica «puede resumir trabajos académicos, resolver problemas matemáticos, generar artículos de tipo wiki, escribir código científico, anotar moléculas y proteínas, y mucho más».
Como todos los modelos de lenguaje, Galactica es un bot descerebrado que no puede distinguir los hechos de la ficción. En cuestión de horas, los científicos estaban compartiendo sus resultados sesgados e incorrectos en las redes sociales.
Uno de los problemas fundamentales de Galactica es que no es capaz de distinguir entre la verdad y la mentira, un requisito básico para un modelo de lenguaje diseñado para generar texto científico. Los usuarios descubrieron que inventaba artículos falsos y generaba artículos tipo wiki sobre la historia de los osos en el espacio con la misma facilidad que producía publicaciones sobre complejos de proteínas y la velocidad de la luz. Resulta sencillo detectar la ficción cuando se trata de los osos espaciales, pero es más complicado cuando se trata de un tema del que los usuarios no saben demasiado.
Galactica también muestra algunas lagunas en lo que puede hacer. Cuando se le pidió que generara texto sobre ciertos temas, como «racismo» y «Sida», el modelo respondió: «Lo siento, su consulta no pasó nuestros filtros de contenido».
Sin embargo las grandes empresas de tecnología seguirán haciendo esto porque piensan que ese es el futuro del acceso a la información, aunque nadie haya pedido ese futuro.