Ariel Vercelli
Pocas semanas después del lanzamiento de ChatGPT, se popularizó el miedo a que los estudiantes utilizaran el chatbot para redactar monografías plagiadas. En respuesta a esos temores, algunas startups empezaron a crear productos que prometían detectar si el texto había sido escrito por un humano o por una máquina. El problema es que es relativamente sencillo engañar a estas herramientas y evitar su detección. La mayoría de estas herramientas buscan rasgos distintivos del texto generado por Inteligencia Artificial (IA), como la repetición, y calculan con bastante acierto la probabilidad de que el texto haya sido generado por IA. Sin embargo, un equipo de la Universidad de Ciencias Aplicadas HTW de Berlín descubrió que todas las herramientas probadas tenían problemas para detectar el texto generado por IA cuando había sido ligeramente modificado por humanos, lo que sugiere que lo único que tienen que hacer los estudiantes es adaptar un poco las redacciones truchas para burlar con éxito a los detectores (y a sus profesores). Los investigadores escribieron ensayos para asegurarse de que el texto no estuviera ya en internet, algo que significaría que podría haberse utilizado ya para entrenar ChatGPT. A continuación, cada investigador escribió un texto adicional en alemán, bosnio, checo, eslovaco, español, letón o sueco. Esos textos se pasaron por la herramienta de traducción automática DeepL o por Google Translate para traducirlos al inglés. Luego, el equipo utilizó IA para generar dos textos adicionales cada uno, que retocaron ligeramente en un esfuerzo por ocultar que habían sido generados por IA. Un conjunto fue editado manualmente por los investigadores, que reordenaron frases e intercambiaron palabras, mientras que otro fue reescrito utilizando una herramienta de parafraseo llamada Quillbot. Al final, tenían 54 documentos para probar las herramientas de detección. Descubrieron que, si bien las herramientas identificaban bien el texto escrito por un humano (con una precisión media del 96%), no lo hacían tan bien a la hora de detectar el texto generado por la IA. Aunque las herramientas identificaron el texto de ChatGPT con una precisión del 74%, esta bajaba al 42% cuando el texto generado por IA había sido modificado. Lo que las universidades precisan no son detectores de mentiras, sino docentes que desarrollen mejoren formas de validar o rechazar los saberes de sus estudiantes. Por ejemplo, hablando con ellos, haciendo preguntas, recuperando la condición básica para crear y transferir conocimiento: el encuentro cara a cara entre personas.