El modelo GPT-4 de Open IA ha superado el test de Turing por primera vez: un 54% de los participantes pensó que la inteligencia artificial era una persona real
La IA (Inteligencia Artificial) del ChatGPT pasó por primera vez el test de Turing.
Esta evaluación consiste en que una persona interactúa con una máquina y otro individuo a través de un teclado y una pantalla de manera aislada; si el usuario no puede distinguir si está hablando con otra persona o con una máquina, se considera que dicha tecnología ha pasado la prueba.
Básicamente, este experimento determina si la inteligencia artificial (IA) puede imitar las respuestas humanas y si el interrogador no puede distinguir la diferencia entre lo humano y lo mecánico, aunque, por sorpresa, un estudio elaborado por los investigadores de la Universidad de California (Estados Unidos) ha revelado que el modelo GPT-4 de Open AI ha superado el test de Turing por primera vez.
Dicho informe indica que 500 personas participaron en un estudio para conversar con diferentes interlocutores y tres programas con IA –GPT-3.5, GPT-4 y ELIZA– a través de una aplicación de mensajería de texto.
Además, después de una sesión que duró alrededor de cinco minutos, los usuarios tenían que confirmar si pensaban que estaban hablando con una inteligencia artificial o una persona. Al final, tras comprobar los resultados, los investigadores descubrieron que un 54% de los participantes pensó que GPT-4 era una persona real.
Sorprendentemente, los científicos no se esperaban un número tan elevado y, por si fuera poco, averiguaron que más de la mitad de los individuos no supieron distinguir entre lo real y lo ficticio:
El 54% pensó que el modelo GPT-4 era un humano.
Un 50% acertó que GPT-3.5 era una inteligencia artificial.
Y un 22% supuso que ELIZA se parecía a una persona.
Ante dichos porcentajes, los investigadores consideran en el estudio que la IA “podría desempeñar funciones reservadas para los trabajadores humanos, engañar al público en general o a sus propios operadores, erosionando la confianza social en las interacciones auténticas”.
¿Es realmente preocupante que una IA supere el test de Turing?
Alan Turing publicó ‘la prueba de Turing’ y, años más tarde, lanzó el artículo ‘Maquinaria de computación e inteligencia’ en la revista Mind, en el que escribió: “Creo que aproximadamente en los próximos cincuenta años será posible programar ordenadores para que puedan desarrollar el juego de imitación tan bien que un interrogador medio no tendrá más del 70% de probabilidades de realizar la identificación correcta después de cinco minutos de preguntas”.
“Sobre la cuestión inicial, ‘¿pueden pensar las máquinas?’, creo que no posee el suficiente sentido como para que merezca discutirse. Sin embargo, pienso que al final del siglo el uso de palabras y de opiniones razonadas de tipo general se habrá modificado tanto que uno podrá hablar de máquinas que piensan sin esperar que le contradigan”.
Por fortuna o desgracia, las máquinas que comentaba Turing en su artículo han llegado en forma de chatbots con IA, no obstante, cabe señalar que el matemático fue lo suficiente precavido para que los usuarios puedan aceptar que las tecnologías existentes están a punto de poseer la inteligencia que él mismo mencionaba.
Las pruebas de CAPTCHA ya no son una forma eficaz de verificar que los usuarios humanos no somos bots…