14/04/2025
Según estudio reciente que se encuentra en una etapa de prepublicación, los investigadores de la Universidad de California en San Diego aplicaron una versión del Test de Turing a diferentes modelos de inteligencia artificial. 👀
En este experimento, las personas hablaban al mismo tiempo con un humano y con una IA, sin saber quién era quién. Luego, debían adivinar cuál era el humano. El resultado sorprendió: cuando a GPT-4.5 (de OpenAI) se le pidió actuar como un joven fan de Internet y la cultura pop, fue confundido con un humano el 73 % de las veces. Esto es mucho más del 50 % que se esperaría si se adivinara al azar, lo que indica que esta IA "ganó" claramente el Test de Turing.🤓
El estudio también evaluó otros modelos: Llama 3.1-405B de Meta, GPT-4o (la versión actual de ChatGPT) y hasta ELIZA, un chatbot muy antiguo. Cuando no se le daba ninguna personalidad, el GPT-4.5 bajaba su éxito al 36 %, y el GPT-4o fue identificado como humano solo el 21 % de las veces. Incluso ELIZA, con un 23 %, lo superó. 🧐
Además, se observó que las personas no eran buenas diferenciando entre humanos y estas IA con personalidad, y en varios casos, el modelo GPT-4.5 pareció más humano que los propios humanos, según explicó el autor principal Cameron Jones.🫥
El Test de Turing, creado por Alan Turing en 1950, intenta ver si una máquina puede parecer humana al hablar por escrito. Sin embargo, expertos como François Chollet (de Google) explican que Turing lo propuso más como una idea para reflexionar que como una prueba definitiva. Esto se debe a que los modelos de lenguaje, aunque producen respuestas muy realistas, no entienden ni razonan como los humanos.
Funcionan procesando grandes cantidades de texto y generando respuestas convincentes. Por eso, Jones advirtió que esto podría causar cambios importantes en la sociedad, como pérdida de empleos, fraudes más creíbles y una transformación en cómo interactuamos con la tecnología.🦾