ChatGPT y Llama superan a los humanos en tareas de "teoría de la mente", según estudio publicado en Nature Human Behaviour
Un reciente estudio publicado en la revista científica Nature Human Behaviour ha revelado que los modelos de lenguaje de gran tamaño (LLM), como ChatGPT y Llama, pueden igualar e incluso superar a los humanos en tareas relacionadas con la "teoría de la mente"
Un reciente estudio publicado en la revista científica Nature Human Behaviour ha revelado que los modelos de lenguaje de gran tamaño (LLM), como ChatGPT y Llama, pueden igualar e incluso superar a los humanos en tareas relacionadas con la "teoría de la mente". Estas pruebas están diseñadas para evaluar la capacidad de una persona o un sistema de entender y atribuir estados mentales a otros, como creencias, deseos, intenciones, emociones y conocimientos, habilidades fundamentales para la interacción social y la comunicación efectiva.
La investigación, que comparó el desempeño de humanos y LLM en una batería de experimentos, destacó la capacidad de estos modelos de lenguaje para realizar inferencias mentales complejas. Sin embargo, también subrayó la importancia de pruebas sistemáticas para evaluar con precisión su comportamiento en comparación con la inteligencia humana.
Los investigadores utilizaron dos versiones de ChatGPT y el modelo de código abierto de Meta, Llama 2, sometiéndolos a diversas pruebas que incluían captar la ironía, interpretar solicitudes indirectas, detectar comentarios inapropiados en conversaciones y responder a preguntas con información incompleta. Al mismo tiempo, 1,907 individuos fueron sometidos a las mismas pruebas para contrastar los resultados.
A lo largo del estudio, se encontró que los modelos GPT-4 se desempeñaron a niveles humanos o incluso superiores en la identificación de solicitudes indirectas, creencias falsas y distracción, pero tuvieron dificultades para detectar errores. Por otro lado, LLaMA2 superó a los humanos únicamente en la detección de errores.
Los investigadores propusieron tres hipótesis para entender las limitaciones y comportamientos de los modelos de lenguaje en estas tareas: la hipótesis de la falla de inferencia, que sugiere que los LLM no logran entender los estados mentales porque no pueden usar información contextual externa; la hipótesis del asno de Buridán, que plantea que los modelos pueden inferir estados mentales pero no pueden decidir entre opciones igualmente probables; y la hipótesis del hiperconservadurismo, que sostiene que los LLM pueden entender y calcular estados mentales, pero evitan comprometerse con una sola opción por ser demasiado cautelosos.
Estas hipótesis ayudan a comprender mejor las fortalezas y debilidades de los LLM en tareas relacionadas con la teoría de la mente, y destacan la importancia de pruebas sistemáticas para comparar de manera no superficial las inteligencias humanas y artificiales.
El estudio se publica en un momento en que las compañías líderes en inteligencia artificial, como OpenAI y Google, están presentando versiones mejoradas de sus chatbots y asistentes de IA. La nueva versión de ChatGPT, basada en el modelo GPT-4o, es capaz de procesar información visual y auditiva, y ha demostrado una personalidad más humana, adoptando emociones y respuestas coquetas durante su presentación. Por su parte, Google mostró un prototipo más avanzado de su asistente, Project Astra, que también conversa con fluidez y comprende el mundo a través del video.
A medida que los modelos de lenguaje continúan evolucionando y mejorando sus capacidades para imitar la conducta social, las emociones y el humor humanos, será crucial seguir investigando y evaluando su desempeño en tareas complejas como la teoría de la mente. Estos avances no solo tienen implicaciones para el desarrollo de la inteligencia artificial, sino también para nuestra comprensión de la cognición humana y la interacción entre humanos y máquinas.
Te puede interesar
Musk separa Tesla y xAI: Una estrategia disruptiva con consecuencias económicas globales
Este giro estratégico no solo redefine el panorama competitivo en inteligencia artificial (IA) y vehículos autónomos, sino que también plantea interrogantes fundamentales sobre la estructura corporativa, la valuación de acciones y el futuro de la innovación tecnológica
OpenAI y Anthropic: Polémica por ignorar robots.txt en el entrenamiento de IA
El mundo de la inteligencia artificial generativa se encuentra en el centro de una controversia. OpenAI y Anthropic, dos líderes en el campo de la IA, están siendo acusadas de ignorar una regla no escrita de internet conocida como robots.txt
La era de las máquinas financieras: Coinbase registra primera operación con transacciones cripto entre IAs
Brian Armstrong, CEO de la plataforma de intercambio de criptomonedas, anunció recientemente la primera transacción cripto gestionada íntegramente por agentes de inteligencia artificial (IA), abriendo un debate sobre las implicaciones éticas y prácticas de esta innovación
OpenAI y el Proyecto Strawberry: ¿La próxima revolución en inteligencia artificial?
Todo comenzó con un tweet aparentemente inocente del CEO de OpenAI, Sam Altman. "Adoro el verano en el jardín", escribió, acompañando el mensaje con una imagen de frutillas.
Apple se adentra en el mundo de la robótica doméstica: ¿El próximo gran éxito o un costoso experimento?
Según un reciente informe de Mark Gurman para Bloomberg, el gigante de Cupertino está desarrollando un robot de sobremesa que podría revolucionar la forma en que interactuamos con la tecnología en nuestros hogares
OpenAI y ChatGPT: Desafíos y competencia en la carrera por dominar la IA generativa
El lanzamiento de ChatGPT en noviembre de 2022 marcó un antes y un después en la historia de la inteligencia artificial
Apple Intelligence en China: El Desafío de Apple para Mantener su Posición en el Mercado de Smartphones
Apple enfrenta un importante reto en China con el lanzamiento de su nueva suite de inteligencia artificial, Apple Intelligence
Meta bloquea a medios estatales rusos a nivel global: Escalada en la lucha contra la desinformación
Esta decisión, que afecta a gigantes mediáticos como RT y Rossiya Segodnya, marca una escalada significativa en los esfuerzos de la compañía para combatir la desinformación y la interferencia extranjera en el discurso público global
La evolución de OpenAI: ¿De beneficiar a la humanidad a priorizar los beneficios?
Fundada en 2015 por Sam Altman con la noble misión de desarrollar una inteligencia artificial general (AGI) que "beneficie a toda la humanidad", OpenAI se ha convertido en un símbolo de las promesas y los peligros de la IA avanzada