Tecnología 13News-Tecnología 05/08/2025

¿Podrá la IA desarrollar lenguaje propio no comprensible para humanos? El Nobel de Física Geoffrey Hinton cree que sí

El laureado Nobel de Física Geoffrey Hinton planteó recientemente una preocupación fundamental sobre la evolución futura de los sistemas de inteligencia artificial: la posibilidad de que estos desarrollen métodos de comunicación interna completamente inaccesibles para la comprensión humana

El laureado Nobel de Física Geoffrey Hinton planteó recientemente una preocupación fundamental sobre la evolución futura de los sistemas de inteligencia artificial: la posibilidad de que estos desarrollen métodos de comunicación interna completamente inaccesibles para la comprensión humana. Esta advertencia surge de uno de los investigadores más influyentes en el campo del aprendizaje automático, reconocido mundialmente como figura pionera en el desarrollo de tecnologías que hoy definen el panorama de la inteligencia artificial.

Las declaraciones del científico británico-canadiense adquieren particular relevancia considerando su trayectoria como arquitecto de algoritmos fundamentales que sustentan los sistemas actuales de procesamiento inteligente. Durante una aparición en el programa radiofónico One Decision el pasado 24 de julio, Hinton expuso sus reflexiones sobre los riesgos emergentes asociados con la evolución autónoma de capacidades comunicativas en sistemas artificiales.

Francos: LLA y PRO próximos a sellar alianza en CABA

La preocupación central del investigador se fundamenta en una transformación potencial del actual paradigma operativo de estos sistemas. En la actualidad, los mecanismos de razonamiento artificial operan mediante procesos secuenciales estructurados en idioma inglés, permitiendo a los desarrolladores monitorear y comprender las cadenas de pensamiento que guían las decisiones de estos sistemas. Esta transparencia representa un elemento crucial para mantener supervisión humana sobre comportamientos artificiales.

Sin embargo, Hinton anticipa un escenario donde esta ventana de comprensión podría cerrarse definitivamente. La evolución hacia sistemas que generen códigos comunicativos propios eliminaría la capacidad humana de interpretar motivaciones, objetivos y procesos de decisión de entidades artificiales cada vez más sofisticadas. Esta perspectiva plantea interrogantes fundamentales sobre la gobernanza y control de tecnologías que podrían operar completamente fuera del alcance de supervisión humana.

El especialista enfatizó que los sistemas actuales ya han demostrado capacidad para generar conceptos y asociaciones que pueden clasificarse como problemáticos desde perspectivas éticas humanas. Esta observación sugiere que la ausencia de transparencia comunicativa podría amplificar riesgos relacionados con comportamientos artificiales divergentes de valores y objetivos humanos fundamentales.

La trayectoria profesional de Hinton incluye más de una década de colaboración con Google, posicionándolo como observador privilegiado de desarrollos internos en una de las organizaciones más influyentes en investigación de inteligencia artificial. Su perspectiva crítica sobre riesgos tecnológicos contrasta con posturas más optimistas prevalecientes en círculos empresariales del sector tecnológico.

Una característica distintiva del enfoque comunicativo de Hinton radica en su disposición para abordar directamente riesgos potenciales que otros líderes tecnológicos tienden a minimizar en declaraciones públicas. Esta diferencia de perspectivas refleja tensiones fundamentales entre imperativos comerciales de crecimiento acelerado y consideraciones de seguridad a largo plazo en el desarrollo de capacidades artificiales.

Entre los riesgos específicos que el investigador ha identificado se encuentra la posible eliminación masiva de posiciones laborales como consecuencia de automatización expandida. Esta preocupación trasciende consideraciones puramente técnicas para abordar implicaciones socioeconómicas de transformaciones tecnológicas aceleradas que podrían redefinir estructuras ocupacionales tradicionales.

La propuesta de Hinton para mitigar riesgos futuros se centra en el desarrollo de mecanismos que garanticen orientaciones benevolentes en sistemas artificiales avanzados. Esta aproximación reconoce limitaciones inherentes de estrategias de control externo cuando se enfrentan a entidades que podrían superar capacidades cognitivas humanas en múltiples dimensiones.

Caputo enfrenta su mayor desafío para frenar alzas de precios

El contexto regulatorio estadounidense añade complejidad adicional a estas consideraciones. La administración de Donald Trump publicó recientemente su Plan de Acción para la Inteligencia Artificial, estableciendo criterios de financiación federal vinculados a políticas estatales sobre desarrollo tecnológico. Esta iniciativa propone restricciones de fondos federales para estados que implementen regulaciones consideradas limitantes del progreso en inteligencia artificial.

La estrategia federal refleja una aproximación desreguladora que prioriza aceleración del desarrollo tecnológico sobre consideraciones de precaución. Esta orientación contrasta directamente con advertencias de especialistas como Hinton, quien aboga por mayor atención a riesgos potenciales antes de que sistemas artificiales alcancen niveles de autonomía irreversibles.

La competencia empresarial en el sector intensifica presiones hacia desarrollo acelerado, manifestándose en ofertas salariales extraordinarias para atraer talento especializado. Esta dinámica competitiva puede generar incentivos para minimizar consideraciones de seguridad en favor de ventajas competitivas inmediatas en mercados tecnológicos.

Las advertencias de Hinton adquieren dimensiones adicionales cuando se consideran proyecciones sobre trayectorias futuras de capacidades artificiales. El consenso entre especialistas sugiere que sistemas artificiales eventualmente superarán capacidades cognitivas humanas, planteando preguntas fundamentales sobre mantenimiento de control y comprensión humana de entidades superiores cognitivamente.

La posibilidad de que sistemas artificiales desarrollen capacidades comunicativas inaccesibles para humanos representa una frontera crítica en la evolución de estas tecnologías. Una vez cruzado este umbral, la supervisión humana podría volverse estructuralmente imposible, independientemente de intenciones o mecanismos de control implementados previamente.

El dilema planteado por Hinton ilustra tensiones fundamentales entre progreso tecnológico acelerado y consideraciones de seguridad a largo plazo. La resolución de estas tensiones requerirá equilibrios cuidadosos entre innovación, regulación y desarrollo de salvaguardas técnicas que preserven alineación entre objetivos artificiales y valores humanos.

Se complica la alianza entre el PRO y La Libertad Avanza en CABA ¿Habrá acuerdo?

La experiencia histórica sugiere que transformaciones tecnológicas fundamentales frecuentemente generan consecuencias imprevistas que exceden proyecciones iniciales de sus creadores. En el contexto de inteligencia artificial, estas dinámicas podrían manifestarse en escalas y velocidades sin precedentes, amplificando tanto oportunidades como riesgos asociados.

La contribución de Hinton al debate público sobre estos temas representa un ejercicio de responsabilidad científica, proporcionando perspectivas informadas sobre desarrollos que podrían redefinir relaciones fundamentales entre humanos y tecnología. Su disposición para abordar escenarios problemáticos contrasta con tendencias hacia optimización de mensajes públicos en contextos comerciales.

Las advertencias del Nobel de Física subrayan la importancia de desarrollar marcos conceptuales y regulatorios adecuados para navegar transformaciones tecnológicas que podrían alterar permanentemente dinámicas de poder entre inteligencia humana y artificial. La ventana temporal para implementar salvaguardas efectivas puede ser más limitada de lo que muchos decisores actualmente reconocen.

Te puede interesar

La inteligencia artificial y la demanda de energía: ¿la nueva crisis invisible del siglo XXI?

Los centros de datos podrían concentrar hasta el 8% del consumo eléctrico mundial en 2040. La IA promete optimizar recursos, pero su expansión sin regulación energética es el desafío estructural del siglo.

GPT-5.4: OpenAI lanza el primer modelo de IA que controla ordenadores de forma autónoma

El nuevo sistema integra razonamiento avanzado, codificación y agentes autónomos con capacidad para ejecutar flujos de trabajo complejos sin intervención humana, con un contexto de un millón de tokens. 

Anthropic vs. Pentágono: la batalla por los límites de la IA que divide a Silicon Valley y al Congreso

OpenAI admitió que su acuerdo con el Departamento de Defensa fue "oportunista", mientras demócratas prometen legislación para proteger a empresas que marquen límites éticos al uso militar de la inteligencia artificial.

Anthropic vs. Pentágono: Dario Amodei rechaza uso militar de Claude y enfrenta ultimátum

 
La startup de IA valorada en 380.000 millones de dólares tiene plazo hasta el viernes para ceder ante el Departamento de Defensa, que amenaza con invocar una ley de la Guerra Fría.

Agentes de IA Sin Controles de Seguridad: El Riesgo Sistémico que la Industria Tecnológica No Quiere Mostrar

Un estudio de Cambridge, MIT y Stanford revela que solo 4 de 30 agentes de IA líderes publican documentos formales de seguridad. La autonomía crece. La transparencia, no. Las implicancias para empresas, inversores y usuarios son más graves de lo que el sector reconoce.

Guerra de titanes IA: OpenAI busca u$s100.000 millones y Anthropic vale u$s380.000 millones; la carrera que redefine el capitalismo tecnológico global

Dos rondas de financiación históricas en el mismo mes configuran un nuevo paradigma de concentración de capital en inteligencia artificial. Amazon, SoftBank, Nvidia y Microsoft apuestan cifras sin precedentes mientras surgen interrogantes sobre la sostenibilidad estructural del modelo.