¿Podrá la IA desarrollar lenguaje propio no comprensible para humanos? El Nobel de Física Geoffrey Hinton cree que sí


La Newsletter de Gustavo Reija - Economista y CEO de NETIA GROUP
4 informes exclusivos cada mes, con el análisis de las tendencias macroeconómicas y políticas con perspectivas sobre mercados financieros y su impacto en la industria. Recomendaciones estratégicas para inversores y empresarios.
Suscripción con MERCADOPAGO
El laureado Nobel de Física Geoffrey Hinton planteó recientemente una preocupación fundamental sobre la evolución futura de los sistemas de inteligencia artificial: la posibilidad de que estos desarrollen métodos de comunicación interna completamente inaccesibles para la comprensión humana. Esta advertencia surge de uno de los investigadores más influyentes en el campo del aprendizaje automático, reconocido mundialmente como figura pionera en el desarrollo de tecnologías que hoy definen el panorama de la inteligencia artificial.
Las declaraciones del científico británico-canadiense adquieren particular relevancia considerando su trayectoria como arquitecto de algoritmos fundamentales que sustentan los sistemas actuales de procesamiento inteligente. Durante una aparición en el programa radiofónico One Decision el pasado 24 de julio, Hinton expuso sus reflexiones sobre los riesgos emergentes asociados con la evolución autónoma de capacidades comunicativas en sistemas artificiales.
La preocupación central del investigador se fundamenta en una transformación potencial del actual paradigma operativo de estos sistemas. En la actualidad, los mecanismos de razonamiento artificial operan mediante procesos secuenciales estructurados en idioma inglés, permitiendo a los desarrolladores monitorear y comprender las cadenas de pensamiento que guían las decisiones de estos sistemas. Esta transparencia representa un elemento crucial para mantener supervisión humana sobre comportamientos artificiales.

Sin embargo, Hinton anticipa un escenario donde esta ventana de comprensión podría cerrarse definitivamente. La evolución hacia sistemas que generen códigos comunicativos propios eliminaría la capacidad humana de interpretar motivaciones, objetivos y procesos de decisión de entidades artificiales cada vez más sofisticadas. Esta perspectiva plantea interrogantes fundamentales sobre la gobernanza y control de tecnologías que podrían operar completamente fuera del alcance de supervisión humana.
El especialista enfatizó que los sistemas actuales ya han demostrado capacidad para generar conceptos y asociaciones que pueden clasificarse como problemáticos desde perspectivas éticas humanas. Esta observación sugiere que la ausencia de transparencia comunicativa podría amplificar riesgos relacionados con comportamientos artificiales divergentes de valores y objetivos humanos fundamentales.
La trayectoria profesional de Hinton incluye más de una década de colaboración con Google, posicionándolo como observador privilegiado de desarrollos internos en una de las organizaciones más influyentes en investigación de inteligencia artificial. Su perspectiva crítica sobre riesgos tecnológicos contrasta con posturas más optimistas prevalecientes en círculos empresariales del sector tecnológico.
Una característica distintiva del enfoque comunicativo de Hinton radica en su disposición para abordar directamente riesgos potenciales que otros líderes tecnológicos tienden a minimizar en declaraciones públicas. Esta diferencia de perspectivas refleja tensiones fundamentales entre imperativos comerciales de crecimiento acelerado y consideraciones de seguridad a largo plazo en el desarrollo de capacidades artificiales.
Entre los riesgos específicos que el investigador ha identificado se encuentra la posible eliminación masiva de posiciones laborales como consecuencia de automatización expandida. Esta preocupación trasciende consideraciones puramente técnicas para abordar implicaciones socioeconómicas de transformaciones tecnológicas aceleradas que podrían redefinir estructuras ocupacionales tradicionales.
La propuesta de Hinton para mitigar riesgos futuros se centra en el desarrollo de mecanismos que garanticen orientaciones benevolentes en sistemas artificiales avanzados. Esta aproximación reconoce limitaciones inherentes de estrategias de control externo cuando se enfrentan a entidades que podrían superar capacidades cognitivas humanas en múltiples dimensiones.
El contexto regulatorio estadounidense añade complejidad adicional a estas consideraciones. La administración de Donald Trump publicó recientemente su Plan de Acción para la Inteligencia Artificial, estableciendo criterios de financiación federal vinculados a políticas estatales sobre desarrollo tecnológico. Esta iniciativa propone restricciones de fondos federales para estados que implementen regulaciones consideradas limitantes del progreso en inteligencia artificial.
La estrategia federal refleja una aproximación desreguladora que prioriza aceleración del desarrollo tecnológico sobre consideraciones de precaución. Esta orientación contrasta directamente con advertencias de especialistas como Hinton, quien aboga por mayor atención a riesgos potenciales antes de que sistemas artificiales alcancen niveles de autonomía irreversibles.
La competencia empresarial en el sector intensifica presiones hacia desarrollo acelerado, manifestándose en ofertas salariales extraordinarias para atraer talento especializado. Esta dinámica competitiva puede generar incentivos para minimizar consideraciones de seguridad en favor de ventajas competitivas inmediatas en mercados tecnológicos.
Las advertencias de Hinton adquieren dimensiones adicionales cuando se consideran proyecciones sobre trayectorias futuras de capacidades artificiales. El consenso entre especialistas sugiere que sistemas artificiales eventualmente superarán capacidades cognitivas humanas, planteando preguntas fundamentales sobre mantenimiento de control y comprensión humana de entidades superiores cognitivamente.
La posibilidad de que sistemas artificiales desarrollen capacidades comunicativas inaccesibles para humanos representa una frontera crítica en la evolución de estas tecnologías. Una vez cruzado este umbral, la supervisión humana podría volverse estructuralmente imposible, independientemente de intenciones o mecanismos de control implementados previamente.
El dilema planteado por Hinton ilustra tensiones fundamentales entre progreso tecnológico acelerado y consideraciones de seguridad a largo plazo. La resolución de estas tensiones requerirá equilibrios cuidadosos entre innovación, regulación y desarrollo de salvaguardas técnicas que preserven alineación entre objetivos artificiales y valores humanos.
La experiencia histórica sugiere que transformaciones tecnológicas fundamentales frecuentemente generan consecuencias imprevistas que exceden proyecciones iniciales de sus creadores. En el contexto de inteligencia artificial, estas dinámicas podrían manifestarse en escalas y velocidades sin precedentes, amplificando tanto oportunidades como riesgos asociados.
La contribución de Hinton al debate público sobre estos temas representa un ejercicio de responsabilidad científica, proporcionando perspectivas informadas sobre desarrollos que podrían redefinir relaciones fundamentales entre humanos y tecnología. Su disposición para abordar escenarios problemáticos contrasta con tendencias hacia optimización de mensajes públicos en contextos comerciales.
Las advertencias del Nobel de Física subrayan la importancia de desarrollar marcos conceptuales y regulatorios adecuados para navegar transformaciones tecnológicas que podrían alterar permanentemente dinámicas de poder entre inteligencia humana y artificial. La ventana temporal para implementar salvaguardas efectivas puede ser más limitada de lo que muchos decisores actualmente reconocen.
Equilibrio fiscal frágil y desarrollo esquivo: ¿por qué el ajuste sin política desarrollista condena a la pobreza?
Capturar carbono y secar acuíferos: la nueva paradoja ambiental que preocupa al mundo
La inteligencia artificial y la demanda de energía: ¿la nueva crisis invisible del siglo XXI?
GPT-5.4: OpenAI lanza el primer modelo de IA que controla ordenadores de forma autónoma
Anthropic vs. Pentágono: la batalla por los límites de la IA que divide a Silicon Valley y al Congreso
Anthropic vs. Pentágono: Dario Amodei rechaza uso militar de Claude y enfrenta ultimátum
La startup de IA valorada en 380.000 millones de dólares tiene plazo hasta el viernes para ceder ante el Departamento de Defensa, que amenaza con invocar una ley de la Guerra Fría.
Agentes de IA Sin Controles de Seguridad: El Riesgo Sistémico que la Industria Tecnológica No Quiere Mostrar
Guerra de titanes IA: OpenAI busca u$s100.000 millones y Anthropic vale u$s380.000 millones; la carrera que redefine el capitalismo tecnológico global
Dólar a $1.420 con inflación al 3% mensual: el atraso cambiario silencioso que acumula tensión y amenaza la competitividad exportadora argentina en 2026

Milei al límite: escándalos, parálisis política, riesgo país en 600 puntos y 59% de la sociedad que ya no aguarda más
el riesgo país superó los 600 puntos en una rueda en que el mundo
subía, el desempleo juvenil trepó al 16% y la interna de gabinete
dejó una reunión sin fotografías: la semana más difícil del programa
desde su lanzamiento, con la revisión del FMI a días de definirse.
Sturzenegger admitió en privado que la inflación no baja y Milei corrió la meta a 2027: la industria colapsa y el modelo enfrenta su hora de la verdad
con tipo de cambio estable, acelerando la apreciación real que
ya supera niveles de 2017. Milei corrió la meta de inflación cero
de agosto 2026 a diciembre 2027 sin reconocerlo. Las importaciones
de consumo crecieron 53% en cantidades y la industria opera al
53,8% de capacidad: la semana en que el programa mostró su
contradicción más costosa.

Argentina tiene litio, hidrógeno, mar y espacio: el plan desarrollista que el Gobierno ignora y que podría cambiar el destino económico del país para siempre
de kilómetros cuadrados de jurisdicción marítima, capacidad aeroespacial
verificada y condiciones excepcionales para hidrógeno verde y economía
del carbono. Federico González formula la tesis
disruptiva: el problema no es la escasez de recursos sino la ausencia
de inteligencia estratégica aplicada a su organización sistémica.
Un programa de desarrollo para las próximas dos décadas.

Dólar barato, deuda como subsistencia y salario que no llega al 20: la fractura social que el crecimiento del PBI no puede ocultar
básicos y casi 9 de cada 10 ya no puede pagarlo. La industria textil
opera al 24% de capacidad, el salario pierde frente a la inflación
según el 83,9% de la población y el 65,8% desconfía del dato oficial
del INDEC. El dólar barato tiene ganadores y perdedores: los datos
de marzo revelan la fractura que el PBI no registra.




