La Realidad, lo más increíble que tenemos

¿Podrá la IA desarrollar lenguaje propio no comprensible para humanos? El Nobel de Física Geoffrey Hinton cree que sí

El laureado Nobel de Física Geoffrey Hinton planteó recientemente una preocupación fundamental sobre la evolución futura de los sistemas de inteligencia artificial: la posibilidad de que estos desarrollen métodos de comunicación interna completamente inaccesibles para la comprensión humana

Tecnología05/08/2025 13News-Tecnología

 La Newsletter de Gustavo Reija - Economista-CEO NETIA GROUP

Informe Privado Semanal - Suscripción Mensual (4 informes) con MERCADOPAGO

Captura de pantalla 2025-03-22 191711

 

El laureado Nobel de Física Geoffrey Hinton planteó recientemente una preocupación fundamental sobre la evolución futura de los sistemas de inteligencia artificial: la posibilidad de que estos desarrollen métodos de comunicación interna completamente inaccesibles para la comprensión humana. Esta advertencia surge de uno de los investigadores más influyentes en el campo del aprendizaje automático, reconocido mundialmente como figura pionera en el desarrollo de tecnologías que hoy definen el panorama de la inteligencia artificial.

Las declaraciones del científico británico-canadiense adquieren particular relevancia considerando su trayectoria como arquitecto de algoritmos fundamentales que sustentan los sistemas actuales de procesamiento inteligente. Durante una aparición en el programa radiofónico One Decision el pasado 24 de julio, Hinton expuso sus reflexiones sobre los riesgos emergentes asociados con la evolución autónoma de capacidades comunicativas en sistemas artificiales.

guillermo_francosFrancos: LLA y PRO próximos a sellar alianza en CABA

La preocupación central del investigador se fundamenta en una transformación potencial del actual paradigma operativo de estos sistemas. En la actualidad, los mecanismos de razonamiento artificial operan mediante procesos secuenciales estructurados en idioma inglés, permitiendo a los desarrolladores monitorear y comprender las cadenas de pensamiento que guían las decisiones de estos sistemas. Esta transparencia representa un elemento crucial para mantener supervisión humana sobre comportamientos artificiales.

Sin embargo, Hinton anticipa un escenario donde esta ventana de comprensión podría cerrarse definitivamente. La evolución hacia sistemas que generen códigos comunicativos propios eliminaría la capacidad humana de interpretar motivaciones, objetivos y procesos de decisión de entidades artificiales cada vez más sofisticadas. Esta perspectiva plantea interrogantes fundamentales sobre la gobernanza y control de tecnologías que podrían operar completamente fuera del alcance de supervisión humana.

El especialista enfatizó que los sistemas actuales ya han demostrado capacidad para generar conceptos y asociaciones que pueden clasificarse como problemáticos desde perspectivas éticas humanas. Esta observación sugiere que la ausencia de transparencia comunicativa podría amplificar riesgos relacionados con comportamientos artificiales divergentes de valores y objetivos humanos fundamentales.

La trayectoria profesional de Hinton incluye más de una década de colaboración con Google, posicionándolo como observador privilegiado de desarrollos internos en una de las organizaciones más influyentes en investigación de inteligencia artificial. Su perspectiva crítica sobre riesgos tecnológicos contrasta con posturas más optimistas prevalecientes en círculos empresariales del sector tecnológico.

Una característica distintiva del enfoque comunicativo de Hinton radica en su disposición para abordar directamente riesgos potenciales que otros líderes tecnológicos tienden a minimizar en declaraciones públicas. Esta diferencia de perspectivas refleja tensiones fundamentales entre imperativos comerciales de crecimiento acelerado y consideraciones de seguridad a largo plazo en el desarrollo de capacidades artificiales.

Entre los riesgos específicos que el investigador ha identificado se encuentra la posible eliminación masiva de posiciones laborales como consecuencia de automatización expandida. Esta preocupación trasciende consideraciones puramente técnicas para abordar implicaciones socioeconómicas de transformaciones tecnológicas aceleradas que podrían redefinir estructuras ocupacionales tradicionales.

La propuesta de Hinton para mitigar riesgos futuros se centra en el desarrollo de mecanismos que garanticen orientaciones benevolentes en sistemas artificiales avanzados. Esta aproximación reconoce limitaciones inherentes de estrategias de control externo cuando se enfrentan a entidades que podrían superar capacidades cognitivas humanas en múltiples dimensiones.

supermercado-3Caputo enfrenta su mayor desafío para frenar alzas de precios

El contexto regulatorio estadounidense añade complejidad adicional a estas consideraciones. La administración de Donald Trump publicó recientemente su Plan de Acción para la Inteligencia Artificial, estableciendo criterios de financiación federal vinculados a políticas estatales sobre desarrollo tecnológico. Esta iniciativa propone restricciones de fondos federales para estados que implementen regulaciones consideradas limitantes del progreso en inteligencia artificial.

La estrategia federal refleja una aproximación desreguladora que prioriza aceleración del desarrollo tecnológico sobre consideraciones de precaución. Esta orientación contrasta directamente con advertencias de especialistas como Hinton, quien aboga por mayor atención a riesgos potenciales antes de que sistemas artificiales alcancen niveles de autonomía irreversibles.

La competencia empresarial en el sector intensifica presiones hacia desarrollo acelerado, manifestándose en ofertas salariales extraordinarias para atraer talento especializado. Esta dinámica competitiva puede generar incentivos para minimizar consideraciones de seguridad en favor de ventajas competitivas inmediatas en mercados tecnológicos.

Las advertencias de Hinton adquieren dimensiones adicionales cuando se consideran proyecciones sobre trayectorias futuras de capacidades artificiales. El consenso entre especialistas sugiere que sistemas artificiales eventualmente superarán capacidades cognitivas humanas, planteando preguntas fundamentales sobre mantenimiento de control y comprensión humana de entidades superiores cognitivamente.

La posibilidad de que sistemas artificiales desarrollen capacidades comunicativas inaccesibles para humanos representa una frontera crítica en la evolución de estas tecnologías. Una vez cruzado este umbral, la supervisión humana podría volverse estructuralmente imposible, independientemente de intenciones o mecanismos de control implementados previamente.

El dilema planteado por Hinton ilustra tensiones fundamentales entre progreso tecnológico acelerado y consideraciones de seguridad a largo plazo. La resolución de estas tensiones requerirá equilibrios cuidadosos entre innovación, regulación y desarrollo de salvaguardas técnicas que preserven alineación entre objetivos artificiales y valores humanos.

javier-milei-y-su-hermana-karina-milei-1725737Se complica la alianza entre el PRO y La Libertad Avanza en CABA ¿Habrá acuerdo?

La experiencia histórica sugiere que transformaciones tecnológicas fundamentales frecuentemente generan consecuencias imprevistas que exceden proyecciones iniciales de sus creadores. En el contexto de inteligencia artificial, estas dinámicas podrían manifestarse en escalas y velocidades sin precedentes, amplificando tanto oportunidades como riesgos asociados.

La contribución de Hinton al debate público sobre estos temas representa un ejercicio de responsabilidad científica, proporcionando perspectivas informadas sobre desarrollos que podrían redefinir relaciones fundamentales entre humanos y tecnología. Su disposición para abordar escenarios problemáticos contrasta con tendencias hacia optimización de mensajes públicos en contextos comerciales.

Las advertencias del Nobel de Física subrayan la importancia de desarrollar marcos conceptuales y regulatorios adecuados para navegar transformaciones tecnológicas que podrían alterar permanentemente dinámicas de poder entre inteligencia humana y artificial. La ventana temporal para implementar salvaguardas efectivas puede ser más limitada de lo que muchos decisores actualmente reconocen.

Te puede interesar
apple-logo-wallpaper-14

Tim Cook abre Apple a compras masivas para competir en IA

13News-Tecnología
Tecnología01/08/2025

La compañía de Cupertino experimenta un cambio estratégico fundamental en su aproximación al crecimiento corporativo, abandonando su tradicional cautela hacia las grandes adquisiciones para adoptar una postura agresivamente expansiva en el mercado de inteligencia artificial

Lo más visto
OIP

Tensión cambiaria: Caputo enfrenta test crítico ante escalada del dólar

13News-Economía
Economía04/08/2025

La arquitectura cambiaria implementada por el gobierno de Javier Milei atraviesa su primera prueba de resistencia significativa desde la eliminación del cepo para minoristas en abril, evidenciando un desequilibrio estructural donde la demanda de divisas supera sistemáticamente la oferta disponible en el mercado

guillermo_francos

Francos: LLA y PRO próximos a sellar alianza en CABA

13News-Política
Política05/08/2025

Las conversaciones entre La Libertad Avanza y el Partido Republicano Propuesta atraviesan su etapa final en la capital del país, con perspectivas optimistas para materializar una confluencia electoral antes del vencimiento de los plazos reglamentarios

Suscríbete al newsletter para recibir periódicamente las novedades en tu email