La Realidad, lo más increíble que tenemos

¿Podrá la IA desarrollar lenguaje propio no comprensible para humanos? El Nobel de Física Geoffrey Hinton cree que sí

El laureado Nobel de Física Geoffrey Hinton planteó recientemente una preocupación fundamental sobre la evolución futura de los sistemas de inteligencia artificial: la posibilidad de que estos desarrollen métodos de comunicación interna completamente inaccesibles para la comprensión humana

Tecnología05/08/2025 13News-Tecnología

 La Newsletter de Gustavo Reija - Economista-CEO NETIA GROUP

Informe Privado Semanal - Suscripción Mensual (4 informes) con MERCADOPAGO

Captura de pantalla 2025-03-22 191711

 

El laureado Nobel de Física Geoffrey Hinton planteó recientemente una preocupación fundamental sobre la evolución futura de los sistemas de inteligencia artificial: la posibilidad de que estos desarrollen métodos de comunicación interna completamente inaccesibles para la comprensión humana. Esta advertencia surge de uno de los investigadores más influyentes en el campo del aprendizaje automático, reconocido mundialmente como figura pionera en el desarrollo de tecnologías que hoy definen el panorama de la inteligencia artificial.

Las declaraciones del científico británico-canadiense adquieren particular relevancia considerando su trayectoria como arquitecto de algoritmos fundamentales que sustentan los sistemas actuales de procesamiento inteligente. Durante una aparición en el programa radiofónico One Decision el pasado 24 de julio, Hinton expuso sus reflexiones sobre los riesgos emergentes asociados con la evolución autónoma de capacidades comunicativas en sistemas artificiales.

guillermo_francosFrancos: LLA y PRO próximos a sellar alianza en CABA

La preocupación central del investigador se fundamenta en una transformación potencial del actual paradigma operativo de estos sistemas. En la actualidad, los mecanismos de razonamiento artificial operan mediante procesos secuenciales estructurados en idioma inglés, permitiendo a los desarrolladores monitorear y comprender las cadenas de pensamiento que guían las decisiones de estos sistemas. Esta transparencia representa un elemento crucial para mantener supervisión humana sobre comportamientos artificiales.

Sin embargo, Hinton anticipa un escenario donde esta ventana de comprensión podría cerrarse definitivamente. La evolución hacia sistemas que generen códigos comunicativos propios eliminaría la capacidad humana de interpretar motivaciones, objetivos y procesos de decisión de entidades artificiales cada vez más sofisticadas. Esta perspectiva plantea interrogantes fundamentales sobre la gobernanza y control de tecnologías que podrían operar completamente fuera del alcance de supervisión humana.

El especialista enfatizó que los sistemas actuales ya han demostrado capacidad para generar conceptos y asociaciones que pueden clasificarse como problemáticos desde perspectivas éticas humanas. Esta observación sugiere que la ausencia de transparencia comunicativa podría amplificar riesgos relacionados con comportamientos artificiales divergentes de valores y objetivos humanos fundamentales.

La trayectoria profesional de Hinton incluye más de una década de colaboración con Google, posicionándolo como observador privilegiado de desarrollos internos en una de las organizaciones más influyentes en investigación de inteligencia artificial. Su perspectiva crítica sobre riesgos tecnológicos contrasta con posturas más optimistas prevalecientes en círculos empresariales del sector tecnológico.

Una característica distintiva del enfoque comunicativo de Hinton radica en su disposición para abordar directamente riesgos potenciales que otros líderes tecnológicos tienden a minimizar en declaraciones públicas. Esta diferencia de perspectivas refleja tensiones fundamentales entre imperativos comerciales de crecimiento acelerado y consideraciones de seguridad a largo plazo en el desarrollo de capacidades artificiales.

Entre los riesgos específicos que el investigador ha identificado se encuentra la posible eliminación masiva de posiciones laborales como consecuencia de automatización expandida. Esta preocupación trasciende consideraciones puramente técnicas para abordar implicaciones socioeconómicas de transformaciones tecnológicas aceleradas que podrían redefinir estructuras ocupacionales tradicionales.

La propuesta de Hinton para mitigar riesgos futuros se centra en el desarrollo de mecanismos que garanticen orientaciones benevolentes en sistemas artificiales avanzados. Esta aproximación reconoce limitaciones inherentes de estrategias de control externo cuando se enfrentan a entidades que podrían superar capacidades cognitivas humanas en múltiples dimensiones.

supermercado-3Caputo enfrenta su mayor desafío para frenar alzas de precios

El contexto regulatorio estadounidense añade complejidad adicional a estas consideraciones. La administración de Donald Trump publicó recientemente su Plan de Acción para la Inteligencia Artificial, estableciendo criterios de financiación federal vinculados a políticas estatales sobre desarrollo tecnológico. Esta iniciativa propone restricciones de fondos federales para estados que implementen regulaciones consideradas limitantes del progreso en inteligencia artificial.

La estrategia federal refleja una aproximación desreguladora que prioriza aceleración del desarrollo tecnológico sobre consideraciones de precaución. Esta orientación contrasta directamente con advertencias de especialistas como Hinton, quien aboga por mayor atención a riesgos potenciales antes de que sistemas artificiales alcancen niveles de autonomía irreversibles.

La competencia empresarial en el sector intensifica presiones hacia desarrollo acelerado, manifestándose en ofertas salariales extraordinarias para atraer talento especializado. Esta dinámica competitiva puede generar incentivos para minimizar consideraciones de seguridad en favor de ventajas competitivas inmediatas en mercados tecnológicos.

Las advertencias de Hinton adquieren dimensiones adicionales cuando se consideran proyecciones sobre trayectorias futuras de capacidades artificiales. El consenso entre especialistas sugiere que sistemas artificiales eventualmente superarán capacidades cognitivas humanas, planteando preguntas fundamentales sobre mantenimiento de control y comprensión humana de entidades superiores cognitivamente.

La posibilidad de que sistemas artificiales desarrollen capacidades comunicativas inaccesibles para humanos representa una frontera crítica en la evolución de estas tecnologías. Una vez cruzado este umbral, la supervisión humana podría volverse estructuralmente imposible, independientemente de intenciones o mecanismos de control implementados previamente.

El dilema planteado por Hinton ilustra tensiones fundamentales entre progreso tecnológico acelerado y consideraciones de seguridad a largo plazo. La resolución de estas tensiones requerirá equilibrios cuidadosos entre innovación, regulación y desarrollo de salvaguardas técnicas que preserven alineación entre objetivos artificiales y valores humanos.

javier-milei-y-su-hermana-karina-milei-1725737Se complica la alianza entre el PRO y La Libertad Avanza en CABA ¿Habrá acuerdo?

La experiencia histórica sugiere que transformaciones tecnológicas fundamentales frecuentemente generan consecuencias imprevistas que exceden proyecciones iniciales de sus creadores. En el contexto de inteligencia artificial, estas dinámicas podrían manifestarse en escalas y velocidades sin precedentes, amplificando tanto oportunidades como riesgos asociados.

La contribución de Hinton al debate público sobre estos temas representa un ejercicio de responsabilidad científica, proporcionando perspectivas informadas sobre desarrollos que podrían redefinir relaciones fundamentales entre humanos y tecnología. Su disposición para abordar escenarios problemáticos contrasta con tendencias hacia optimización de mensajes públicos en contextos comerciales.

Las advertencias del Nobel de Física subrayan la importancia de desarrollar marcos conceptuales y regulatorios adecuados para navegar transformaciones tecnológicas que podrían alterar permanentemente dinámicas de poder entre inteligencia humana y artificial. La ventana temporal para implementar salvaguardas efectivas puede ser más limitada de lo que muchos decisores actualmente reconocen.

Últimas noticias
Te puede interesar
OIP

Nvidia, AMD y Broadcom Retienen Talento con "Esposas de Oro": Empleados Ganan Millones en Acciones

13News-Tecnología
Tecnología01/11/2025

Los gigantes fabricantes de semiconductores implementan estrategias agresivas de retención mediante compensaciones millonarias en acciones. Nvidia, Broadcom y AMD aprovechan el boom de inteligencia artificial para vincular salarios al precio accionario. La táctica genera dilemas éticos y financieros entre trabajadores que enfrentan pérdidas millonarias si abandonan sus puestos antes del período estipulado

OIP

Bernie Sanders propone impuestos a los Robots ante la amenaza de IA que eliminaría 100 millones de empleos

13News-Tecnología
Tecnología12/10/2025

El senador de Vermont plantea un impuesto a los robots como solución para proteger a trabajadores estadounidenses frente al avance de la inteligencia artificial y la automatización. Su informe advierte sobre una disrupción laboral sin precedentes en la próxima década que podría transformar la economía más rápido que cualquier revolución industrial anterior

Lo más visto
OIP

Nvidia, AMD y Broadcom Retienen Talento con "Esposas de Oro": Empleados Ganan Millones en Acciones

13News-Tecnología
Tecnología01/11/2025

Los gigantes fabricantes de semiconductores implementan estrategias agresivas de retención mediante compensaciones millonarias en acciones. Nvidia, Broadcom y AMD aprovechan el boom de inteligencia artificial para vincular salarios al precio accionario. La táctica genera dilemas éticos y financieros entre trabajadores que enfrentan pérdidas millonarias si abandonan sus puestos antes del período estipulado

Suscríbete al newsletter para recibir periódicamente las novedades en tu email