OpenAI disuelve su equipo dedicado a estudiar los riesgos a largo plazo de la IA


La Newsletter de Gustavo Reija - Economista y CEO de NETIA GROUP
4 informes exclusivos cada mes, con el análisis de las tendencias macroeconómicas y políticas con perspectivas sobre mercados financieros y su impacto en la industria. Recomendaciones estratégicas para inversores y empresarios.
Suscripción con MERCADOPAGO
OpenAI, la empresa detrás de ChatGPT, ha confirmado que su equipo de "Superalineación", encargado de analizar y prepararse para los peligros a largo plazo de la inteligencia artificial superinteligente, ha sido disuelto. Esta noticia llega tras la marcha de varios investigadores clave, incluyendo a Ilya Sutskever, cofundador y científico jefe de OpenAI, y Jan Leike, quien era el otro colíder del equipo.
El equipo de Superalineación fue anunciado en julio del año pasado, con el objetivo de preparar a la empresa para la llegada de una IA capaz de superar a sus creadores. Sin embargo, menos de un año después, todo el equipo ha dimitido o ha sido absorbido por otros grupos de investigación dentro de OpenAI.
La marcha de Sutskever ha llamado especialmente la atención, ya que fue uno de los cuatro miembros de la Junta que despidió al CEO Sam Altman en noviembre, antes de que este fuera restituido tras una revuelta masiva del personal y la mediación de un acuerdo que llevó a Sutskever y otros dos directores a abandonar la Junta.


Por su parte, Jan Leike anunció su dimisión horas después de que se hiciera pública la salida de Sutskever, citando desacuerdos sobre las prioridades de la empresa y la cantidad de recursos asignados a su equipo. Leike afirmó que en los últimos meses habían estado "navegando contra el viento" y enfrentando problemas de computación para llevar a cabo su investigación.
Además de Sutskever y Leike, otros dos investigadores del equipo de Superalineación, Leopold Aschenbrenner y Pavel Izmailov, fueron despedidos por filtrar secretos de la empresa, mientras que William Saunders abandonó OpenAI en febrero. Otros dos investigadores que trabajaban en política y gobernanza de la IA, Cullen O'Keefe y Daniel Kokotajlo, también parecen haber dejado la empresa recientemente.
OpenAI ha declinado hacer comentarios sobre estas salidas o sobre el futuro de su trabajo sobre los riesgos de la IA a largo plazo. La investigación sobre los riesgos asociados a modelos más potentes correrá a cargo de John Schulman, quien coordina el equipo responsable de ajustar los modelos de IA tras el entrenamiento.
La disolución del equipo de Superalineación se produce en un momento en que OpenAI está presentando avances significativos en su tecnología, como GPT-4o, un nuevo modelo de IA "multimodal" que permite a ChatGPT ver el mundo y conversar de una forma más natural y humana. Sin embargo, estos avances también plantean cuestiones éticas en torno a la privacidad, la manipulación emocional y los riesgos de ciberseguridad.
Aunque OpenAI cuenta con otro grupo de investigación, el equipo Preparedness, que se centra en estas cuestiones, la salida de figuras clave como Sutskever y Leike, así como la disolución del equipo de Superalineación, podrían generar dudas sobre el compromiso de la empresa con el desarrollo seguro y responsable de la IA superinteligente. El futuro dirá cómo afectarán estos cambios a la trayectoria de OpenAI y a su capacidad para cumplir con su misión de crear una IA beneficiosa para la humanidad.
GPT-5.4: OpenAI lanza el primer modelo de IA que controla ordenadores de forma autónoma
Anthropic vs. Pentágono: la batalla por los límites de la IA que divide a Silicon Valley y al Congreso
Anthropic vs. Pentágono: Dario Amodei rechaza uso militar de Claude y enfrenta ultimátum
La startup de IA valorada en 380.000 millones de dólares tiene plazo hasta el viernes para ceder ante el Departamento de Defensa, que amenaza con invocar una ley de la Guerra Fría.
Agentes de IA Sin Controles de Seguridad: El Riesgo Sistémico que la Industria Tecnológica No Quiere Mostrar
Guerra de titanes IA: OpenAI busca u$s100.000 millones y Anthropic vale u$s380.000 millones; la carrera que redefine el capitalismo tecnológico global
El Mercado Le Puso Fecha de Vencimiento al Modelo: 14% de Tasa Para Después de 2027 es la Señal que Argentina No Puede Ignorar
El PBI Sube. La Industria Cae. Eso No es Desarrollo: Es Crecimiento de Sectores Extractivos.

USD 2.500 Millones Mensuales que No Vuelven a la Producción: El Agujero Estructural que el Viento de Cola Estaba Tapando
El modelo de estabilización sin transformación productiva tiene un techo — y los datos del INDEC Q4 2025 acaban de mostrarlo





