Tecnología 13News-Tecnología 17/05/2024

OpenAI disuelve su equipo dedicado a estudiar los riesgos a largo plazo de la IA

OpenAI, la empresa detrás de ChatGPT, ha confirmado que su equipo de "Superalineación", encargado de analizar y prepararse para los peligros a largo plazo de la inteligencia artificial superinteligente, ha sido disuelto

OpenAI, la empresa detrás de ChatGPT, ha confirmado que su equipo de "Superalineación", encargado de analizar y prepararse para los peligros a largo plazo de la inteligencia artificial superinteligente, ha sido disuelto. Esta noticia llega tras la marcha de varios investigadores clave, incluyendo a Ilya Sutskever, cofundador y científico jefe de OpenAI, y Jan Leike, quien era el otro colíder del equipo.

El equipo de Superalineación fue anunciado en julio del año pasado, con el objetivo de preparar a la empresa para la llegada de una IA capaz de superar a sus creadores. Sin embargo, menos de un año después, todo el equipo ha dimitido o ha sido absorbido por otros grupos de investigación dentro de OpenAI.

Android incorpora IA para detectar robos de teléfonos y proteger la información del usuario

La marcha de Sutskever ha llamado especialmente la atención, ya que fue uno de los cuatro miembros de la Junta que despidió al CEO Sam Altman en noviembre, antes de que este fuera restituido tras una revuelta masiva del personal y la mediación de un acuerdo que llevó a Sutskever y otros dos directores a abandonar la Junta.

Por su parte, Jan Leike anunció su dimisión horas después de que se hiciera pública la salida de Sutskever, citando desacuerdos sobre las prioridades de la empresa y la cantidad de recursos asignados a su equipo. Leike afirmó que en los últimos meses habían estado "navegando contra el viento" y enfrentando problemas de computación para llevar a cabo su investigación.

La inteligencia artificial impulsa el crecimiento empresarial en América Latina: Estudio revela alto nivel de adopción y entusiasmo

Además de Sutskever y Leike, otros dos investigadores del equipo de Superalineación, Leopold Aschenbrenner y Pavel Izmailov, fueron despedidos por filtrar secretos de la empresa, mientras que William Saunders abandonó OpenAI en febrero. Otros dos investigadores que trabajaban en política y gobernanza de la IA, Cullen O'Keefe y Daniel Kokotajlo, también parecen haber dejado la empresa recientemente.

OpenAI ha declinado hacer comentarios sobre estas salidas o sobre el futuro de su trabajo sobre los riesgos de la IA a largo plazo. La investigación sobre los riesgos asociados a modelos más potentes correrá a cargo de John Schulman, quien coordina el equipo responsable de ajustar los modelos de IA tras el entrenamiento.

Top 5 criptonoticias de la semana: El Salvador, Argentina, nuevas monedas, minería china y Tornado Cash

La disolución del equipo de Superalineación se produce en un momento en que OpenAI está presentando avances significativos en su tecnología, como GPT-4o, un nuevo modelo de IA "multimodal" que permite a ChatGPT ver el mundo y conversar de una forma más natural y humana. Sin embargo, estos avances también plantean cuestiones éticas en torno a la privacidad, la manipulación emocional y los riesgos de ciberseguridad.

Aunque OpenAI cuenta con otro grupo de investigación, el equipo Preparedness, que se centra en estas cuestiones, la salida de figuras clave como Sutskever y Leike, así como la disolución del equipo de Superalineación, podrían generar dudas sobre el compromiso de la empresa con el desarrollo seguro y responsable de la IA superinteligente. El futuro dirá cómo afectarán estos cambios a la trayectoria de OpenAI y a su capacidad para cumplir con su misión de crear una IA beneficiosa para la humanidad.

Te puede interesar

La inteligencia artificial y la demanda de energía: ¿la nueva crisis invisible del siglo XXI?

Los centros de datos podrían concentrar hasta el 8% del consumo eléctrico mundial en 2040. La IA promete optimizar recursos, pero su expansión sin regulación energética es el desafío estructural del siglo.

GPT-5.4: OpenAI lanza el primer modelo de IA que controla ordenadores de forma autónoma

El nuevo sistema integra razonamiento avanzado, codificación y agentes autónomos con capacidad para ejecutar flujos de trabajo complejos sin intervención humana, con un contexto de un millón de tokens. 

Anthropic vs. Pentágono: la batalla por los límites de la IA que divide a Silicon Valley y al Congreso

OpenAI admitió que su acuerdo con el Departamento de Defensa fue "oportunista", mientras demócratas prometen legislación para proteger a empresas que marquen límites éticos al uso militar de la inteligencia artificial.

Anthropic vs. Pentágono: Dario Amodei rechaza uso militar de Claude y enfrenta ultimátum

 
La startup de IA valorada en 380.000 millones de dólares tiene plazo hasta el viernes para ceder ante el Departamento de Defensa, que amenaza con invocar una ley de la Guerra Fría.

Agentes de IA Sin Controles de Seguridad: El Riesgo Sistémico que la Industria Tecnológica No Quiere Mostrar

Un estudio de Cambridge, MIT y Stanford revela que solo 4 de 30 agentes de IA líderes publican documentos formales de seguridad. La autonomía crece. La transparencia, no. Las implicancias para empresas, inversores y usuarios son más graves de lo que el sector reconoce.

Guerra de titanes IA: OpenAI busca u$s100.000 millones y Anthropic vale u$s380.000 millones; la carrera que redefine el capitalismo tecnológico global

Dos rondas de financiación históricas en el mismo mes configuran un nuevo paradigma de concentración de capital en inteligencia artificial. Amazon, SoftBank, Nvidia y Microsoft apuestan cifras sin precedentes mientras surgen interrogantes sobre la sostenibilidad estructural del modelo.