La Realidad, lo más increíble que tenemos

OpenAI disuelve su equipo dedicado a estudiar los riesgos a largo plazo de la IA

OpenAI, la empresa detrás de ChatGPT, ha confirmado que su equipo de "Superalineación", encargado de analizar y prepararse para los peligros a largo plazo de la inteligencia artificial superinteligente, ha sido disuelto

Tecnología17/05/2024 13News-Tecnología

OpenAI, la empresa detrás de ChatGPT, ha confirmado que su equipo de "Superalineación", encargado de analizar y prepararse para los peligros a largo plazo de la inteligencia artificial superinteligente, ha sido disuelto. Esta noticia llega tras la marcha de varios investigadores clave, incluyendo a Ilya Sutskever, cofundador y científico jefe de OpenAI, y Jan Leike, quien era el otro colíder del equipo.

El equipo de Superalineación fue anunciado en julio del año pasado, con el objetivo de preparar a la empresa para la llegada de una IA capaz de superar a sus creadores. Sin embargo, menos de un año después, todo el equipo ha dimitido o ha sido absorbido por otros grupos de investigación dentro de OpenAI.

Android1Android incorpora IA para detectar robos de teléfonos y proteger la información del usuario

La marcha de Sutskever ha llamado especialmente la atención, ya que fue uno de los cuatro miembros de la Junta que despidió al CEO Sam Altman en noviembre, antes de que este fuera restituido tras una revuelta masiva del personal y la mediación de un acuerdo que llevó a Sutskever y otros dos directores a abandonar la Junta.

Por su parte, Jan Leike anunció su dimisión horas después de que se hiciera pública la salida de Sutskever, citando desacuerdos sobre las prioridades de la empresa y la cantidad de recursos asignados a su equipo. Leike afirmó que en los últimos meses habían estado "navegando contra el viento" y enfrentando problemas de computación para llevar a cabo su investigación.

AILa inteligencia artificial impulsa el crecimiento empresarial en América Latina: Estudio revela alto nivel de adopción y entusiasmo

Además de Sutskever y Leike, otros dos investigadores del equipo de Superalineación, Leopold Aschenbrenner y Pavel Izmailov, fueron despedidos por filtrar secretos de la empresa, mientras que William Saunders abandonó OpenAI en febrero. Otros dos investigadores que trabajaban en política y gobernanza de la IA, Cullen O'Keefe y Daniel Kokotajlo, también parecen haber dejado la empresa recientemente.

OpenAI ha declinado hacer comentarios sobre estas salidas o sobre el futuro de su trabajo sobre los riesgos de la IA a largo plazo. La investigación sobre los riesgos asociados a modelos más potentes correrá a cargo de John Schulman, quien coordina el equipo responsable de ajustar los modelos de IA tras el entrenamiento.

shutterstock_763283053.jpg.optimalTop 5 criptonoticias de la semana: El Salvador, Argentina, nuevas monedas, minería china y Tornado Cash

La disolución del equipo de Superalineación se produce en un momento en que OpenAI está presentando avances significativos en su tecnología, como GPT-4o, un nuevo modelo de IA "multimodal" que permite a ChatGPT ver el mundo y conversar de una forma más natural y humana. Sin embargo, estos avances también plantean cuestiones éticas en torno a la privacidad, la manipulación emocional y los riesgos de ciberseguridad.

Aunque OpenAI cuenta con otro grupo de investigación, el equipo Preparedness, que se centra en estas cuestiones, la salida de figuras clave como Sutskever y Leike, así como la disolución del equipo de Superalineación, podrían generar dudas sobre el compromiso de la empresa con el desarrollo seguro y responsable de la IA superinteligente. El futuro dirá cómo afectarán estos cambios a la trayectoria de OpenAI y a su capacidad para cumplir con su misión de crear una IA beneficiosa para la humanidad.

Te puede interesar
Lo más visto

Suscríbete al newsletter para recibir periódicamente las novedades en tu email