Tecnología 13News-Tecnología 22/07/2024

OpenAI innova en seguridad de IA: Modelos que se supervisan mutuamente

OpenAI, la reconocida empresa de inteligencia artificial, ha presentado una innovadora estrategia para mejorar la transparencia y seguridad de sus modelos de IA

OpenAI, la reconocida empresa de inteligencia artificial, ha presentado una innovadora estrategia para mejorar la transparencia y seguridad de sus modelos de IA. La nueva técnica consiste en hacer que los sistemas de IA interactúen entre sí, explicándose mutuamente sus procesos de razonamiento.

Esta iniciativa, recientemente anunciada, busca arrojar luz sobre el funcionamiento interno de los modelos de IA más avanzados. La compañía planea publicar próximamente un artículo detallando esta metodología, que ha sido probada inicialmente con problemas matemáticos básicos.

En estos experimentos, se pidió a dos modelos de IA que resolvieran ecuaciones simples. El modelo más avanzado tuvo que explicar su proceso de resolución al menos sofisticado, mientras que este último intentaba identificar posibles errores en las respuestas del primero. Esta dinámica busca fomentar una mayor apertura en cuanto a los procesos de "pensamiento" de la IA.

Linkedin implementa IA y juegos para aumentar el engagement: La evolución de la red social profesional

Yining Chen, investigador de OpenAI involucrado en este proyecto, ha destacado la importancia de esta técnica para el objetivo de la empresa de desarrollar una inteligencia artificial general (AGI) que sea segura y beneficiosa para la humanidad.

Esta nueva estrategia llega en un momento crucial para OpenAI, tras experimentar cambios significativos en su equipo de seguridad. En mayo, el cofundador Ilya Sutskever anunció su salida de la empresa, seguido por Jan Leike, ambos líderes del equipo de "superalineación". Poco después, Gretchen Krueger, investigadora de políticas, también dejó la compañía, citando preocupaciones compartidas.

Samsung revoluciona el diseño de smartphones: Nuevos formatos adaptados a la IA generativa

Estas salidas han generado inquietud en la comunidad tecnológica sobre el compromiso de OpenAI con la seguridad en el desarrollo de IA. Expertos como Elon Musk y Stuart Russell han expresado preocupaciones sobre la velocidad del avance en IA y la necesidad de validar completamente su seguridad antes de perseguir una AGI.

La nueva técnica de OpenAI podría ser una respuesta a estas preocupaciones, buscando aumentar la transparencia y comprensión de sus modelos de IA. Al hacer que los sistemas se expliquen entre sí, la empresa espera obtener insights valiosos sobre cómo estos modelos abordan y resuelven problemas.

Este enfoque no solo podría mejorar la seguridad de la IA, sino también proporcionar a los investigadores y desarrolladores una comprensión más profunda de cómo funcionan estos sistemas complejos. Además, podría ayudar a identificar y corregir posibles sesgos o errores en el razonamiento de la IA.

Sale Biden. ¿Entra Kamala Harris? Disputas por el poder en el Partido Demócrata de EEUU

Sin embargo, algunos expertos advierten que esta técnica, aunque prometedora, no es una solución definitiva para todos los desafíos de seguridad en IA. Argumentan que los modelos de IA podrían perpetuar o amplificar errores entre sí, y que la supervisión humana sigue siendo crucial.

A pesar de estas advertencias, la iniciativa de OpenAI representa un paso importante hacia una mayor transparencia en el campo de la IA. Al permitir que los modelos se "vigilen" mutuamente, la empresa espera no solo mejorar la seguridad de sus sistemas, sino también ganar la confianza del público y los reguladores.

La nueva estrategia de OpenAI de hacer que los modelos de IA se supervisen entre sí marca un hito en la búsqueda de una inteligencia artificial más segura y comprensible. Aunque aún queda mucho por explorar y validar, este enfoque innovador podría abrir nuevas vías para el desarrollo responsable de la IA, equilibrando el avance tecnológico con las necesarias garantías de seguridad y ética.

Te puede interesar

La inteligencia artificial y la demanda de energía: ¿la nueva crisis invisible del siglo XXI?

Los centros de datos podrían concentrar hasta el 8% del consumo eléctrico mundial en 2040. La IA promete optimizar recursos, pero su expansión sin regulación energética es el desafío estructural del siglo.

GPT-5.4: OpenAI lanza el primer modelo de IA que controla ordenadores de forma autónoma

El nuevo sistema integra razonamiento avanzado, codificación y agentes autónomos con capacidad para ejecutar flujos de trabajo complejos sin intervención humana, con un contexto de un millón de tokens. 

Anthropic vs. Pentágono: la batalla por los límites de la IA que divide a Silicon Valley y al Congreso

OpenAI admitió que su acuerdo con el Departamento de Defensa fue "oportunista", mientras demócratas prometen legislación para proteger a empresas que marquen límites éticos al uso militar de la inteligencia artificial.

Anthropic vs. Pentágono: Dario Amodei rechaza uso militar de Claude y enfrenta ultimátum

 
La startup de IA valorada en 380.000 millones de dólares tiene plazo hasta el viernes para ceder ante el Departamento de Defensa, que amenaza con invocar una ley de la Guerra Fría.

Agentes de IA Sin Controles de Seguridad: El Riesgo Sistémico que la Industria Tecnológica No Quiere Mostrar

Un estudio de Cambridge, MIT y Stanford revela que solo 4 de 30 agentes de IA líderes publican documentos formales de seguridad. La autonomía crece. La transparencia, no. Las implicancias para empresas, inversores y usuarios son más graves de lo que el sector reconoce.

Guerra de titanes IA: OpenAI busca u$s100.000 millones y Anthropic vale u$s380.000 millones; la carrera que redefine el capitalismo tecnológico global

Dos rondas de financiación históricas en el mismo mes configuran un nuevo paradigma de concentración de capital en inteligencia artificial. Amazon, SoftBank, Nvidia y Microsoft apuestan cifras sin precedentes mientras surgen interrogantes sobre la sostenibilidad estructural del modelo.