GROK, la AI de Elon Musk, ¿es de código abierto?
La Inteligencia Artificial (IA) ha llegado para quedarse, y con ella, la creciente necesidad de establecer normas y definiciones claras para su desarrollo y uso. Elon Musk dice que GROK es de código abierto pero ¿es cierto?
La Inteligencia Artificial (IA) ha llegado para quedarse, y con ella, la creciente necesidad de establecer normas y definiciones claras para su desarrollo y uso. Uno de los temas más candentes en este ámbito es el de la IA de código abierto, una etiqueta que muchas empresas, incluida la nueva iniciativa Grok de Elon Musk, afirman ostentar, pero que la Open Source Initiative (OSI) cuestiona.
La OSI, fundada en 1998, es una organización sin ánimo de lucro que defiende y protege el término "código abierto". Actualmente, se encuentra en el proceso de actualizar su definición para incluir la IA de código abierto, una tarea nada sencilla en un campo tan novedoso y complejo.
Según Stefano Maffulli, director ejecutivo de la OSI, la definición de software de código abierto que se ha utilizado históricamente no se adapta realmente a los sistemas de IA. "Es un momento muy nuevo en la historia donde tenemos un nuevo artefacto que se debe todavía a la producción de ingenio humano, inteligencia y creatividad", explica Maffulli.
El principal problema radica en que las empresas de IA que se proclaman de código abierto, como Grok de Musk, abren las fuentes (los parámetros numéricos que influyen en el rendimiento del modelo de IA), pero no revelan los datos con los que se entrena ni el proceso de entrenamiento. Esto significa que no son completamente transparentes, lo que puede causar problemas de derechos de autor y cuestiones éticas sobre si los datos están sesgados.
Musk afirmó que su IA de código abierto es "con diferencia la más transparente y la que más busca la verdad", pero la realidad es que Grok no revela los datos con los que se entrenó. Hay pocos incentivos para que las empresas lo hagan, ya que al anunciar sobre qué datos construyen sus modelos, se exponen a posibles demandas por derechos de autor.
"Hasta que no haya un poco de claridad jurídica, creo que seguiremos siendo testigos de este tipo de problemas", afirma Maffulli. Otra razón por la que las llamadas empresas de IA de código abierto pueden no querer ser totalmente transparentes es para preservar secretos comerciales.
La OSI comenzó su búsqueda de una definición sólida de IA de código abierto hace dos años, después del lanzamiento de ChatGPT de OpenAI. Según Maffulli, el mayor obstáculo es comprender la dependencia entre los datos de los conjuntos de entrenamiento y las ponderaciones de los modelos.
Para abordar este desafío, la OSI reunió a un grupo de expertos de organizaciones como la Fundación Mozilla, Wikipedia, universidades y grandes empresas tecnológicas como Microsoft y Meta. Los grupos de trabajo evaluaron varios modelos de IA generativa y no generativa, y votaron los requisitos mínimos para que un sistema de IA sea considerado de código abierto.
Según Maffulli, "todos los grupos de trabajo dijeron que, como mínimo, debe haber un requisito mínimo de transparencia de los datos". El OSI está perfeccionando este proyecto de definición, que espera hacer público en el verano de 2023.
Sin embargo, una vez finalizada la definición, la OSI no tendrá poder para hacer cumplir estas normas a las empresas. "Somos los administradores, los encargados de mantener la definición, pero en realidad no tenemos poderes para hacerla cumplir", admite Maffulli.
No obstante, la definición de código abierto de la OSI está ganando reconocimiento en los tribunales de todo el mundo, especialmente cuando se trata de fusiones y regulación. Países de todo el mundo están ultimando cómo regularán la IA, y el software de código abierto ha sido un tema de controversia.
"La definición de código abierto sirve de barrera para identificar la publicidad engañosa", indica Maffulli. "Si una empresa dice que es de código abierto, debe tener los valores que conlleva la definición de código abierto. De lo contrario, se presta a confusión".
En un mundo cada vez más dominado por la IA, la transparencia y la ética son fundamentales. La batalla por definir la IA de código abierto no es solo una cuestión de semántica, sino una lucha por establecer normas claras que garanticen el desarrollo responsable y ético de esta tecnología transformadora.
Mientras empresas como la de Musk intentan capitalizar la etiqueta de "código abierto" sin cumplir todos los requisitos, organizaciones como la OSI trabajan para proteger la integridad de este concepto y evitar la confusión del público. Esta pugna entre intereses comerciales y transparencia será clave en el futuro de la IA y su regulación.
Te puede interesar
OpenAI expande su imperio: las 9 industrias que Sam Altman busca revolucionar con inteligencia artificial
La compañía liderada por Altman trasciende sus orígenes como laboratorio de investigación. OpenAI compite ahora contra Google en búsquedas, desafía a Meta en redes sociales y planea fabricar chips propios. Inversiones millonarias en robótica, salud y dispositivos de consumo configuran estrategia de expansión agresiva
Eric Schmidt advierte que la IA "ya está aquí": transformará economía global en próxima década
El ex CEO de Google alertó sobre desafíos éticos, energéticos y sociales de la inteligencia artificial durante America Business Forum Miami 2025. Schmidt proyectó que cada persona tendrá "un Einstein en el bolsillo" dentro de diez años mientras centros de datos ya consumen 1% del PIB estadounidense
Disney pierde 26 millones de euros semanales por conflicto con YouTube TV: disputa por tarifas afecta transmisiones deportivas
El bloqueo de canales Disney en YouTube TV genera pérdidas de 3,7 millones de euros diarios según Morgan Stanley. La disputa mantiene ESPN y ABC fuera del servicio desde el 30 de octubre, afectando principalmente transmisiones deportivas como Monday Night Football en Estados Unidos
Bezos identifica qué trabajadores sobrevivirán a la automatización: "La IA no puede reemplazar la invención"
El fundador de Amazon defendió el valor del ingenio humano durante la Italian Tech Week 2025. Mientras su empresa acelera planes de automatización que afectarían 600.000 empleos hacia 2033, Bezos sostiene que los inventores estarán protegidos frente al avance de inteligencia artificial y robótica
Zuckerberg y Chan Apuestan Todo a Biohub: IA para Revolucionar la Investigación de Enfermedades
La fundación Chan Zuckerberg abandona educación y políticas públicas para concentrar USD 200.000 millones en biología impulsada por inteligencia artificial
CEO de Nvidia Advierte: China Puede Superar a EEUU en Inteligencia Artificial
Jensen Huang, director ejecutivo de Nvidia, intensificó sus críticas a las políticas estadounidenses sobre inteligencia artificial. Durante la cumbre del Financial Times, el CEO advirtió que el país asiático podría ganar la batalla tecnológica si Estados Unidos no cambia su estrategia regulatoria