Tecnología 13news-Tecnología 06/04/2024

OpenAI y YouTube en disputa por el uso de vídeos para entrenar a la IA Sora

OpenAI, la reconocida compañía creadora de ChatGPT, se encuentra en el centro de la polémica debido a su proyecto Sora, una herramienta de inteligencia artificial capaz de crear vídeos realistas basados en las indicaciones de texto de los usuarios

OpenAI, la reconocida compañía creadora de ChatGPT, se encuentra en el centro de la polémica debido a su proyecto Sora, una herramienta de inteligencia artificial capaz de crear vídeos realistas basados en las indicaciones de texto de los usuarios. Presentada el pasado 18 de febrero, Sora ha llamado la atención no solo por sus impresionantes resultados, sino también por la forma en que ha sido entrenada.

Neal Mohan, CEO de YouTube, ha advertido a OpenAI que extraer vídeos publicados en su plataforma para entrenar modelos de IA como Sora es una "clara violación a sus términos" de uso del servicio. Aunque Mohan no tiene la certeza de que Sora haya sido entrenada con los vídeos de YouTube, ha dejado en claro que las reglas de la plataforma no permiten la descarga de transcripciones o fragmentos de vídeo, ni siquiera para Google, la empresa matriz de YouTube.

Apple se suma a la carrera de la inteligencia artificial con su nuevo modelo ReALM

La política de YouTube es tan estricta que ni siquiera permite que Google utilice los contenidos de la plataforma para entrenar a su propio modelo de IA, Gemini. Esta situación ha puesto en evidencia la dificultad que enfrentan las compañías de inteligencia artificial para obtener datos de entrenamiento sin infringir los derechos de autor.

Por su parte, OpenAI ha defendido su postura, argumentando que "es imposible entrenar los principales modelos de IA actuales sin recurrir a materiales protegidos". La compañía sostiene que limitar los datos de entrenamiento a materiales de dominio público creados hace más de un siglo impide que los sistemas de IA satisfagan las necesidades actuales de los usuarios.

Sin embargo, el hermetismo de OpenAI en cuanto a las fuentes de información utilizadas para entrenar a sus modelos ha generado cuestionamientos por parte de diversas organizaciones, que sospechan que la compañía podría estar violando los derechos de autor. Incluso dentro de OpenAI, parece haber cierta confusión al respecto. Mira Murati, directora de tecnología de la firma, ha admitido en una entrevista con The Wall Street Journal que no estaba segura de si los vídeos de YouTube se han utilizado para optimizar el funcionamiento de Sora.

Inteligencia Artificial y Educación: ¿cómo puede ayudar en los países en desarrollo?

A pesar de la controversia, OpenAI ha firmado acuerdos para obtener licencias de uso sobre ciertos contenidos, lo que le permite entrenar a sus algoritmos con materiales de medios como El País, Cinco Días, As, El Huffpost, Business Insider o Político. Estos acuerdos podrían ser una solución para acceder a datos de entrenamiento de manera legal y ética.

La disputa entre OpenAI y YouTube pone de manifiesto los desafíos legales y éticos que enfrentan las compañías de inteligencia artificial en su búsqueda por desarrollar modelos cada vez más avanzados y realistas. Mientras que el acceso a grandes cantidades de datos es fundamental para el entrenamiento de la IA, es crucial que se respeten los derechos de autor y se establezcan mecanismos transparentes para la obtención y uso de estos datos.

Caputo sobre la inflación en Argentina: "Está colapsando" y prevé un 10% para marzo

A medida que la inteligencia artificial continúa evolucionando y expandiéndose a nuevos ámbitos, será necesario un diálogo abierto y constructivo entre las compañías tecnológicas, los creadores de contenido y los reguladores para encontrar un equilibrio entre la innovación y la protección de los derechos de propiedad intelectual. Solo así podremos aprovechar todo el potencial de la IA sin comprometer los principios éticos y legales que rigen nuestra sociedad.

Te puede interesar

La inteligencia artificial y la demanda de energía: ¿la nueva crisis invisible del siglo XXI?

Los centros de datos podrían concentrar hasta el 8% del consumo eléctrico mundial en 2040. La IA promete optimizar recursos, pero su expansión sin regulación energética es el desafío estructural del siglo.

GPT-5.4: OpenAI lanza el primer modelo de IA que controla ordenadores de forma autónoma

El nuevo sistema integra razonamiento avanzado, codificación y agentes autónomos con capacidad para ejecutar flujos de trabajo complejos sin intervención humana, con un contexto de un millón de tokens. 

Anthropic vs. Pentágono: la batalla por los límites de la IA que divide a Silicon Valley y al Congreso

OpenAI admitió que su acuerdo con el Departamento de Defensa fue "oportunista", mientras demócratas prometen legislación para proteger a empresas que marquen límites éticos al uso militar de la inteligencia artificial.

Anthropic vs. Pentágono: Dario Amodei rechaza uso militar de Claude y enfrenta ultimátum

 
La startup de IA valorada en 380.000 millones de dólares tiene plazo hasta el viernes para ceder ante el Departamento de Defensa, que amenaza con invocar una ley de la Guerra Fría.

Agentes de IA Sin Controles de Seguridad: El Riesgo Sistémico que la Industria Tecnológica No Quiere Mostrar

Un estudio de Cambridge, MIT y Stanford revela que solo 4 de 30 agentes de IA líderes publican documentos formales de seguridad. La autonomía crece. La transparencia, no. Las implicancias para empresas, inversores y usuarios son más graves de lo que el sector reconoce.

Guerra de titanes IA: OpenAI busca u$s100.000 millones y Anthropic vale u$s380.000 millones; la carrera que redefine el capitalismo tecnológico global

Dos rondas de financiación históricas en el mismo mes configuran un nuevo paradigma de concentración de capital en inteligencia artificial. Amazon, SoftBank, Nvidia y Microsoft apuestan cifras sin precedentes mientras surgen interrogantes sobre la sostenibilidad estructural del modelo.