Tecnología 13News-Economía 18/07/2024

Grok, el chatbot de IA de Elon Musk, comete errores al informar sobre noticias en X

La inteligencia artificial (IA) está transformando numerosos sectores, y el periodismo no es una excepción

La inteligencia artificial (IA) está transformando numerosos sectores, y el periodismo no es una excepción. Elon Musk, conocido por sus iniciativas innovadoras, está apostando por integrar la IA en el ámbito de las noticias a través de su plataforma X (anteriormente Twitter). Sin embargo, un reciente incidente ha puesto de manifiesto los desafíos y riesgos asociados con esta tecnología emergente.

Según informa el Wall Street Journal, Grok, el chatbot de IA desarrollado por xAI (la startup de IA de Musk), ha cometido errores significativos al informar sobre un intento de asesinato contra Donald Trump. Este incidente ha generado preocupaciones sobre la fiabilidad de la IA en la difusión de noticias y ha reavivado el debate sobre el papel de la tecnología en el periodismo.

Alerta energética: Informe de Cammesa prevé posibles cortes masivos de luz para el verano 2025

Entre los errores más notables, Grok publicó un titular afirmando erróneamente que la vicepresidenta de Estados Unidos, Kamala Harris, había recibido un disparo. Esta confusión parece haberse originado a partir de bromas de usuarios de X sobre un lapsus reciente del presidente Joe Biden, quien confundió los nombres de Trump y Harris. Además, el chatbot nombró incorrectamente a un supuesto tirador y afirmó que el sospechoso era antifascista, información que posteriormente fue desmentida por las autoridades.

Estos fallos subrayan la importancia de la verificación humana en el proceso de información, especialmente en situaciones de noticias de última hora. Katie Harbath, exdirectora de Políticas Públicas de Facebook, comentó al Wall Street Journal: "Queda mucho camino por recorrer. Al fin y al cabo, cuando se trata de noticias de última hora, como el tiroteo, siempre se necesitarán humanos para ayudar a proporcionar contexto cuando los hechos todavía no se conocen".

LEFI: La nueva estrategia del Gobierno argentino para lograr emisión cero y sanear el BCRA

Es importante señalar que Grok incluye una cláusula de exención de responsabilidad en sus resúmenes informativos, advirtiendo que la información puede evolucionar con el tiempo y que el chatbot puede cometer errores. Sin embargo, esta advertencia podría no ser suficiente para prevenir la difusión de información falsa o imprecisa.

El incidente con Grok no es un caso aislado en la intersección entre IA y periodismo. Otros medios de comunicación, como Buzzfeed y CNET, ya han experimentado con el uso de IA para generar contenido, con resultados mixtos. Además, la relación entre IA y periodismo ha sido objeto de controversia legal, como lo demuestra la demanda del New York Times contra OpenAI por supuesta violación de derechos de autor.

A pesar de estos desafíos, la visión de Musk de utilizar la IA como medio de comunicación del futuro sigue adelante. Sin embargo, el incidente con Grok subraya la necesidad de un enfoque cauteloso y la importancia de mantener la supervisión humana en el proceso de información.

AMIA a 30 años: Exigen justicia y acción del gobierno en el caso del atentado terrorista en Argentina

Mientras la IA continúa evolucionando y mejorando, es crucial encontrar un equilibrio entre la innovación tecnológica y la precisión periodística. El caso de Grok sirve como un recordatorio de que, por ahora, la inteligencia artificial puede ser una herramienta útil en el periodismo, pero no puede reemplazar completamente el juicio y la experiencia humana, especialmente cuando se trata de noticias sensibles y de última hora.

Te puede interesar

La inteligencia artificial y la demanda de energía: ¿la nueva crisis invisible del siglo XXI?

Los centros de datos podrían concentrar hasta el 8% del consumo eléctrico mundial en 2040. La IA promete optimizar recursos, pero su expansión sin regulación energética es el desafío estructural del siglo.

GPT-5.4: OpenAI lanza el primer modelo de IA que controla ordenadores de forma autónoma

El nuevo sistema integra razonamiento avanzado, codificación y agentes autónomos con capacidad para ejecutar flujos de trabajo complejos sin intervención humana, con un contexto de un millón de tokens. 

Anthropic vs. Pentágono: la batalla por los límites de la IA que divide a Silicon Valley y al Congreso

OpenAI admitió que su acuerdo con el Departamento de Defensa fue "oportunista", mientras demócratas prometen legislación para proteger a empresas que marquen límites éticos al uso militar de la inteligencia artificial.

Anthropic vs. Pentágono: Dario Amodei rechaza uso militar de Claude y enfrenta ultimátum

 
La startup de IA valorada en 380.000 millones de dólares tiene plazo hasta el viernes para ceder ante el Departamento de Defensa, que amenaza con invocar una ley de la Guerra Fría.

Agentes de IA Sin Controles de Seguridad: El Riesgo Sistémico que la Industria Tecnológica No Quiere Mostrar

Un estudio de Cambridge, MIT y Stanford revela que solo 4 de 30 agentes de IA líderes publican documentos formales de seguridad. La autonomía crece. La transparencia, no. Las implicancias para empresas, inversores y usuarios son más graves de lo que el sector reconoce.

Guerra de titanes IA: OpenAI busca u$s100.000 millones y Anthropic vale u$s380.000 millones; la carrera que redefine el capitalismo tecnológico global

Dos rondas de financiación históricas en el mismo mes configuran un nuevo paradigma de concentración de capital en inteligencia artificial. Amazon, SoftBank, Nvidia y Microsoft apuestan cifras sin precedentes mientras surgen interrogantes sobre la sostenibilidad estructural del modelo.