13NewsesUser-agent: * Allow: / User-agent: Googlebot-News Allow: /

La Realidad, lo más increíble que tenemos

Agentes de IA Sin Controles de Seguridad: El Riesgo Sistémico que la Industria Tecnológica No Quiere Mostrar

Un estudio de Cambridge, MIT y Stanford revela que solo 4 de 30 agentes de IA líderes publican documentos formales de seguridad. La autonomía crece. La transparencia, no. Las implicancias para empresas, inversores y usuarios son más graves de lo que el sector reconoce.
Tecnología20/02/2026 Rocío Reija-Directora Marketing Digital

La Newsletter de Gustavo Reija - Economista y CEO de NETIA GROUP

4 informes exclusivos cada mes, con el análisis de las tendencias macroeconómicas y políticas con perspectivas sobre mercados financieros y su impacto en la industria. Recomendaciones estratégicas para inversores y empresarios.

 Suscripción con MERCADOPAGO


 

 | 20 de febrero de 2026 | Actualizado: 20 de febrero de 2026

La industria de inteligencia artificial atraviesa en 2026 su momento de mayor capitalización histórica: OpenAI capta 100.000 millones de dólares, Anthropic cierra una ronda de 30.000 millones y se valúa en 380.000 millones. Los titulares celebran la escala. Lo que no celebran, porque nadie en el ecosistema tiene incentivos para hacerlo, es lo que una investigación conjunta de las universidades de Cambridge, MIT, Stanford y la Universidad Hebrea de Jerusalén acaba de documentar con rigor empírico: la mayoría de los agentes de inteligencia artificial que operan hoy en el mundo real no publican información básica sobre sus propios riesgos de seguridad.

Te puede interesar

b52c2f7e4c243594c66813c29deab7beReforma Laboral Aprobada: Argentina Transforma su Marco Laboral con 135 Votos y un Senado en Cuenta Regresiva

El hallazgo central: opacidad sistemática en un sector de alta autonomía

El AI Agent Index analizó 30 de los agentes de inteligencia artificial más relevantes del mercado global, con criterios de inclusión que exigían disponibilidad pública, facilidad de uso y una valuación de mercado superior a los 1.000 millones de dólares. Los resultados configuran un cuadro de asimetría informativa estructural que cualquier analista de riesgo debería procesar con atención.

Solo cuatro de los treinta agentes evaluados publican fichas de sistema específicas: documentos formales que detallan niveles de autonomía, comportamiento esperado y análisis de riesgo en condiciones operativas reales. Los veintiséis restantes carecen de esa documentación básica o la proveen de manera fragmentaria e inverificable. Veinticinco agentes no revelan resultados de evaluaciones de seguridad internas. Veintitrés no proporcionan datos de pruebas realizadas por terceros independientes, que constituyen la evidencia empírica mínima necesaria para una evaluación rigurosa del riesgo.

El investigador principal Leon Staufer, del Centro Leverhulme para el Futuro de la Inteligencia de Cambridge, articula con precisión el problema de fondo: los desarrolladores divulgan ampliamente las capacidades de sus agentes mientras minimizan sistemáticamente la evidencia sobre sus prácticas de seguridad. Esa asimetría no es accidental. Es, en el mejor de los casos, un déficit de gobernanza. En el peor, una forma de gestión reputacional que el propio estudio califica como "lavado de seguridad" en su variante más débil.

Te puede interesar

OIPArgentina en la encrucijada: balance crítico de 24 horas que exponen las fracturas del modelo Milei y los dilemas de una oposición sin programa alternativo

La distinción técnica que el mercado no está comprendiendo

Uno de los aportes más valiosos del estudio es la distinción entre la seguridad del modelo de lenguaje subyacente y la seguridad del agente construido sobre él. La mayoría de las empresas desarrolladoras cumple con los requisitos regulatorios y de comunicación pública focalizándose en el modelo base, es decir, en GPT, Claude o Gemini, y transfieren implícitamente esa credencial al agente que construyen encima, como si la seguridad del motor garantizara la seguridad del vehículo completo en todas las condiciones de uso posibles.

El argumento técnico del estudio es contundente: los comportamientos críticos para la seguridad de un agente de IA emergen de su arquitectura específica de planificación, de las herramientas que tiene disponibles, de su sistema de memoria y de las políticas que gobiernan sus decisiones, no del modelo subyacente. Un agente puede estar construido sobre un modelo robusto y seguro y exhibir comportamientos de riesgo elevado en sus capas de implementación que el modelo base nunca fue diseñado para prever ni controlar.

El Índice identificó trece agentes con niveles que denomina "fronterizos" de autonomía. De ese subconjunto de alto riesgo potencial, solo cuatro publican alguna evaluación de seguridad específica del agente. Los nueve restantes operan con autonomía elevada y documentación de seguridad inexistente o insuficiente.


Los agentes de navegador: el segmento de mayor riesgo y menor transparencia

La categoría que concentra los indicadores más preocupantes del estudio es la de los agentes de navegador web, diseñados para operar en la internet abierta realizando acciones en nombre del usuario: hacer clic, completar formularios, procesar reservas, ejecutar compras y extraer contenido. Estos agentes presentan el 64% de los campos de seguridad relevantes sin reportar, el porcentaje más alto de todo el Índice, y simultáneamente operan con los niveles más elevados de autonomía entre todas las categorías evaluadas.

La combinación es analíticamente alarmante: máxima autonomía operativa, mínima transparencia de seguridad. Los agentes empresariales, orientados a automatizar tareas de gestión corporativa, presentan el 63% de campos omitidos. Los agentes de chat, la categoría más conocida por el público general, muestran el 43%.

El estudio de caso sobre Perplexity Comet ilustra el problema con concreción. Posicionado como uno de los agentes de navegador más autónomos del Índice, Comet opera bajo la premisa de funcionar como un asistente de comportamiento humano, sin identificarse como agente de inteligencia artificial ante los servicios con los que interactúa. Amazon ya inició acciones legales porque el sistema accede a sus plataformas sin revelar su naturaleza no humana. El caso anticipa una categoría de conflictos regulatorios y legales para los que el marco jurídico global no tiene respuesta elaborada.


Concentración de plataforma: el riesgo sistémico que nadie nombra

Un hallazgo secundario del estudio tiene implicancias de orden sistémico que trascienden la seguridad individual de cada agente. Fuera del ecosistema chino, prácticamente la totalidad de los agentes del Índice depende de uno de tres modelos base: GPT, Claude o Gemini. Esa concentración en un número reducido de infraestructuras genera lo que el estudio denomina puntos únicos de fallo a escala de industria.

Un cambio de condiciones comerciales en cualquiera de esas tres plataformas, una interrupción de servicio no planificada o una vulnerabilidad de seguridad descubierta en el modelo base podría propagarse simultáneamente a cientos de agentes que operan sobre él, en sectores que van desde la gestión financiera hasta la atención médica, pasando por la infraestructura crítica. Ninguno de los marcos regulatorios vigentes en los principales mercados contempla ese escenario con la especificidad técnica que requiere.

Te puede interesar

OIPGuerra de titanes IA: OpenAI busca u$s100.000 millones y Anthropic vale u$s380.000 millones; la carrera que redefine el capitalismo tecnológico global

Implicancias para empresas e inversores: lo que el mercado no está descontando

Desde una perspectiva de análisis de riesgo corporativo, el estudio de Cambridge introduce variables que el mercado de capitales no incorpora en la valuación de las empresas del sector. Las rondas de financiación récord de OpenAI y Anthropic fijan valoraciones que asumen la sostenibilidad del modelo de crecimiento actual. Esa sostenibilidad depende, entre otros factores, de que la adopción masiva de agentes autónomos no genere incidentes de seguridad de escala suficiente para activar respuestas regulatorias que frenen el ritmo de despliegue.

Con 25 de los 30 agentes líderes sin documentación de seguridad verificable, y con seis sistemas explícitamente diseñados para eludir mecanismos de detección anti-bots imitando comportamiento humano, la probabilidad de un incidente de visibilidad pública que catalice una respuesta regulatoria no es despreciable. El sector está corriendo una carrera entre capacidades crecientes y gobernanza rezagada, y los actores que más tienen que perder si esa carrera termina mal son precisamente los inversores que hoy sostienen las valuaciones más elevadas de la historia tecnológica privada.


Autor: Rocío Reija Publicación: 20 de febrero de 2026 | Última actualización: 20 de febrero de 2026

Te puede interesar
OIP

Guerra de titanes IA: OpenAI busca u$s100.000 millones y Anthropic vale u$s380.000 millones; la carrera que redefine el capitalismo tecnológico global

Rocío Reija-Directora Marketing Digital
Tecnología19/02/2026
Dos rondas de financiación históricas en el mismo mes configuran un nuevo paradigma de concentración de capital en inteligencia artificial. Amazon, SoftBank, Nvidia y Microsoft apuestan cifras sin precedentes mientras surgen interrogantes sobre la sostenibilidad estructural del modelo.
k_ORxrOCZvGER0Ni9j96J

Robots humanoides en la industria automotriz: USD 20.000 millones de Tesla, la ofensiva china y por qué tu próximo auto podría fabricarlo una máquina bípeda

Rocío Reija- Directora de Marketing Digital
Tecnología14/02/2026
De Honda Asimo a Tesla Optimus: los fabricantes de vehículos abandonan la ciencia ficción y entran en producción masiva de humanoides. El mercado proyectado alcanza los USD 5 billones en 2050. Quién lidera, quién amenaza y qué significa para la cadena productiva global.
Lo más visto
importaciones-1536x1000

Superávit Comercial Récord con Pies de Barro: Las Importaciones Caen por Cuarto Mes Consecutivo y la Inversión Productiva No Aparece

Redacción-13News
Economía21/02/2026
Argentina anotó casi U$S2.000 millones de superávit comercial en enero, triplicando las proyecciones del mercado. Pero detrás del número hay una señal de alerta que los modelos optimistas subestiman: el resultado no refleja dinamismo exportador sostenido sino una contracción sistemática de la demanda de importaciones vinculadas a la inversión productiva. Cuatro meses consecutivos de caída en compras externas en una economía que el índice líder de la UTDT anticipa con 99% de probabilidad de recesión no es una combinación que admita lecturas complacientes.
pymes-paradasjpg

Milei vs. Madanes Quintanilla: El Gobierno Libertario que Frenó un Cierre Industrial y el Mensaje que le Envió a Todo el Empresariado Argentino

Redacción-13News
Política21/02/2026
La semana más intensa del año para el gobierno de Milei combinó un triunfo legislativo histórico con un conflicto empresarial que lo obligó a intervenir en el mercado de manera que sus propios principios ideológicos desaconsejan. El caso Fate no es solo una disputa laboral: es la primera definición pública sobre cómo el gobierno libertario procesará la desindustrialización que su propio modelo de apertura está acelerando.
Suscríbete al newsletter para recibir periódicamente las novedades en tu email
13NewsesUser-agent: * Allow: / User-agent: Googlebot-News Allow: /