Agentes de IA Sin Controles de Seguridad: El Riesgo Sistémico que la Industria Tecnológica No Quiere Mostrar


La Newsletter de Gustavo Reija - Economista y CEO de NETIA GROUP
4 informes exclusivos cada mes, con el análisis de las tendencias macroeconómicas y políticas con perspectivas sobre mercados financieros y su impacto en la industria. Recomendaciones estratégicas para inversores y empresarios.
Suscripción con MERCADOPAGO
| 20 de febrero de 2026 | Actualizado: 20 de febrero de 2026
La industria de inteligencia artificial atraviesa en 2026 su momento de mayor capitalización histórica: OpenAI capta 100.000 millones de dólares, Anthropic cierra una ronda de 30.000 millones y se valúa en 380.000 millones. Los titulares celebran la escala. Lo que no celebran, porque nadie en el ecosistema tiene incentivos para hacerlo, es lo que una investigación conjunta de las universidades de Cambridge, MIT, Stanford y la Universidad Hebrea de Jerusalén acaba de documentar con rigor empírico: la mayoría de los agentes de inteligencia artificial que operan hoy en el mundo real no publican información básica sobre sus propios riesgos de seguridad.

Te puede interesar
El hallazgo central: opacidad sistemática en un sector de alta autonomía
El AI Agent Index analizó 30 de los agentes de inteligencia artificial más relevantes del mercado global, con criterios de inclusión que exigían disponibilidad pública, facilidad de uso y una valuación de mercado superior a los 1.000 millones de dólares. Los resultados configuran un cuadro de asimetría informativa estructural que cualquier analista de riesgo debería procesar con atención.
Solo cuatro de los treinta agentes evaluados publican fichas de sistema específicas: documentos formales que detallan niveles de autonomía, comportamiento esperado y análisis de riesgo en condiciones operativas reales. Los veintiséis restantes carecen de esa documentación básica o la proveen de manera fragmentaria e inverificable. Veinticinco agentes no revelan resultados de evaluaciones de seguridad internas. Veintitrés no proporcionan datos de pruebas realizadas por terceros independientes, que constituyen la evidencia empírica mínima necesaria para una evaluación rigurosa del riesgo.
El investigador principal Leon Staufer, del Centro Leverhulme para el Futuro de la Inteligencia de Cambridge, articula con precisión el problema de fondo: los desarrolladores divulgan ampliamente las capacidades de sus agentes mientras minimizan sistemáticamente la evidencia sobre sus prácticas de seguridad. Esa asimetría no es accidental. Es, en el mejor de los casos, un déficit de gobernanza. En el peor, una forma de gestión reputacional que el propio estudio califica como "lavado de seguridad" en su variante más débil.
Te puede interesar
La distinción técnica que el mercado no está comprendiendo
Uno de los aportes más valiosos del estudio es la distinción entre la seguridad del modelo de lenguaje subyacente y la seguridad del agente construido sobre él. La mayoría de las empresas desarrolladoras cumple con los requisitos regulatorios y de comunicación pública focalizándose en el modelo base, es decir, en GPT, Claude o Gemini, y transfieren implícitamente esa credencial al agente que construyen encima, como si la seguridad del motor garantizara la seguridad del vehículo completo en todas las condiciones de uso posibles.
El argumento técnico del estudio es contundente: los comportamientos críticos para la seguridad de un agente de IA emergen de su arquitectura específica de planificación, de las herramientas que tiene disponibles, de su sistema de memoria y de las políticas que gobiernan sus decisiones, no del modelo subyacente. Un agente puede estar construido sobre un modelo robusto y seguro y exhibir comportamientos de riesgo elevado en sus capas de implementación que el modelo base nunca fue diseñado para prever ni controlar.
El Índice identificó trece agentes con niveles que denomina "fronterizos" de autonomía. De ese subconjunto de alto riesgo potencial, solo cuatro publican alguna evaluación de seguridad específica del agente. Los nueve restantes operan con autonomía elevada y documentación de seguridad inexistente o insuficiente.
Los agentes de navegador: el segmento de mayor riesgo y menor transparencia
La categoría que concentra los indicadores más preocupantes del estudio es la de los agentes de navegador web, diseñados para operar en la internet abierta realizando acciones en nombre del usuario: hacer clic, completar formularios, procesar reservas, ejecutar compras y extraer contenido. Estos agentes presentan el 64% de los campos de seguridad relevantes sin reportar, el porcentaje más alto de todo el Índice, y simultáneamente operan con los niveles más elevados de autonomía entre todas las categorías evaluadas.
La combinación es analíticamente alarmante: máxima autonomía operativa, mínima transparencia de seguridad. Los agentes empresariales, orientados a automatizar tareas de gestión corporativa, presentan el 63% de campos omitidos. Los agentes de chat, la categoría más conocida por el público general, muestran el 43%.
El estudio de caso sobre Perplexity Comet ilustra el problema con concreción. Posicionado como uno de los agentes de navegador más autónomos del Índice, Comet opera bajo la premisa de funcionar como un asistente de comportamiento humano, sin identificarse como agente de inteligencia artificial ante los servicios con los que interactúa. Amazon ya inició acciones legales porque el sistema accede a sus plataformas sin revelar su naturaleza no humana. El caso anticipa una categoría de conflictos regulatorios y legales para los que el marco jurídico global no tiene respuesta elaborada.
Concentración de plataforma: el riesgo sistémico que nadie nombra
Un hallazgo secundario del estudio tiene implicancias de orden sistémico que trascienden la seguridad individual de cada agente. Fuera del ecosistema chino, prácticamente la totalidad de los agentes del Índice depende de uno de tres modelos base: GPT, Claude o Gemini. Esa concentración en un número reducido de infraestructuras genera lo que el estudio denomina puntos únicos de fallo a escala de industria.
Un cambio de condiciones comerciales en cualquiera de esas tres plataformas, una interrupción de servicio no planificada o una vulnerabilidad de seguridad descubierta en el modelo base podría propagarse simultáneamente a cientos de agentes que operan sobre él, en sectores que van desde la gestión financiera hasta la atención médica, pasando por la infraestructura crítica. Ninguno de los marcos regulatorios vigentes en los principales mercados contempla ese escenario con la especificidad técnica que requiere.
Te puede interesar
Implicancias para empresas e inversores: lo que el mercado no está descontando
Desde una perspectiva de análisis de riesgo corporativo, el estudio de Cambridge introduce variables que el mercado de capitales no incorpora en la valuación de las empresas del sector. Las rondas de financiación récord de OpenAI y Anthropic fijan valoraciones que asumen la sostenibilidad del modelo de crecimiento actual. Esa sostenibilidad depende, entre otros factores, de que la adopción masiva de agentes autónomos no genere incidentes de seguridad de escala suficiente para activar respuestas regulatorias que frenen el ritmo de despliegue.
Con 25 de los 30 agentes líderes sin documentación de seguridad verificable, y con seis sistemas explícitamente diseñados para eludir mecanismos de detección anti-bots imitando comportamiento humano, la probabilidad de un incidente de visibilidad pública que catalice una respuesta regulatoria no es despreciable. El sector está corriendo una carrera entre capacidades crecientes y gobernanza rezagada, y los actores que más tienen que perder si esa carrera termina mal son precisamente los inversores que hoy sostienen las valuaciones más elevadas de la historia tecnológica privada.
Autor: Rocío Reija Publicación: 20 de febrero de 2026 | Última actualización: 20 de febrero de 2026

Robots humanoides en la industria automotriz: USD 20.000 millones de Tesla, la ofensiva china y por qué tu próximo auto podría fabricarlo una máquina bípeda

Gigantes tecnológicos destinarán US$ 650.000 millones a IA en 2026: ¿burbuja o revolución?
Firmus Technologies obtiene US$ 10.000 millones para construir centros de datos de IA en Australia

Redes sociales prohibidas para menores en España: Europa busca alternativas a monopolio tecnológico
Moltbook: La Red Social Donde 1,5 Millones de Agentes de IA Debaten Sobre Su Propia Existencia
Argentina en la encrucijada: balance crítico de 24 horas que exponen las fracturas del modelo Milei y los dilemas de una oposición sin programa alternativo
Las últimas veinticuatro horas condensaron con una intensidad inusual las contradicciones estructurales que atraviesa el proceso de transformación económica e institucional argentino.
Reforma Laboral Argentina 2026: el Senado vota el viernes y hay aspectos críticos que podrían dejarte sin protección
El Congreso aprobó la modernización laboral pero expertos advierten que ignora la inteligencia artificial, el teletrabajo y la economía de plataformas, dejando a millones sin cobertura.

Superávit Comercial Récord con Pies de Barro: Las Importaciones Caen por Cuarto Mes Consecutivo y la Inversión Productiva No Aparece


