La IA empodera a hackers novatos mientras las empresas descuidan la seguridad de modelos de código abierto
La democratización de la inteligencia artificial está generando un nuevo perfil de ciberdelincuente que aprovecha modelos de código abierto para ejecutar ataques cada vez más sofisticados
La democratización de la inteligencia artificial está generando un nuevo perfil de ciberdelincuente que aprovecha modelos de código abierto para ejecutar ataques cada vez más sofisticados, mientras las corporaciones se apresuran a adoptar estas tecnologías sin las debidas precauciones de seguridad, según revelan investigaciones recientes.
De acuerdo con Yuval Fernbach, director de Tecnología de JFrog, compañía especializada en cadena de suministro de software, los ciberdelincuentes contemporáneos persiguen principalmente tres objetivos: interrumpir servicios, sustraer información confidencial o manipular resultados en plataformas digitales. Lo preocupante es que la inteligencia artificial les está proporcionando herramientas para optimizar estas actividades maliciosas, similar a como las empresas legítimas la utilizan para mejorar su productividad.
"Estamos presenciando un incremento significativo en los ataques", advirtió Fernbach en declaraciones exclusivas a 13News. El ejecutivo señaló que particularmente están proliferando los ataques por sobrecarga, donde los atacantes fuerzan a un modelo de IA hasta que deja de responder. "Alcanzar el punto en que un modelo queda inoperativo es sorprendentemente sencillo", explicó.
La vulnerabilidad radica en la creciente adopción de modelos de código abierto. Cuando las organizaciones deciden implementar soluciones de inteligencia artificial, se enfrentan a una decisión crítica: pueden optar por servicios propietarios como los ofrecidos por OpenAI o Anthropic, que proporcionan cierto nivel de garantía en seguridad pero implican costos superiores y restricciones respecto al manejo de datos confidenciales; o pueden recurrir a modelos de código abierto, como los desarrollados por Meta u otros miles disponibles en repositorios públicos.
Esta segunda opción está ganando popularidad aceleradamente. Una encuesta reciente realizada por JFrog e InformationWeek a 1,400 empresas reveló que aproximadamente la mitad ejecuta modelos descargados en sus propios servidores. La tendencia apunta hacia ecosistemas híbridos donde las compañías combinarán múltiples modelos con diferentes capacidades y especializaciones.
El problema fundamental radica en que verificar exhaustivamente estos modelos para cada actualización contradice la metodología de experimentación rápida que caracteriza la fase actual de adopción empresarial de la IA. Fernbach advierte que cada nuevo modelo o actualización podría contener código malicioso o simplemente alteraciones que afecten los resultados esperados.
Las consecuencias de estas negligencias pueden ser significativas. En 2024, un tribunal canadiense ordenó a Air Canada conceder un descuento por defunción a un viajero tras recibir información incorrecta del chatbot de la aerolínea, incluso después de que representantes humanos se lo negaran. La compañía debió reembolsar cientos de euros además de cubrir gastos legales. "A gran escala, este tipo de error podría resultar extremadamente costoso", subrayó el ejecutivo de JFrog.
Para dimensionar la magnitud del problema, JFrog colaboró con Hugging Face, el principal repositorio online de modelos de IA. Su investigación detectó que cuatrocientos de los más de un millón de modelos alojados contenían código malicioso, representando menos del 1% del total. Aunque esta proporción parece modesta, Fernbach advierte que mientras el número de nuevos modelos se ha triplicado desde entonces, los ataques se han multiplicado por siete.
El panorama se complica aún más por la proliferación de impostores maliciosos que adoptan nombres casi idénticos a modelos legítimos populares, con sutiles errores ortográficos diseñados para engañar a ingenieros que trabajan bajo presión temporal.
Los resultados de la encuesta realizada por JFrog revelan un preocupante desconocimiento corporativo sobre estos riesgos. El 58% de las empresas consultadas carecía de políticas específicas sobre modelos de inteligencia artificial de código abierto o desconocía su existencia. Más alarmante aún, el 68% de las organizaciones no contaba con mecanismos automatizados para supervisar el uso de modelos por parte de sus desarrolladores, dependiendo exclusivamente de revisiones manuales.
Las grandes instituciones financieras ya han expresado su inquietud ante la velocidad con que avanza la inteligencia artificial, superando su capacidad de adaptación y respuesta. Con el auge inminente de la IA agencial, donde los modelos no solo proporcionarán análisis sino que ejecutarán tareas autónomamente, los riesgos podrían intensificarse exponencialmente.
Los especialistas en ciberseguridad recomiendan que las organizaciones implementen políticas robustas de gobernanza para la adopción de modelos de IA, incluyendo procesos de verificación automatizados, evaluaciones periódicas de vulnerabilidades y capacitación especializada para los equipos de desarrollo. Asimismo, sugieren priorizar la transparencia en la cadena de suministro de software, exigiendo documentación completa sobre el origen y las actualizaciones de cualquier modelo implementado en entornos productivos.
La situación actual refleja una paradoja tecnológica: mientras las empresas buscan aprovechar el potencial transformador de la inteligencia artificial para incrementar su competitividad, simultáneamente están introduciendo nuevos vectores de ataque que los ciberdelincuentes están explotando eficazmente.
Los líderes del sector tecnológico están comenzando a coordinar esfuerzos para reducir la proliferación de modelos maliciosos. JFrog ha desarrollado herramientas de escaneo para verificar modelos antes de su implementación productiva, pero Fernbach enfatiza que la responsabilidad última recae en cada organización.
A medida que la inteligencia artificial continúa integrándose en procesos empresariales críticos, el equilibrio entre innovación y seguridad será determinante para evitar consecuencias potencialmente devastadoras. La carrera entre atacantes y defensores en este nuevo terreno apenas comienza, y las empresas que subestimen los riesgos asociados podrían pagar un alto precio por su negligencia.
Para las organizaciones que buscan protegerse, los expertos recomiendan diversificar proveedores de modelos de IA, implementar sistemas de monitoreo continuo del comportamiento de estos sistemas, y establecer protocolos claros para verificar resultados críticos antes de su implementación en procesos decisionales de alto impacto.
La inteligencia artificial promete revolucionar prácticamente todos los aspectos de la actividad empresarial, pero como toda tecnología transformadora, trae consigo nuevos desafíos de seguridad que requieren un enfoque proactivo y sistemático, especialmente cuando los ciberdelincuentes están demostrando una adaptabilidad notable para explotar estas nuevas oportunidades.
Te puede interesar
La startup de Mira Murati capta usd 1.800 millones sin productos: el fenómeno empresarial que desafía la lógica inversora
Thinking Machines Lab, la reciente apuesta empresarial de Mira Murati, exdirectora de Tecnología de OpenAI, ha conseguido atraer cerca de 1.800 millones de euros en financiación a pesar de carecer de productos y contar con un número reducido de empleados
Trump y sus aranceles: el impacto en gigantes tecnológicos como Meta y Amazon
La política arancelaria impulsada por el presidente Donald Trump podría tener consecuencias significativas para empresas tecnológicas que dependen fuertemente de anunciantes chinos
Trump considera alivio arancelario como moneda de cambio en negociaciones sobre TikTok con China
El presidente de Estados Unidos, Donald Trump, insinuó la posibilidad de ofrecer reducciones arancelarias a China como parte de una estrategia para alcanzar un acuerdo sobre el futuro de TikTok en territorio estadounidense, según declaraciones recogidas durante una reciente rueda de prensa en la Casa Blanca
ChatGPT rompe récords tras boom de imágenes al estilo Ghibli
El fenómeno viral de la creación de ilustraciones inspiradas en el emblemático estudio japonés ha catapultado a la plataforma de OpenAI hacia cifras sin precedentes de usuarios, mientras la compañía enfrenta considerables desafíos técnicos para satisfacer la creciente demanda
OpenAI revoluciona el panorama tecnológico con millonaria inversión y nuevo modelo de código semiabierto
OpenAI marcó un hito histórico en el ecosistema tecnológico al anunciar simultáneamente una ronda de financiación sin precedentes de 40.000 millones de dólares y el desarrollo de su primer modelo de inteligencia artificial con pesos abiertos desde 2019
Musk integra X a su imperio de IA: venta interna por u$d 33 mil millones restructura su ecosistema tecnológico
Elon Musk ha orquestado una reorganización estratégica de sus empresas mediante una transacción interna que implica la venta de la plataforma X (anteriormente Twitter) a xAI, su compañía de inteligencia artificial
Scale AI se adjudica contrato con el Pentágono para llevar agentes de IA al campo militar
La incorporación de sistemas de inteligencia artificial en la toma de decisiones militares acaba de dar un salto cualitativo sin precedentes
Las 5 IA chinas que superan a ChatGPT: Manus y DeepSeek revolucionan el mercado global en 2025
Los avances en inteligencia artificial de compañías chinas están redibujando el panorama tecnológico internacional, con innovaciones que no solo compiten con los gigantes estadounidenses sino que en algunos casos los superan, provocando reacciones significativas en los mercados financieros globales
Las empresas que no adopten IA en sus procesos enfrentarán obsolescencia para 2030
Un reciente análisis efectuado por Elev8 Digital Skills señala que el 91% de los directivos y responsables de equipos digitales corporativos consideran la transformación digital como elemento fundamental para garantizar la supervivencia empresarial durante la próxima década.