La IA empodera a hackers novatos mientras las empresas descuidan la seguridad de modelos de código abierto
La democratización de la inteligencia artificial está generando un nuevo perfil de ciberdelincuente que aprovecha modelos de código abierto para ejecutar ataques cada vez más sofisticados
La democratización de la inteligencia artificial está generando un nuevo perfil de ciberdelincuente que aprovecha modelos de código abierto para ejecutar ataques cada vez más sofisticados, mientras las corporaciones se apresuran a adoptar estas tecnologías sin las debidas precauciones de seguridad, según revelan investigaciones recientes.
De acuerdo con Yuval Fernbach, director de Tecnología de JFrog, compañía especializada en cadena de suministro de software, los ciberdelincuentes contemporáneos persiguen principalmente tres objetivos: interrumpir servicios, sustraer información confidencial o manipular resultados en plataformas digitales. Lo preocupante es que la inteligencia artificial les está proporcionando herramientas para optimizar estas actividades maliciosas, similar a como las empresas legítimas la utilizan para mejorar su productividad.
"Estamos presenciando un incremento significativo en los ataques", advirtió Fernbach en declaraciones exclusivas a 13News. El ejecutivo señaló que particularmente están proliferando los ataques por sobrecarga, donde los atacantes fuerzan a un modelo de IA hasta que deja de responder. "Alcanzar el punto en que un modelo queda inoperativo es sorprendentemente sencillo", explicó.
La vulnerabilidad radica en la creciente adopción de modelos de código abierto. Cuando las organizaciones deciden implementar soluciones de inteligencia artificial, se enfrentan a una decisión crítica: pueden optar por servicios propietarios como los ofrecidos por OpenAI o Anthropic, que proporcionan cierto nivel de garantía en seguridad pero implican costos superiores y restricciones respecto al manejo de datos confidenciales; o pueden recurrir a modelos de código abierto, como los desarrollados por Meta u otros miles disponibles en repositorios públicos.
Esta segunda opción está ganando popularidad aceleradamente. Una encuesta reciente realizada por JFrog e InformationWeek a 1,400 empresas reveló que aproximadamente la mitad ejecuta modelos descargados en sus propios servidores. La tendencia apunta hacia ecosistemas híbridos donde las compañías combinarán múltiples modelos con diferentes capacidades y especializaciones.
El problema fundamental radica en que verificar exhaustivamente estos modelos para cada actualización contradice la metodología de experimentación rápida que caracteriza la fase actual de adopción empresarial de la IA. Fernbach advierte que cada nuevo modelo o actualización podría contener código malicioso o simplemente alteraciones que afecten los resultados esperados.
Las consecuencias de estas negligencias pueden ser significativas. En 2024, un tribunal canadiense ordenó a Air Canada conceder un descuento por defunción a un viajero tras recibir información incorrecta del chatbot de la aerolínea, incluso después de que representantes humanos se lo negaran. La compañía debió reembolsar cientos de euros además de cubrir gastos legales. "A gran escala, este tipo de error podría resultar extremadamente costoso", subrayó el ejecutivo de JFrog.
Para dimensionar la magnitud del problema, JFrog colaboró con Hugging Face, el principal repositorio online de modelos de IA. Su investigación detectó que cuatrocientos de los más de un millón de modelos alojados contenían código malicioso, representando menos del 1% del total. Aunque esta proporción parece modesta, Fernbach advierte que mientras el número de nuevos modelos se ha triplicado desde entonces, los ataques se han multiplicado por siete.
El panorama se complica aún más por la proliferación de impostores maliciosos que adoptan nombres casi idénticos a modelos legítimos populares, con sutiles errores ortográficos diseñados para engañar a ingenieros que trabajan bajo presión temporal.
Los resultados de la encuesta realizada por JFrog revelan un preocupante desconocimiento corporativo sobre estos riesgos. El 58% de las empresas consultadas carecía de políticas específicas sobre modelos de inteligencia artificial de código abierto o desconocía su existencia. Más alarmante aún, el 68% de las organizaciones no contaba con mecanismos automatizados para supervisar el uso de modelos por parte de sus desarrolladores, dependiendo exclusivamente de revisiones manuales.
Las grandes instituciones financieras ya han expresado su inquietud ante la velocidad con que avanza la inteligencia artificial, superando su capacidad de adaptación y respuesta. Con el auge inminente de la IA agencial, donde los modelos no solo proporcionarán análisis sino que ejecutarán tareas autónomamente, los riesgos podrían intensificarse exponencialmente.
Los especialistas en ciberseguridad recomiendan que las organizaciones implementen políticas robustas de gobernanza para la adopción de modelos de IA, incluyendo procesos de verificación automatizados, evaluaciones periódicas de vulnerabilidades y capacitación especializada para los equipos de desarrollo. Asimismo, sugieren priorizar la transparencia en la cadena de suministro de software, exigiendo documentación completa sobre el origen y las actualizaciones de cualquier modelo implementado en entornos productivos.
La situación actual refleja una paradoja tecnológica: mientras las empresas buscan aprovechar el potencial transformador de la inteligencia artificial para incrementar su competitividad, simultáneamente están introduciendo nuevos vectores de ataque que los ciberdelincuentes están explotando eficazmente.
Los líderes del sector tecnológico están comenzando a coordinar esfuerzos para reducir la proliferación de modelos maliciosos. JFrog ha desarrollado herramientas de escaneo para verificar modelos antes de su implementación productiva, pero Fernbach enfatiza que la responsabilidad última recae en cada organización.
A medida que la inteligencia artificial continúa integrándose en procesos empresariales críticos, el equilibrio entre innovación y seguridad será determinante para evitar consecuencias potencialmente devastadoras. La carrera entre atacantes y defensores en este nuevo terreno apenas comienza, y las empresas que subestimen los riesgos asociados podrían pagar un alto precio por su negligencia.
Para las organizaciones que buscan protegerse, los expertos recomiendan diversificar proveedores de modelos de IA, implementar sistemas de monitoreo continuo del comportamiento de estos sistemas, y establecer protocolos claros para verificar resultados críticos antes de su implementación en procesos decisionales de alto impacto.
La inteligencia artificial promete revolucionar prácticamente todos los aspectos de la actividad empresarial, pero como toda tecnología transformadora, trae consigo nuevos desafíos de seguridad que requieren un enfoque proactivo y sistemático, especialmente cuando los ciberdelincuentes están demostrando una adaptabilidad notable para explotar estas nuevas oportunidades.
Te puede interesar
Anthropic presenta Claude Gov: IA militar exclusiva para agencias de seguridad estadounidenses
La empresa desarrolló una versión clasificada de su modelo estrella tras colaboración directa con el gobierno federal, marcando un hito en la militarización de la inteligencia artificial comercial
Musk valoriza xAI en usd 113.000 millones tras fusionar Twitter
La startup de inteligencia artificial absorbió la red social X en marzo, consolidando un imperio digital que compite directamente con OpenAI
JPMorgan invierte usd 18.000 millones para liderar la revolución de la IA bancaria
La transformación digital del gigante financiero estadounidense JPMorgan Chase está marcando un punto de inflexión en la industria bancaria global
Nvidia descubre el oro digital: tokens de IA impulsan ganancias récord
El imperio de los semiconductores atraviesa una transformación fundamental donde las métricas tradicionales de éxito empresarial ceden protagonismo ante indicadores emergentes de la era digital
Nvidia desafía restricciones chinas y supera expectativas con usd 44.060 millones de ingresos
La multinacional líder en semiconductores presentó resultados trimestrales que sobrepasaron las proyecciones financieras de los analistas, alcanzando ingresos por 44.060 millones de dólares durante el primer período fiscal
Inteligencia Artificial (IA) : ¿Están las Máquinas Cruzando el Umbral de la Conciencia?
La pregunta no es si debemos temer a las máquinas conscientes. La pregunta es: ¿estamos preparados para las decisiones que definirán no solo el futuro de la IA, sino el futuro mismo de la conciencia en el universo
Jensen Huang califica de "fracaso total" las restricciones estadounidenses a la exportación de chips hacia China
El director ejecutivo de Nvidia ha intensificado sus críticas hacia la política comercial tecnológica implementada por Washington, revelando una dramática reducción en la participación de mercado de la compañía en territorio chino
Sundar Pichai revela: Google evaluó seriamente la compra de Netflix
El máximo ejecutivo de Alphabet valoró como "intensas" las conversaciones internas para adquirir el gigante del streaming
La paradoja de Meta: Zuckerberg impulsa amigos virtuales en la era de la soledad digital
La visión del CEO de Meta sobre compañeros digitales generados por inteligencia artificial surge precisamente cuando miles de usuarios abandonan las plataformas que contribuyeron a incrementar el aislamiento social