Decisiones de IA sobre dependencias de software causan nuevos fallos de seguridad
Las organizaciones deberían pensarlo dos veces antes de delegar decisiones acerca de dependencias de software en modelos de inteligencia artificial. Una investigación ha revelado que los modelos “de frontera”, los más avanzados del mercado, suelen generar recomendaciones erróneas o inventadas.
Esto representa un riesgo grave para las empresas que buscan automatizar sus procesos de actualización y parcheo por medio de estas herramientas. Equipos expertos han analizado más de 35 mil recomendaciones de actualización en el segundo semestre del año pasado.
En total, las firmas examinaron 260 mil sugerencias generadas por siete modelos de Anthropic, OpenAI y Google. Además, publicaron la primera fase del estudio, centrada en GPT-5 de Open AI, en febrero, como parte de su informe acerca de la cadena de suministro de software de este 2026. Aquella investigación ha demostrado que los LLM recomendaban versiones, rutas de mejora o parches inexistentes.
De hecho, casi el 30% de las actualizaciones sugeridas han resultado ser alucinaciones. La segunda parte del estudio, presentada hace unos días, indica que, aunque los modelos con razonamiento mejorado, como GPT-5.2, Claude Sonnet 3.7 y 4.5, Claude Opus 4.6 y Gemini 2.5 y 3 Pro, han avanzado, siguen produciendo errores y alucinaciones preocupantes.
En la práctica, estos fallos consumen presupuesto, desperdician tiempo de desarrollo, dejan vulnerabilidades abiertas y acumulan deuda técnica antes de que el código llegue a producción, advirtieron los especialistas. Igualmente, subrayan que el problema no radica en la capacidad de razonamiento de los modelos, que ha evolucionado de forma notable.
El fallo se encuentra en la falta de información en tiempo real sobre las dependencias. El problema no es la escala del modelo, sino la inteligencia del ecosistema, según se puede leer en el informe. La IA carece del contexto real acerca de vulnerabilidades, compatibilidad y políticas corporativas necesarias, el cual es necesario para tomar decisiones de mitigación y remediación seguras.
La ciberseguridad no es algo complementario, es una de las columnas vertebrales de los ecosistemas económicos modernos. Por ello, que tu empresa sea vulnerable implica riesgos muy grandes, incluso la paralización de todos los procesos. Ante esto, TIC Defense se centra en proveer servicios y soluciones de alta tecnología que ofrecen prevención y respuesta rápida ante todo tipo de incidentes maliciosos.
Por ejemplo, incluso los mejores modelos inventaron una de cada 16 recomendaciones, han sugerido no realizar cambios en un tercio de los componentes, lo que redujo las alucinaciones, pero generó otro peligro.
Según los expertos, los modelos más cautelosos no detectaron fallos de seguridad en los componentes estáticos, dejando alrededor de 900 vulnerabilidades críticas y graves en código activo. En otros casos, los modelos introdujeron riesgos activamente al recomendar versiones de software que contenían fallos conocidos, por lo que ha puesto el peligro incluso a la propia infraestructura de IA.
Se habla de las librerías utilizadas para entrenar y servir a los propios LLM, señalan los reportes. Es una ironía evidente, debido a que los agentes de IA que sugieren mejoras fallan al proteger las herramientas que los sustentan. Los especialistas afirman que estos consejos erróneos crean una deuda técnica invisible.
Las compañías saben que la IA se equivoca, pero la investigación muestra que estos errores son sutiles, estructurados y se están normalizando en el desarrollo. De igual manera, los expertos han explicado que el riesgo real no es cuando el modelo entrega algo obviamente roto, es cuando ofrece algo plausible que mantiene el riesgo, omite la mejor ruta y parece lo suficientemente bueno para enviarse.