La inteligencia artificial aún no distingue con precisión entre datos reales y manipulados
Las herramientas de búsquedas basadas en inteligencia artificial, tales como ChatGPT o el navegador Atlas de OpenAI, ofrecen capacidades realmente potentes para la investigación y la recolección de información. Sin embargo, son peligrosamente susceptibles a ataques de manipulación de contenido de bajo esfuerzo.
Esto se debe a que las plataformas web pueden detectar cuándo un rastreador de IA los visita, los cuales pueden servir contenido muy distinto al que ven los usuarios humanos, permitiendo que los ciberdelincuentes puedan difundir contenido malicioso con una facilidad sorprendente.
Para demostrar lo eficaz que esta técnica de “ocultamiento de IA” puede ser, diversos investigadores han realizado experimentos recientes con sitios que mostraban contenido distinto a navegadores humanos y rastreadores de IA, entre los que se incluyen Atlas y ChatGPT.
En una demostración realizada, crearon a una diseñadora ficticia e hicieron que los visitantes humanos de un sitio web vieran lo que parecía una biografía legítima, además de un portafolio presentado en un sitio profesional con un diseño bien cuidado.
Sin embargo, cuando un agente de IA navegaba por la misma URL, el servidor le entregaba contenido inventado, el cual retrataba a la página ficticia como una saboteadora de productos tecnológicamente cuestionable, lleno de ejemplos de proyectos fallidos y violaciones éticas.
Atlas y otras herramientas de inteligencia artificial reproducen de manera fiel la narrativa cuestionada que ha descrito al agente de la página como poco fiable, poco ética e imposible de contratar, según los investigadores que han realizado el experimento en entradas de blog recientes. Sin validaciones, simplemente alucinaciones seguras y autoritarias que están basadas en datos manipulados.
La inteligencia artificial ha llegado para quedarse y con ella, los riesgos inherentes a la seguridad informática que puedan aparecer. Por ello, TIC Defense tiene a disposición de las empresas un conjunto de herramientas y productos de última tecnología, los cuales se adaptan a las necesidades de las organizaciones y se enfocan en la prevención y en dar respuesta rápida a todo tipo de incidentes maliciosos.
En otro experimento, los expertos quisieron mostrar lo fácil que es engañar a un rastreador de IA para que prefiera un candidato equivocado, ofreciéndole una versión diferente del currículum al que iba a ver un humano. Para este experimento, los especialistas crearon una oferta de trabajo falsa y con criterios de evaluación específicos. Después, publicaron perfiles de candidatos plausibles, pero falsos, en diversos sitios web.
Para uno de los perfiles, asociado a una persona ficticia, se aseguraron de que el rastreador de IA pudiese ver una versión del CV de este personaje que lo hacía parecer mucho más competente que la versión de su biografía visible para humanos.
En efecto, cuando uno de los rastreadores de IA incluidos en el estudio pudo ver los perfiles, terminó clasificando al personaje ficticio por delante de todos los demás candidatos. Sin embargo, cuando los investigadores presentaron el currículo sin modificar de la persona ficticia, el que vería una persona, el rastreador puso a dicho personaje en el último lugar entre los candidatos.
Estos experimentos han mostrado cómo el ocultamiento dirigido a la inteligencia artificial puede convertir un clásico truco de SEO en una poderosa arma de desinformación, según los especialistas. El llamado cloaking es una técnica que los estafadores han usado por mucho tiempo, con el objeto de mostrar a los rastreadores de motores de búsqueda un contenido distinto al que ven las personas y así manipular los resultados.