Conoce algunos peligros clave al usar inteligencia artificial en el trabajo
¿Te encuentras usando inteligencia artificial en el trabajo? Si no lo estás haciendo, estás corriendo un riesgo serio de quedarte atrás con respecto a tus colegas y competidores, ya que los chatbots de IA, los generadores de imágenes y las herramientas de machine learning son poderosos impulsores de productividad. Pero con un gran poder viene una gran responsabilidad, y depende de ti comprender los riesgos de seguridad asociados con el uso de la IA en el entorno laboral.
Muchos editores en medios de tecnología han encontrado excelentes formas de utilizar herramientas de inteligencia artificial en el trabajo. Las herramientas favoritas para estos profesionales como Otter.ai, Grammarly y ChatGPT han demostrado ser útiles para tareas como transcribir entrevistas, tomar actas de reuniones y resumir rápidamente PDF extensos.
Igualmente, estamos conscientes de que apenas estamos empezando a explorar lo que la IA puede hacer. Hay una razón por las que los estudiantes universitarios utilizan ChatGPT para prácticamente todo hoy en día. Sin embargo, incluso las herramientas más valiosas pueden ser peligrosas si se usan de forma incorrecta. Un martillo es una herramienta indispensable, pero en manos equivocadas, puede convertirse en un arma mortal.
Ante esto cabe preguntarse: ¿cuáles son los riesgos de seguridad al usar IA en el trabajo? ¿Deberías pensártelo 2 veces antes de subir un PDF a ChatGPT? Las respuestas cortas son sí, existen riesgos de seguridad conocidos asociados con las herramientas de inteligencia artificial, y podrías estar poniendo en peligro a tu compañía y a tu empleo si no lo comprendes.
Igualmente, el manejo incorrecto de datos de clientes o pacientes podría costarte el trabajo. Además, es posible que hayas firmado un acuerdo de confidencialidad al comenzar tu empleo. Si compartes cualquier dato protegido con herramientas de IA de terceros como Claude o ChatGPT, podrías estar violando este acuerdo.
Recientemente, cuando un juez ordenó a ChatGPT conservar todos los chats de los usuarios, incluso los eliminados, la empresa advirtió sobre consecuencias no deseadas. Esta decisión podría forzar a OpenAI a violar su propia política de privacidad al almacenar la información que debería ser eliminada.
Organizaciones como OpenAI o Anthropic ofrecen servicios empresariales a muchas compañías, creando herramientas de IA personalizadas que utilizan su Interfaz de Programación de Aplicaciones. Estas herramientas empresariales suelen tener protecciones de privacidad y ciberseguridad integradas, pero si estás usando una cuenta privada de ChatGPT, por ejemplo, deberías tener cuidado al compartir información de clientes o de la empresa.
Como los modelos de lenguaje grande o LLM, por sus siglas en inglés, como ChatGPT, funcionan como motores de predicción de palabras, carecen de la capacidad de verificar los hechos que producen. Por eso, las “alucinaciones” de la IA, hechos, citas, enlaces u otro contenido completamente inventado, son un problema persistente.
Si estás usando herramientas de IA para completar proyectos laborales, revisa siempre los resultados en busca de alucinaciones con minuciosidad. Nunca se sabe cuándo una de estas puede colarse en algún texto. ¿Cuál es la solución? Una buena y confiable revisión humana.
Por otro lado, las herramientas de inteligencia artificial se entrenan con enormes cantidades de material, artículos, imágenes, obras de arte, investigaciones, transcripciones de YouTube, entre otros, lo cual significa que estos modelos suelen reflejar los sesgos de sus creadores.
En los ataques por inyección de prompts, actores maliciosos manipulan el contenido de entrenamiento de la IA para alterar sus respuestas. Por ejemplo, podrían esconder comandos en los metadatos y engañar a los modelos para que generen respuestas ofensivas. Según diversas firmas de ciberseguridad, los ataques de inyección de prompts son una de las debilidades más reportadas en los LLM.