Usuarios deberían preocuparse por el mal uso de la inteligencia artificial
El director ejecutivo de OpenAI espera que la inteligencia artificial general, una IA que supera a los humanos en la mayoría de las tareas, se desarrolle en los años 2027 o 2028. Además, la predicción de Elon Musk es en 2025 o 2026, en donde afirma también que estaba perdiendo el sueño por la amenaza del peligro de la inteligencia artificial.
Sin embargo, las predicciones de una inminente IA a nivel de los humanos se han hecho desde hace más de 50 años, desde los primeros días de esta tecnología. Dichas predicciones eran erróneas, no solo en términos de tiempo, sino en un sentido más profundo.
En estos tiempos, sabemos que los enfoques específicos de la IA que los expertos tenían en mente en el pasado, son simplemente incapaces de llegar a la inteligencia a nivel humano.
De igual manera, a medida que se hicieron evidentes las limitaciones de la inteligencia artificial actual, la mayoría de los investigadores han llegado a la conclusión de que construir chatbots más grandes y poderosos no va a conducir a la inteligencia artificial general.
La IA avanzada es una preocupación a largo plazo, sin duda, que los investigadores deberían estudiar a fondo. No obstante, los riesgos de la IA en el 2025 van a surgir del mal uso, como ha sucedido hasta ahora.
Estos podrían ser usos indebidos intencionales, como el empleo excesivo de la IA por parte de los abogados, por ejemplo. Después del lanzamiento de ChatGPT, varios abogados han sido sancionados por utilizar la inteligencia artificial para generar informes judiciales erróneos, aparentemente sin ser conscientes de la tendencia de los chatbots a inventar cosas.
TIC Defense es una empresa de ciberseguridad que se encarga de proveer servicios, herramientas, productos y soluciones que se adapten a las necesidades de tu empresa. Igualmente, nos enfocamos en prevenir y en dar respuesta rápida ante amenazas cibernéticas de todo tipo.
En este 2025 va a ser más difícil distinguir lo real de lo inventado. La fidelidad de los audios, el texto y las imágenes generadas por IA es notable y el video va a ser lo siguiente. Esto podría conducir al “dividendo del mentiroso”; aquellas personas en posiciones de poder que rechazan la evidencia de su mala conducta alegando que es falsa.
En el 2023, la compañía Tesla argumentó que en un video del 2016 de Elon Musk podría haber sido un deepfake, en respuesta a las acusaciones de que el CEO había exagerado la seguridad del piloto automático de Tesla, provocando un accidente.
A su vez, las compañías están explotando la confusión pública para vender productos dudosos con la etiqueta de “IA”. Esto puede salir mal cuando se usan estas herramientas para clasificar a las personas y tomar decisiones importantes sobre ellas.
Del mismo modo, hay múltiples aplicaciones en el campo de la salud, educación, finanzas, justicia penal y seguros, en las que se emplea la inteligencia artificial para negar a las personas oportunidades importantes en la vida.
En este 2025, se espera que los riesgos de la inteligencia artificial no aparezcan porque ha actuado por sí sola, sino de lo que las personas hagan con ella. Se incluye casos en los que parece funcionar bien y se confía demasiado en ella, cuando funciona bien y se utiliza de forma maliciosa y cuando no es adecuada para su propósito.