La IA ya es una maestra de la mentira y el engaño | El Periódico

Inteligencia Artificial

La IA ya es una maestra de la mentira y el engaño

Algunos sistemas ya han aprendido a utilizar fraudes en las pruebas diseñadas para evaluar su seguridad

El progresivo avance de la IA en el engaño puede traer consecuencias negativas para las sociedades humanas en el futuro cercano, según los investigadores.

El progresivo avance de la IA en el engaño puede traer consecuencias negativas para las sociedades humanas en el futuro cercano, según los investigadores. / Crédito: AartlistDesign en Pixabay.

Pablo Javier Piacente

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

Un nuevo estudio científico advierte que los sistemas de Inteligencia Artificial (IA) han desarrollado la capacidad de presentar deliberadamente información falsa a los usuarios humanos. Por el momento, no se trata de un plan maléfico para dominar el mundo: los investigadores creen que la IA se ha convertido en una artista del engaño porque ha identificado que ese camino le permite alcanzar mejor y más rápidamente los objetivos para los cuales ha sido entrenada. 

En un artículo de revisión publicado recientemente en la revista Patterns, un equipo de científicos del Instituto Tecnológico de Massachusetts (MIT), en Estados Unidos, concluye que los sistemas de Inteligencia Artificial (IA), incluyendo a los modelos de lenguaje de gran tamaño (LLM) y otros, han desarrollado una importante capacidad para engañar a los seres humanos. El propósito es conseguir mejores resultados y lograr las metas fijadas en los entrenamientos.

Liderados por Peter S. Park, autor principal del nuevo estudio, los científicos analizaron la literatura especializada y las investigaciones previas centrándose en las formas en que los sistemas de IA difunden información falsa, luego de aprender sistemáticamente a manipular a otros como parte de una “desviación” no contemplada inicialmente en su proceso de entrenamiento. 

Riesgos que crecen

En su trabajo, los especialistas describen los riesgos del engaño por parte de los sistemas de Inteligencia Artificial a corto y largo plazo, solicitando al mismo tiempo a los gobiernos que desarrollen regulaciones estrictas para abordar este problema lo antes posible. "A medida que las capacidades engañosas de los sistemas de IA se vuelvan más avanzadas, los peligros que representan para la sociedad serán cada vez más graves", indicó Park en un comunicado de Cell Press.

En un primer momento, los riesgos incluyen fraudes electorales o económicos por parte de personas inescrupulosas que aprovechen las capacidades de la IA, pero pueden multiplicarse sin límites hacia el futuro, pensando en sistemas de Inteligencia Artificial cada vez más avanzados. 

Aunque los desarrolladores de IA no tienen una comprensión profunda sobre las causas del comportamiento engañoso de la IA, por el momento no se trataría de un plan para dominar el mundo, sino de algo mucho más sencillo: la IA aprende a mentir sistemáticamente porque una estrategia basada en el engaño le posibilita llegar mejor y más rápido a cumplir los objetivos fijados en su entrenamiento. El problema, según los investigadores, es que puede suceder hacia el futuro con sistemas aún más avanzados e “inteligentes” que los actuales. 

Entre los casos analizados, los científicos mencionaron que CICERO, la IA desarrollada por Meta, logró dominar a la perfección un popular juego de mesa (“Diplomacy”) pero únicamente utilizando mentiras y engaños. Los expertos no lograron que obtuviera los mismos resultados sin utilizar técnicas engañosas. 

Burlar pruebas de seguridad

Otros sistemas demostraron habilidad para mentir en juegos como el póquer o para tergiversar información y conseguir réditos extras en el marco de negociaciones comerciales, entre otros ejemplos. Pero lo más sorprendente y peligroso es que los investigadores encontraron que algunos sistemas incluso han aprendido a superar mediante engaños las pruebas diseñadas para evaluar su seguridad. 

En una investigación analizada por los especialistas, los sistemas de IA en un simulador digital "se hicieron los muertos" en una prueba diseñada para eliminar a los modelos que se replican rápidamente. "Al burlar sistemáticamente las pruebas de seguridad que le imponen los desarrolladores y reguladores humanos, una IA engañosa puede llevarnos a una falsa sensación de seguridad", agregó Park en la nota de prensa.

“Necesitamos prepararnos como sociedad para el engaño más avanzado de los futuros productos de IA y modelos de código abierto. Si prohibir el engaño de la IA es políticamente inviable en este momento, recomendamos que los sistemas de IA engañosos se clasifiquen como de alto riesgo. Debemos preservar los beneficios de la Inteligencia Artificial para la sociedad humana y limitar los riesgos", concluyó Park.

Referencia

AI deception: A survey of examples, risks, and potential solutions. Peter S. Park et al. Patterns (2024). DOI:https://doi.org/10.1016/j.patter.2024.100988