Inteligencia Artificial
La IA ya es una maestra de la mentira y el engaño
Algunos sistemas ya han aprendido a utilizar fraudes en las pruebas diseñadas para evaluar su seguridad
Un nuevo estudio científico advierte que los sistemas de Inteligencia Artificial (IA) han desarrollado la capacidad de presentar deliberadamente información falsa a los usuarios humanos. Por el momento, no se trata de un plan maléfico para dominar el mundo: los investigadores creen que la IA se ha convertido en una artista del engaño porque ha identificado que ese camino le permite alcanzar mejor y más rápidamente los objetivos para los cuales ha sido entrenada.
En un artículo de revisión publicado recientemente en la revista Patterns, un equipo de científicos del Instituto Tecnológico de Massachusetts (MIT), en Estados Unidos, concluye que los sistemas de Inteligencia Artificial (IA), incluyendo a los modelos de lenguaje de gran tamaño (LLM) y otros, han desarrollado una importante capacidad para engañar a los seres humanos. El propósito es conseguir mejores resultados y lograr las metas fijadas en los entrenamientos.
Liderados por Peter S. Park, autor principal del nuevo estudio, los científicos analizaron la literatura especializada y las investigaciones previas centrándose en las formas en que los sistemas de IA difunden información falsa, luego de aprender sistemáticamente a manipular a otros como parte de una “desviación” no contemplada inicialmente en su proceso de entrenamiento.
Riesgos que crecen
En su trabajo, los especialistas describen los riesgos del engaño por parte de los sistemas de Inteligencia Artificial a corto y largo plazo, solicitando al mismo tiempo a los gobiernos que desarrollen regulaciones estrictas para abordar este problema lo antes posible. "A medida que las capacidades engañosas de los sistemas de IA se vuelvan más avanzadas, los peligros que representan para la sociedad serán cada vez más graves", indicó Park en un comunicado de Cell Press.
En un primer momento, los riesgos incluyen fraudes electorales o económicos por parte de personas inescrupulosas que aprovechen las capacidades de la IA, pero pueden multiplicarse sin límites hacia el futuro, pensando en sistemas de Inteligencia Artificial cada vez más avanzados.
Aunque los desarrolladores de IA no tienen una comprensión profunda sobre las causas del comportamiento engañoso de la IA, por el momento no se trataría de un plan para dominar el mundo, sino de algo mucho más sencillo: la IA aprende a mentir sistemáticamente porque una estrategia basada en el engaño le posibilita llegar mejor y más rápido a cumplir los objetivos fijados en su entrenamiento. El problema, según los investigadores, es que puede suceder hacia el futuro con sistemas aún más avanzados e “inteligentes” que los actuales.
Entre los casos analizados, los científicos mencionaron que CICERO, la IA desarrollada por Meta, logró dominar a la perfección un popular juego de mesa (“Diplomacy”) pero únicamente utilizando mentiras y engaños. Los expertos no lograron que obtuviera los mismos resultados sin utilizar técnicas engañosas.
Burlar pruebas de seguridad
Otros sistemas demostraron habilidad para mentir en juegos como el póquer o para tergiversar información y conseguir réditos extras en el marco de negociaciones comerciales, entre otros ejemplos. Pero lo más sorprendente y peligroso es que los investigadores encontraron que algunos sistemas incluso han aprendido a superar mediante engaños las pruebas diseñadas para evaluar su seguridad.
En una investigación analizada por los especialistas, los sistemas de IA en un simulador digital "se hicieron los muertos" en una prueba diseñada para eliminar a los modelos que se replican rápidamente. "Al burlar sistemáticamente las pruebas de seguridad que le imponen los desarrolladores y reguladores humanos, una IA engañosa puede llevarnos a una falsa sensación de seguridad", agregó Park en la nota de prensa.
“Necesitamos prepararnos como sociedad para el engaño más avanzado de los futuros productos de IA y modelos de código abierto. Si prohibir el engaño de la IA es políticamente inviable en este momento, recomendamos que los sistemas de IA engañosos se clasifiquen como de alto riesgo. Debemos preservar los beneficios de la Inteligencia Artificial para la sociedad humana y limitar los riesgos", concluyó Park.
Referencia
AI deception: A survey of examples, risks, and potential solutions. Peter S. Park et al. Patterns (2024). DOI:https://doi.org/10.1016/j.patter.2024.100988
- Mapa de los apellidos más comunes en cada provincia
- ¿Tu gato te acompaña hasta el váter? Esta es la razón de su comportamiento
- Inspección de Trabajo sanciona a un instituto de Tortosa con más de 50.000 euros por tener alumnos trabajando
- La venta de los probióticos se dispara, pero los médicos alertan de que 'todos no sirven para todo
- Este es el dinero exacto que Antena 3 ha ingresado a Óscar Díaz tras ganar el bote de 'Pasapalabra
- Las 3 enfermedades que el orégano ayuda a combatir
- Una de las calles más bonitas del mundo está en Barcelona
- La UCO detecta que Koldo informaba a Ábalos a través de un correo personal de las actividades de la trama