"En la inteligencia artificial no vale con el autocontrol; hay que legislar" - La Nueva España

Entrevista | Miguel Ángel Presno Linera Catedrático de Derecho Constitucional

"En la inteligencia artificial no vale con el autocontrol; hay que legislar"

"El uso masivo de robots sociales para fines terapéuticos apunta riesgos como el de intromisión en nuestra vida privada y control de los datos"

Miguel Ángel Presno Linera.

Miguel Ángel Presno Linera. / D. P.

Mónica G. Salas

Mónica G. Salas

Miguel Ángel Presno Linera es catedrático de Derecho Constitucional de la Universidad de Oviedo y tiene nuevo libro: "Derechos fundamentales e inteligencia artificial" (Editorial Marcial Pons). El jurista reflexiona a lo largo de 144 páginas sobre cómo la mayor revolución tecnológica de la historia está incidiendo en derechos fundamentales como la libertad personal, los de la vida privada, las libertades de expresión e información... Precisamente, Presno es uno de los tres investigadores –junto a los catedráticos de Filosofía del Derecho, Roger Campione, y de Inteligencia Artificial, Irene Díaz– que han impulsado la creación en Siero de un Centro de Estudios sobre el Impacto Social de la Inteligencia Artificial.

–Hace unos años la inteligencia artificial sonaba a ciencia ficción. Hoy es una realidad.

–Existe acuerdo en ubicar el nacimiento del nombre IA (inteligencia artificial) en un taller científico, que en el verano de 1956 reunió, entre otros, a John McCarthy, Marvin Minsky y Claude Shannonl en el Dartmouth College. En esos primeros momentos cundió el optimismo, pero esas previsiones no se cumplieron, entre otras razones por la existencia de pocos datos y la escasa capacidad de la computación del momento. Hasta el presente siglo, con el acceso a cantidades ingentes de datos –Big Data–, la disponibilidad de procesadores muy potentes a bajo coste y el desarrollo de redes neuronales profundas y complejas, no se consolidó la IA y se despejaron las dudas sobre su decisiva importancia. Esto no quiere decir que todo lo que hoy se presume que puede alcanzar la IA llegue a conseguirse en las próximas décadas. Una vez más, no toda ficción llega a ser ciencia.

–¿Es una realidad que amenaza derechos fundamentales?

–Sí, como se explica en el Libro Blanco sobre la inteligencia artificial de la Comisión Europea, la IA cambiará nuestras vidas, pues mejorará la atención sanitaria, incrementando la precisión de los diagnósticos y permitiendo una mejor prevención de las enfermedades; mejorará la eficiencia de los sistemas de producción a través de un mantenimiento predictivo; aumentará la seguridad, y nos aportará otros muchos cambios que de momento casi ni podemos intuir. Al mismo tiempo, la IA conlleva una serie de riesgos potenciales, como la opacidad en la toma de decisiones, la discriminación de género o de otro tipo, la intromisión en nuestras vidas privadas o su uso con fines delictivos.

–Ponga algún ejemplo concreto de la cara oculta de la IA.

–El llamado "escándalo de las ayudas a la infancia" en los Países Bajos. La Administración Tributaria introdujo un sistema para realizar controles a gran escala sobre las familias que recibían esas ayudas y, con arreglo a dicho sistema, las solicitudes que se consideraban sospechosas se seleccionaban a partir de un modelo de clasificación de riesgos, basado en la IA, que era un algoritmo que "autoaprendía" a partir de ejemplos de solicitudes correctas e incorrectas. Uno de los indicadores utilizados para identificar los casos de fraude era la ciudadanía y los solicitantes de origen extranjero eran seleccionados por el sistema para un examen detallado de sus peticiones. Resultó que el sistema trabajaba partiendo de la base de que el 80% de los beneficiarios de las ayudas sociales eran "malos" y el 20%, "buenos". En caso de detectarse una irregularidad, incluso años después de la concesión de la asignación, había que devolver la totalidad del importe (a veces hasta 30.000 euros anuales). Las familias incluidas en la lista de "defraudadoras" rara vez recibían información y los recursos ante el máximo tribunal administrativo eran sistemáticamente rechazados, lo que provocó a miles de personas graves problemas financieros, psicológicos y físicos. El escándalo fue tal que provocó la caída del Gobierno del Primer Ministro Mark Rutte.

–Sobre todo ello reflexiona en su último libro.

–Sí. "Derechos fundamentales e inteligencia artificial" se compone de tres partes. La primera incluye una breve aproximación al origen y desarrollo de la inteligencia artificial. La segunda presenta una panorámica de la incidencia en una serie de derechos fundamentales, entre otros, en la libertad personal, los derechos relativos a la vida privada, las libertades de expresión e información, el derecho a un juicio justo o la prohibición de discriminación. Y la tercera aborda algo a lo que se ha prestado menos atención: la relación entre la IA y la teoría general de los derechos fundamentales, es decir, el impacto en el Estado social, democrático y, podríamos decir, digital de Derecho; la repercusión en la dignidad humana y el libre desarrollo de la personalidad; la cuestión de si los robots pueden ser titulares de derechos y, entre otras más, las garantías con las que hay que proteger a los derechos frente a ella.

–¿Llegamos tarde a regular?

–La tortuga jurídica es muchísimo más lenta que la liebre tecnológica, pero la solución no está, como sugieren quienes dirigen las grandes compañías de IA, en el autocontrol o en meras recomendaciones éticas, sino en dar respuestas jurídicas a una serie de preguntas. ¿Cómo podemos construir un mundo con IA y dispositivos "autónomos" interconectados que sea seguro y cómo podemos estimar los riesgos involucrados? ¿Quién es responsable de resultados no deseados y en qué sentido es responsable? ¿Cómo se deben rediseñar nuestras instituciones y leyes para que estén al servicio del bienestar de las personas y la sociedad? ¿Cómo evitar que, a través del aprendizaje automático, los datos masivos y las ciencias del comportamiento se manipule la toma de decisiones según fines comerciales o políticos?

–¿Canadá puede ser un buen ejemplo de cómo regular la inteligencia artificial?

–Sí, en España contamos con una Carta de Derechos Digitales, pero sin valor jurídico. Canadá aprobó una ley, obviamente mejorable, que ya establece como regla, el deber de hacer público cualquier código fuente que tenga el Gobierno y contempla medidas preventivas y de control. Por una parte, antes de poner en marcha un sistema automatizado se deben desarrollar procesos para detectar sesgos en los datos y otros factores que puedan afectar injustamente a los resultados. Por otra parte, se deben desarrollar procesos para verificar el cumplimiento de la legislación reguladora. Finalmente, el sistema automatizado de toma de decisiones permite la intervención humana cuando sea necesaria y se proporcionan a los usuarios todas las opciones de recurso disponibles para impugnar la toma de decisiones administrativas automatizadas.

–Ya hay aplicaciones que escriben textos como si fuesen una persona. El caso del ChatGTP. ¿Un avance, pero a la vez un problema?

–A mi me parece un gran avance contar con un traductor de idiomas tan potente como el que ofrece ese chat, pero hay muchos más dispositivos, como los llamados robots sociales, que ya se emplean con fines terapéuticos en menores o en personas con problemas cognitivos. Desde luego su uso y su posible generalización plantean importantes retos, como el elevado riesgo de intromisión en la vida privada y el control de los datos que se obtienen o que sus eventuales beneficios queden reservados a quienes puedan pagarlos. En todo caso, los problemas de aislamiento o la desigualdad social y económica no han nacido con la IA; lo relevante es si con ella se incrementan o se mitigan.

–Usted y otros investigadores pondrán el foco en las amenazas de la inteligencia artificial en un centro de estudios que se creará en Lugones.

–El objetivo es llevar a cabo un tratamiento interdisciplinar del impacto de la IA en nuestra sociedad y para ello trabajaremos no de manera paralela, algo que viene ocurriendo con frecuencia, sino mediante la cooperación orientada a ese fin entre profesorado e investigadores de diferentes ámbitos del conocimiento. Tanto de la Universidad de Oviedo como de otras universidades e instituciones. A partir de ahí, se organizarán actividades formativas hacia dentro y hacia fuera de la Universidad, se desarrollarán proyectos y estudios, se ofrecerá asesoramiento a personas e instituciones públicas y privadas en sus actuaciones relacionadas con la inteligencia artificial...

En defensa de "más autonomía local": la voz unánime de los 78 alcaldes asturianos
La comunicación, los servicios y la oferta cultural, bazas para la recuperación de Mieres

Adecuación de equipamientos y vías públicas, prioridades en Grado

Adecuación de equipamientos y vías públicas, prioridades en Grado
"Vamos a la descarbonización y digitalización del ciclo del agua"

Villaviciosa, en la buena senda

Villaviciosa, en la buena senda

Salas encuentra su norte industrial

Salas encuentra su norte industrial

"Queremos situar a Asturias como líder en bioenergía verde"

"Queremos situar a Asturias como líder en bioenergía verde"

Obras consensuadas con los municipios

Obras consensuadas con los municipios