Stephen Wolfram sobre el futuro de la inteligencia artificial – 7 minutos
Interview.jpg
Joanna Andreasson/DALL-E4

Stephen Wolfram, estrictamente hablando, abandonó la escuela secundaria y la universidad: abandonó Eton y Oxford temprano, alegando aburrimiento. A los 20 años, recibió su doctorado en física teórica de Caltech y luego se unió a la facultad en 1979. Pero finalmente se alejó de la academia y se centró en la construcción de una serie de herramientas de investigación populares, poderosas y a menudo homónimas: Mathematica, WolframAlpha y el lenguaje Wolfram. Publicó por su cuenta una obra de 1.200 páginas llamada Un nuevo tipo de ciencia argumentando que la naturaleza se rige por reglas computacionales ultrasimples. El libro gozó de una sorprendente aclamación popular.

El trabajo de Wolfram sobre el pensamiento computacional constituye la base de los asistentes inteligentes, como Siri. En una conversación de abril con RazónKatherine Mangu-Ward, ofreció una evaluación sincera de lo que espera y teme de la inteligencia artificial y la complicada relación entre los humanos y su tecnología.

Razón: ¿Estamos demasiado asustados por el auge de la IA o no lo suficiente?

Wolfram: Depende de quiénes seamos «nosotros». Interactúo con mucha gente y van desde personas que están convencidas de que las IA nos van a comer a todos hasta personas que dicen que las IA son realmente estúpidas y no podrán hacer nada interesante. Es un rango bastante amplio.

A lo largo de la historia de la humanidad, lo único que ha cambiado progresivamente es el desarrollo de la tecnología. Y la tecnología a menudo consiste en automatizar cosas que antes teníamos que hacer nosotros mismos. Creo que lo mejor que ha hecho la tecnología es proporcionar esta plataforma cada vez más alta de lo que podemos hacer. Y creo que el momento de la IA en el que nos encontramos ahora es uno en el que esa plataforma acaba de mejorar un poco.

Recientemente escribiste un ensayo en el que preguntabas: «¿Puede la IA resolver la ciencia?» ¿Qué significa resolver la ciencia?

Una de las cosas que esperamos es que la ciencia prediga lo que sucederá. Entonces, ¿puede la IA avanzar y descubrir qué sucederá, o estamos estancados en este cálculo irreductible que debe realizarse en el que no podemos esperar avanzar y predecir lo que sucederá?

La IA, tal como se concibe actualmente, normalmente significa Redes neuronales que han sido entrenados a partir de datos sobre lo que hacen los humanos. Entonces la idea es tomar esos ejemplos de entrenamiento y extrapolarlos de una manera similar a la forma en que los humanos extrapolarían.

Ahora, ¿puedes recurrir a la ciencia y decir: «Predice lo que sucederá a continuación, del mismo modo que puedes predecir cuál debería ser la siguiente palabra en un texto»? Y la respuesta es, bueno, no, en realidad no.

Una de las cosas que hemos aprendido de los grandes modelos de lenguaje [LLMs] es que el lenguaje es más fácil de predecir de lo que pensábamos. Los problemas científicos chocan directamente con este fenómeno que llamo irreductibilidad computacional: para saber qué va a pasar, hay que ejecutar las reglas explícitamente.

El lenguaje es algo que los humanos hemos creado y utilizamos. Algo sobre el mundo físico nos acaba de entregar eso. No es algo que inventamos los humanos. Y resulta que las redes neuronales funcionan bien en cosas que inventamos los humanos. No funcionan muy bien en cosas que simplemente llegan del mundo exterior.

Probablemente la razón por la que funcionan bien en cosas que los humanos inventamos es que su estructura y funcionamiento reales son similares a la estructura y funcionamiento de nuestro cerebro. Es pedirle a algo parecido a un cerebro que haga cosas parecidas a un cerebro. Así que sí, funciona, pero no hay garantía de que cosas parecidas a un cerebro puedan comprender el mundo natural.

Eso suena muy simple, muy directo. Y esa explicación no va a impedir que disciplinas enteras se lancen contra ese muro por un tiempo. Parece que esto va a empeorar la crisis de la investigación científica antes de mejorar. ¿Es eso demasiado pesimista?

Solía ​​darse el caso de que si veías un documento grande y largo, sabías que había que esforzarte para producirlo. De repente ese no fue el caso. Podrían simplemente haber presionado un botón y conseguir una máquina para generar esas palabras.

Entonces, ¿qué significa realizar un trabajo académico válido? Mi propia opinión es que lo que más se puede construir es algo que esté formalizado.

Por ejemplo, las matemáticas proporcionan un área formalizada en la que se describe algo con definiciones precisas. Se convierte en un ladrillo sobre el que la gente puede esperar construir.

Si escribes un artículo académico, son solo un montón de palabras. ¿Quién sabe si allí habrá algún ladrillo sobre el que la gente pueda construir?

En el pasado, no teníamos forma de ver a un estudiante resolviendo un problema y decir: «Oye, aquí es donde te equivocaste», excepto que un humano hiciera eso. Los LLM parecen ser capaces de hacer algo de eso. Ésa es una interesante inversión del problema. Sí, puedes generar estas cosas con un LLM, pero también puedes hacer que un LLM comprenda lo que estaba sucediendo.

De hecho, estamos intentando crear un tutor de IA, un sistema que pueda realizar tutorías personalizadas mediante LLM. Es un problema difícil. Las primeras cosas que intentas funcionan para la demostración de dos minutos y luego fracasan horriblemente. En realidad es bastante difícil.

Lo que se hace posible es que puedas tener la [LLM] Plantee cada problema matemático en términos de lo que le interesa en particular (cocina, jardinería o béisbol), lo cual es bueno. Es una especie de nuevo nivel de interfaz humana.

Así que creo que es una parte positiva de lo que se hace posible. Pero lo clave que hay que entender es la idea de que un ensayo significa que alguien comprometido a escribir un ensayo ya no existe.

Tendremos que dejarlo pasar.

Bien. Creo que lo que hay que tener en cuenta acerca de las IA para el lenguaje es que lo que proporcionan es una especie de interfaz de usuario lingüística. Un caso de uso típico podría ser que esté intentando escribir algún informe para alguna presentación regulatoria. Tienes cinco puntos que quieres resaltar, pero necesitas presentar un documento.

Entonces haces esos cinco puntos. Lo envías al LLM. El LLM publica todo este documento. Lo envía. La agencia que lo está leyendo tiene su propio LLM y le preguntan a su LLM: «Descubra las dos cosas que queremos saber de esta gran presentación regulatoria». Y lo condensa en eso.

Básicamente, lo que sucedió es que usaste el lenguaje natural como una especie de capa de transporte que te permite conectar un sistema con otro.

Tengo este deseo profundamente libertario de decir: «¿Podríamos saltarnos la elaborada presentación regulatoria y ellos podrían simplemente decirle las cinco cosas directamente a los reguladores?»

Bueno, también es conveniente que tengas estos dos sistemas que son muy diferentes y tratan de comunicarse entre sí. Hacer que esas cosas coincidan es difícil, pero si tienes esta capa de cosas esponjosas en el medio, que es nuestro lenguaje natural, en realidad es más fácil lograr que estos sistemas se comuniquen entre sí.

He estado señalando que tal vez hace 400 años fue una especie de apogeo de la filosofía política y la gente inventaba ideas sobre la democracia y todo ese tipo de cosas. Y creo que ahora existe la necesidad y la oportunidad de repetir ese tipo de pensamiento, porque el mundo ha cambiado.

Mientras pensamos en las IA que terminan teniendo responsabilidades en el mundo, ¿cómo lidiamos con eso? Creo que es un momento interesante en el que deberíamos pensar mucho sobre esto. Se piensa mucho menos de lo que creo que debería haber.

Un experimento mental interesante es lo que podríamos llamar el modelo de gobierno de prompocracia. Un enfoque es que todos escriban un pequeño ensayo sobre cómo quieren que sea el mundo, y usted introduce todos esos ensayos en una IA. Luego, cada vez que quieras tomar una decisión, simplemente le preguntas a la IA basándose en todos estos ensayos que leíste de todas estas personas: «¿Qué debemos hacer?».

Una cosa que hay que tener en cuenta es que, en cierto sentido, el funcionamiento del gobierno es un intento de crear algo parecido a una máquina. Y en cierto sentido, se coloca una IA en lugar de una máquina operada por humanos, sin estar seguro de qué tan diferente es en realidad, pero existen otras posibilidades.

El robot tutor y la máquina del gobierno parecen sacados de las historias de Isaac Asimov de mi juventud. Esto suena a la vez tentador y muy peligroso cuando se piensa en cómo la gente tiene una forma de incorporar su equipaje a la tecnología. ¿Hay alguna forma de solucionarlo?

El punto a tener en cuenta es que la tecnología en sí no tiene nada. Lo que estamos haciendo con la IA es una especie de versión amplificada de lo que tenemos los humanos.

Lo que hay que tener en cuenta es que el sistema computacional en bruto puede hacer muchas, muchas cosas, la mayoría de las cuales a los humanos no nos importan. Entonces, cuando intentamos acorralarlo para que haga cosas que nos importan, necesariamente lo estamos empujando en direcciones humanas.

¿Cuál cree que es el papel de la competencia a la hora de resolver algunas de estas preocupaciones? ¿La competencia dentro de la IA frena alguna preocupación ética, tal vez del mismo modo que la competencia en un mercado podría limitar el comportamiento de alguna manera?

Interesante pregunta. Creo que la sociedad de las IA es más estable que la IA que las gobierna a todas. En un nivel superficial, evita que sucedan ciertos tipos de cosas totalmente locas, pero la razón por la que hay muchos LLM es porque una vez que sabes que ChatGPT es posible, no resulta tan difícil en algún nivel. Se ve a muchas empresas y países dando un paso al frente y diciendo: «Gastaremos el dinero. Construiremos algo como esto». Es interesante cómo se verá la curva de mejora a partir de ahora. Mi propia suposición es que va por pasos.

¿Cómo vamos a arruinar esto? Y con «nosotros» me refiero a personas con poder, tal vez simplemente tendencias humanas generales, y con «esto» me refiero a hacer un uso productivo de la IA.

Lo primero que hay que tener en cuenta es que las IA sugerirán todo tipo de cosas que uno podría hacer, del mismo modo que un GPS da instrucciones sobre lo que uno podría hacer. Y mucha gente simplemente seguirá esas sugerencias. Pero una de las características que tiene es que no se puede predecir todo acerca de lo que hará. Y a veces hará cosas que no son las que pensábamos que queríamos.

La alternativa es atarlo hasta el punto en que sólo hará las cosas que queremos que haga y sólo hará las cosas que podemos predecir que hará. Y eso significará que no podrá hacer mucho.

Podría decirse que ya hacemos lo mismo con los seres humanos, ¿verdad? Tenemos muchas reglas sobre lo que no permitimos que la gente haga y, a veces, probablemente suprimimos una posible innovación por parte de esa gente.

Sí, eso es verdad. Sucede en la ciencia. Es una situación de «ten cuidado con lo que deseas» porque dices: «Quiero que mucha gente haga este tipo de ciencia porque es realmente interesante y se pueden descubrir cosas». Pero tan pronto como mucha gente lo hace, termina adquiriendo esta estructura institucional que dificulta que sucedan cosas nuevas.

¿Hay alguna manera de cortocircuitar eso? ¿O deberíamos incluso querer hacerlo?

No sé. He pensado en esto para la ciencia básica durante mucho tiempo. Las personas individuales pueden proponer ideas originales. Cuando se institucionaliza, eso es mucho más difícil. Dicho esto: a medida que se construye la infraestructura del mundo, que involucra a un gran número de personas, de repente llegas a este punto en el que puedes ver algo nuevo y creativo que hacer, y no podrías llegar allí si fuera solo uno. persona que se esfuerza durante décadas. Necesitas ese esfuerzo colectivo para levantar toda la plataforma.

Esta entrevista ha sido condensada y editada para brindar estilo y claridad.

Este artículo apareció originalmente impreso bajo el título «La poderosa imprevisibilidad de la IA».