O Demônio de Laplace e a inteligência artificial

Por Carlos Valentim, pós-doutorando da Faculdade de Zootecnia e Engenharia de Alimentos (FZEA) da USP, José Rabi e Sérgio David, professores da FZEA-USP

 Publicado: 16/05/2024
Carlos Valentim – Foto: LinkedIn
José Rabi – Foto: FZEA/USP
Sérgio David – Foto: FZEA/USP
O eminente físico, matemático e astrônomo francês Pierre-Simon Laplace (1749-1827), em sua defesa do determinismo, propôs uma hipotética e vasta “inteligência” que, mais tarde, foi denominada Demônio de Laplace. Do original grego (daimon), deve ser entendida como uma (semi)divindade, não necessariamente maligna.

A referida “inteligência”, em determinado instante, conheceria todas as forças e as posições de todos os corpos da natureza e seria ampla – e rápida – o suficiente para analisar – e processar – tais dados. Resolveria, com precisão, as equações de Newton do movimento para todos esses corpos em escalas macro e micro; para ela, nada seria incerto, e tanto o futuro (o que acontecerá com tudo depois daquele instante) como o passado (como tudo culminou até aquele instante) estariam evidentes a seus olhos e conhecidos com absoluta certeza.

Quatro propriedades permitiriam o “funcionamento” do Demônio de Laplace:

  1. conhecer com perfeição e acurácia o estado de todo o Universo em determinado instante de tempo;
  2. conhecer exatamente todas as leis que regem o Universo;
  3. ser capaz de realizar o cálculo mais complexo em diminuto intervalo de tempo;
  4. atuar sem provocar nenhuma perturbação no Universo.

No paradigma Newtoniano-Laplaciano, não há espaço no Universo para o livre arbítrio, a teleologia ou qualquer outra coisa do gênero; não existe nada além de fiéis componentes – micro e macro – obedecendo a equações diferenciais que os regem por toda a eternidade.

Saltando para o século 20, as revelações na Física, na Matemática e nas Ciências da Computação – entre outras – perturbam (ou exorcizam) esta visão. O avançar do conhecimento permitiu que novos – e bons – argumentos fossem lançados.

Mesmo partindo da suposição de que o Demônio de Laplace conheça todas as forças e as posições de todos os corpos do Universo, caso tal conhecimento ocorra com precisão finita (em vez de infinita), esta imprecisão inicial afetará sua capacidade de prever o futuro (ou retrodizer o passado). Isso porque os sistemas determinísticos, para além de uma escala de tempo estabelecida pelo expoente (máximo) de Lyapunov, exibem caos, e o Demônio de Laplace não poderá confiar em suas projeções para aquém de um passado recente ou para além de um futuro próximo.

Ao considerarmos o Universo mecânico quântico e assumirmos que dele faz parte o próprio Demônio de Laplace, se este último resolver a equação de Schrödinger para prever o estado do Universo em algum momento futuro, ele não poderá verificar sua previsão como correta sem fazer uma medição. Porém, este ato perturba a função de onda de tal forma que sua previsão deixará de ser precisa.

Seria o poderoso Demônio de Laplace capaz de prever nossas ações antes que aconteçam?

Em mais um salto, agora para o atual século 21, testemunha-se não apenas a consolidação, mas também a expansão da inteligência artificial (IA) e, com ela, uma nova gold rush. Uma rápida busca na internet é capaz de recuperar centenas de milhares de resultados com o jargão “data is the new gold“. E as ferramentas das Ciências de Dados têm proporcionado vários “mapas das minas”.

Com aplicações nas mais diferentes áreas, a IA tem penetrado nas variadas competências e tem-se mostrado capaz de realizar tarefas antes essencialmente humanas, subsidiando decisões e direcionando rumos com espantosa rapidez e habilidade. Surge aqui a pergunta: estaria a IA desafiando o Demônio de Laplace? (Para fãs da franquia Matrix, talvez a indagação seja outra…).

Sem a vã pretensão de arriscar uma resposta, convém lembrar que tudo (e agora incluindo a IA) faz parte da natureza; em outras palavras, não se trata de coisas “sobrenaturais”. E, junto com suas leis, a natureza pode ter lá suas “pegadinhas”.

Inspirado no físico alemão Albert Einstein, a quem se atribui a frase “Deus não joga dados com o Universo”, em defesa de que aleatoriedade não reside na essência das coisas (naturais), um gedankenexperiment poderia supor que a atual Ciência de Dados fosse contemporânea ao físico e engenheiro alemão Wilhelm Röntgen – descobridor dos raios X. Se o espectro mais suave da radiação de desaceleração (termo original: bremsstrahlung) a baixas energias fosse tomado como referência e Röntgen (ou alguém em sua equipe) aplicasse estratégias e ferramentas da Ciência de Dados para igualmente analisar os espectros a energias mais elevadas, qual seria o risco de que os picos K-alfa e K-beta de radiação característica fossem tratados como outliers e, inadvertidamente, ignorados?

Possivelmente, anos mais tarde, o físico e filósofo dinamarquês Niels Bohr ficaria sem seu Prêmio Nobel de Física em 1922. Na nova “corrida do ouro” cabe, pois, postular: if data is the new gold, then first-principles modeling is the best pickaxe.

O exemplo anterior pode ser alvo de críticas por estar relacionado a um fenômeno físico que, talvez por isso, seja “imune” às investidas da IA. Será mesmo? Se “a Física é uma ciência voltada ao estudo dos fenômenos naturais”, demais outliers – alvos da Ciência de Dados – são então “fenômenos sobrenaturais”?

Com isso, o Demônio de Laplace deve estar rindo por ter muito menos com o que se preocupar… Não obstante, vale pontuar que o próprio matemático e cientista da computação britânico Alan Turing (considerado ideólogo e “pai” da inteligência artificial), quando ainda teorizava sobre os sistemas digitais, já defendia a visão de que uma vasta maioria dos problemas no mundo natural não são “computáveis”.

Dito de outro modo, não é possível escrever uma fórmula matemática – ou um conjunto delas – capaz de representar tais problemas, o que implica em não conseguir escrever um algoritmo para descrevê-los e, consequentemente, em não ser possível fazer com que um sistema computacional os reproduza (resolva).

Diante disso e no que tange à atual e onipresente possibilidade de confrontação entre a “inteligência artificial” e sua potencial capacidade de superar a mente humana, vale reforçar que, como humanos, somos complexos, vulneráveis ao caos e muito difíceis de sermos experimentados. Assim, tal como alertou Turing desde os primórdios da IA, possivelmente (provavelmente?) somos “incomputáveis” (“improcessáveis”?).

Nesse sentido, nada estaria determinado e, tal como defendia o físico alemão Werner Heisenberg (uma das figuras científicas mais aclamadas do mundo), Laplace havia interpretado erroneamente o Universo como predestinado a evoluir de maneira específica e desafiou seu Demônio, argumentando que o livre arbítrio ainda existia.

Similarmente, para uma dita “inteligência” artificial cujas ações futuras não são completamente claras, poder-se-ia igualmente considerar a possibilidade de livre arbítrio? Parece-nos que, se não existe nenhuma experiência ou cálculo que possa determinar suas ações durante o nosso tempo de vida, mesmo em princípio, como é possível afirmar o contrário?

“Cá com nossos botões de carne e osso”, convidamos a ouvir Cérebro eletrônico (1969) do cantor e compositor baiano Gilberto Gil.

________________
(As opiniões expressas nos artigos publicados no Jornal da USP são de inteira responsabilidade de seus autores e não refletem opiniões do veículo nem posições institucionais da Universidade de São Paulo. Acesse aqui nossos parâmetros editoriais para artigos de opinião.)

 


Política de uso 
A reprodução de matérias e fotografias é livre mediante a citação do Jornal da USP e do autor. No caso dos arquivos de áudio, deverão constar dos créditos a Rádio USP e, em sendo explicitados, os autores. Para uso de arquivos de vídeo, esses créditos deverão mencionar a TV USP e, caso estejam explicitados, os autores. Fotos devem ser creditadas como USP Imagens e o nome do fotógrafo.