A Inteligência Artificial possui Inteligência Financeira?

O Caso do ChatGPT com Daniel Kahneman, o vencedor do Prêmio Nobel de Economia em 2002
Pontos-chave:
  • Daniel Kahneman e seu parceiro de pesquisa, Amos Tversky, identificaram diversos vieses comportamentais que “iludem” a racionalidade dos seres humanos e os levam a tomar decisões financeiras piores
  • Uma vez que os vieses estariam ligados a forma como a mente humana funciona, seria de se esperar que uma inteligência artificial, baseada em algoritmos e não em emoções, não sofresse com esses erros
  • Contudo, aparentemente, o ChatGPT também sofre com esses vieses como identificou o professor Ole Peters do London Mathematical Laboratory, ou seja, a inteligência artificial não seria necessariamente melhor que os humanos nas tomadas de decisões financeiras

Daniel Kahneman nos deixou recentemente, mas seu legado está mais vivo do que nunca, mesmo no mundo da inteligência artificial. Diversas foram as suas contribuições para a ciência, mas um dos pontos centrais delas foi a demonstração que os seres humanos são péssimos estatísticos e matemáticos intuitivos.

Nossa mente não foi talhada evolutivamente para computar estatísticas e cálculos complexos de forma intuitiva, isso demanda grande esforço cognitivo e treino para criar disciplina mental. Nosso processo mental prefere sempre uma história, uma narrativa a números e estatísticas.

Os vieses de Kahneman e Tversky

Ao longo de décadas de pesquisas Kahneman e Tversky comprovaram isso. Um exemplo simples é quando acontece um acidente aéreo, com vítimas fatais, muitas pessoas passam temporariamente a ficar com medo (ou aumentam o seu medo já existente) de viajar de avião. Mas estatisticamente nada mudou com o acidente, certo?

A probabilidade de seu avião cair continua baixíssima, a mesma de antes. Continua sendo estatisticamente o meio mais seguro de se viajar (na verdade só perde para o elevador, se você considerar isso uma viagem). É muito mais seguro que viajar de automóvel, por exemplo.

O que ocorre é que a “história”, a “narrativa”, criada com as notícias do acidente recente com o avião se sobrepõe aos números e estatísticas e dão a nossa mente uma percepção distorcida das probabilidades. Tanto que conforme o tempo passa, esse efeito diminui, as pessoas “esquecem” ou reduzem esse medo temporário pela distância da narrativa na imprensa.

Existem diversos tipos de vieses, para diferentes situações, fartamente catalogados por Kahneman e Tversky. Um dos mais famosos é conhecido como o “problema de Linda”.

O Problema de Linda

O problema de Linda, ou tecnicamente, o viés da conjunção, é um caso hipotético desenvolvido por Kahneman como forma de explicar um recorrente erro lógico-racional específico no raciocínio humano. A pesquisa consiste em aplicar um questionário com a seguinte pergunta:

“Linda tem 31 anos, é solteira, falante e muito inteligente. Ela se formou em filosofia. Quando era estudante, ela se preocupava profundamente com questões de discriminação e justiça social e também participava de protestos antinucleares.

O que é mais provável?

a) Linda trabalha como caixa de banco.

b) Linda trabalha como caixa de banco e participa do movimento feminista.”

Qual é a alternativa correta?

O que você responderia? Alternativa A ou B?

Caso você seja como a maioria das pessoas (algo como 80% a 85% nas pesquisas) a resposta seria B. Essa resposta é logicamente incorreta.

Se você ler com calma o enunciado e pensar em termos estritamente lógicos a resposta é simples: nem toda pessoa que trabalha como caixa de banco participa do movimento feminista, certo? Logo, logicamente, o número de pessoas na alternativa B é menor que na A. Portanto, obrigatoriamente, A é mais provável que B.

De acordo com a explicação de Kahneman e Tversky, isso acontece devido a narrativa criada no enunciado sobre Linda que acaba guiando a cabeça do leitor a uma representação muito específica da personagem, ou seja, a narrativa supera os princípios estatísticos, como no caso do medo de voar aumentado quando há acidentes aéreos com vítimas fatais.

Como o problema é a forma como os humanos pensam, então, isto estaria resolvido com a Inteligência Artificial, totalmente baseada em lógica e algoritmos, certo?

O ChatGPT e os vieses comportamentais

Para testar isso, o professor Ole Peters, das prestigiosas London Mathematical Laboratory e Santa Fe Institute, resolveu submeter o enunciado da Linda ao ChatGPT. O resultado, para surpresa geral, foi que o ChatGPT respondeu como a maioria dos humanos a alternativa B, caindo também no viés comportamental.

Essa forma de IA trabalha com uma enormidade de parâmetros e algoritmos, assim ninguém sabe exatamente como ele aprende ou não, nem mesmo seus programadores. As evidências disponíveis indicam que como o ChatGPT aprende com base na experiência humana, seus resultados podem replicar e até mesmo amplificar os erros humanos, como parece ser o caso com a experiência do professor Peters.

Há relatos que ChatGPT, após a grande repercussão do caso, já evoluiu e incorporou a resposta correta A para esse enunciado da Linda. Mas não sabemos sobre os outros vieses ou mesmo sobre variações do problema de Linda.

Afinal a Inteligência Artificial possui Inteligência Financeira?

Este ainda é um tema para pesquisa e debate, mas aparentemente, a resposta é: “não necessariamente”. Como a IA aprende com os humanos, pode aprender errado, da mesma forma que esses.

Assim, pelo menos por enquanto, o investidor não deve confiar totalmente na IA para gerir seus investimentos. Essa ferramenta é ótima e muito útil, mas não substitui (pelo menos por enquanto) a necessidade de análise crítica do investidor, sob pena de erros graves.

Ela pode analisar e recomendar, mas a decisão final cabe apenas ao investidor. Essa atitude é Inteligência Financeira.