‘Constituição para robôs’: como empresas usam IA para evitar vieses antidemocráticos e preconceituosos em bots

Um dos desafios no desenvolvimento da inteligência artificial é entender como evitar que as chamadas ‘alucinações’ virem vícios incorrigíveis

Ao centro, em destaque, Daniela Amodei, fundadora da Anthropic, acompanhada por Ricardo Guerra, CIO do Itaú (direita), Vasi Philomin (centro), VP da AWS, e Julia de Luca, do Itaú BBA (esquerda). Foto: Divulgação: Itaú Unibanco
Ao centro, em destaque, Daniela Amodei, fundadora da Anthropic, acompanhada por Ricardo Guerra, CIO do Itaú (direita), Vasi Philomin (centro), VP da AWS, e Julia de Luca, do Itaú BBA (esquerda). Foto: Divulgação: Itaú Unibanco

A ficção é profícua em cenários distópicos relacionados ao uso da inteligência artificial. Especialistas no estudo e desenvolvimento dessa tecnologia não negam que o uso da IA pode ser danoso, embora seus ganhos sejam mais evidentes. Para domar os riscos sem acabar com a inovação, a saída pode ser algo como uma constituição para robôs.

Durante o Itaú BBA Macro Vision desta segunda-feira (14), executivos do Itaú, da Amazon Web Servicer (AWS) e da Anthropic falaram sobre potenciais e riscos dessa tecnologia.

Inscreva-se e receba agora mesmo nossa Planilha de Controle Financeiro gratuita

Com a inscrição você concorda com os Termos de Uso e Política de Privacidade e passa a receber nossas newsletters gratuitamente

Nos últimos anos, as empresas donas de redes sociais como TikTok e Instagram tiveram que explicar porque seus algoritmos, munidos de IA, davam preferência a determinados corpos e rostos em detrimento de outros.

Além disso, há suspeitas de predileção dos sistemas inteligentes por discursos violentos em detrimento dos mais democráticos por conta do aumento do engajamento.

Últimas em Economia

Nesse sentido, um dos desafios de quem quer se beneficiar da inteligência artificial de maneira ética é entender os mecanismos capazes de evitar que as chamadas ‘alucinações’ virem vícios incorrigíveis.

IA constitucional como arcabouço moral para bots

Uma dessas soluções é a chamada IA constitucional, que está sendo implementada pela Anthropic, startup americana referência na implementação de inteligência artificial, como modelo ético para robôs desenvolvidos e treinados pela empresa para grandes corporações.

“A IA constitucional é a ideia de dar aos modelos uma proteção com as obrigações que as pessoas precisam seguir. Eu trabalho com pessoas na Anthropic que inventaram essa ideia”, disse Daniela Amodei, fundadora da Anthropic, durante painel do Itaú BBA Macro Vision.

Assim, a proposta é que as decisões automatizadas tenham não apenas a eficiência como parâmetro, mas também um arcabouço moral aceito mundialmente, testado ao longo do tempo por diferentes civilizações.

Segundo a executiva, a empresa utiliza ao menos 14 documentos que foram escritos por pessoas de diferentes partes do mundo sobre como agir de forma ética. “A Declaração dos Direitos Humanos está entre eles”, mencionou a executiva.

Eficiência via IA no setor financeiro

As tecnologias de IA avançaram ao reproduzir princípios básicos da comunicação humana. Com isso, foi possível, por exemplo, localizar informações essenciais em bancos de dados vastos.

Hoje, a IA generativa é capaz de desenvolver conteúdos por meio de direcionamentos assertivos dados por um ser humano para máquinas bem treinadas.

No Itaú BBA, a IA foi utilizada inicialmente nos chatbots de atendimento. O uso para essa finalidade permanece, mas a tecnologia ganhou novos horizontes dentro do banco.

“Geramos [via IA generativa] mais de 1 milhão de linhas de código com uma força de trabalho de 8 mil pessoas. Com isso, analisamos mais de 70 mil documentos por mês”, detalhou durante o evento o CIO do Itaú, Ricardo Guerra.

Ainda no setor financeiro, a IA tem ajudado a Nasdaq a investigar crimes financeiros. “Eles [funcionários da Nasdaq munidos da tecnologia] observam os casos e são capazes de combater fraudes com cerca de 33% de eficiência”, detalhou Vasi Philomin, vice-presidente da Inteligência Artificial Generativa da AWS, que fornece a tecnologia para a Nasdaq.

Outros cases de destaque

Além do setor financeiro, outro bastante avançado na aplicação das IA generativas é o de saúde, segundo Philomin.

O executivo contou, durante o Itaú BBA Micro Vison, que a Pfizer, uma das grandes clientes da AWS, tem cerca de 19 mil projetos em IA generativa que podem render à farmacêutica uma economia de US$ 750 milhões com corte de custos em diferentes atividades, automatizando várias delas e aumentando a eficiência de áreas estratégicas, como de Pesquisa e Desenvolvimento (P&D).

Assim, o executivo garantiu que nove das dez maiores farmacêuticas do mundo utilizam IA e machine learning da AWS para diferentes finalidades.

“Muitas empresas estão estudando doenças e desenvolvendo medicamentos [como o uso da IA da AWS]. Além disso, há muitos documentos que essas empresas estudam, [de pesquisas] que não funcionaram no passado. Agora, essas empresas querem acessar novamente para testar novas soluções e se moverem rapidamente para ideias que permitam resolver problemas”, explicou Philomin.

Além do desenvolvimento de medicamentos, a saúde também se beneficia na ponta. Durante o atendimento em clínicas e hospitais, “médicos e enfermeiros passam muito tempo avaliando ou escrevendo relatórios e gastando tempo de atendimento”, destacou o VP da AWS.

“Então, usamos IA para automatizar esses fluxos de trabalho, como transcrever consultas, que automaticamente se transformam em prontuário”, exemplificou.

Com isso, operadoras de planos de saúde são beneficiadas. Isso porque essas empresas “lidam com regulação há décadas e, por isso, entendem como lidar com os dados. Esses dados estão bem armazenados, não estão em silos, e a governança dessas empresas costuma ser muito clara. Com isso, a IA generativa tem ajudado a serem muito efetivas”, acrescentou Philomin.  

IA constitucional deve acompanhar regulação

O executivo da AWS alertou sobre os desafios relacionados à regulação para que os potenciais técnicos da IA não avancem sem freios e contrapesos necessários. Um dos riscos é a falta de um arcabouço legal global e uniforme que seja claro nas determinações éticas.

“Não gostaria que diferentes governos tenham diferentes regulações que tiraram cada um de seus próprias cabeças. Isso tende a criar um ambiente de difícil implementação”, disse.

“Passamos muitos tempos com reguladores para encontrar essa linha tênue entre inovação e mitigação de risco”, acrescentou.

Daniela, da Anthropic, também tem articulado junto a autoridades a construção de um arcabouço legal e ético para desenvolvimento da IA. “Nos vemos como parceiros dos legisladores e da sociedade civil na missão de desenvolver e regular de forma inteligente a IA para que não haja danos às pessoas”, disse.

Por fim, ela complementa dizendo que “há um interesse genuíno” das autoridades de diversos países “em tentar entender a tecnologia”. Contudo, ela destaca que nem os mais conceituados especialistas no assunto têm opinião uniforme sobre os riscos que podem emergir, o que pode dificultar a construção de soluções universais e eficientes.

“Por isso, a gente precisa ser proativo e temos atuado como parceiros para tentar prevenir que coisas ruins emerjam dessas tecnologias, assim como as que surgiram das redes sociais”, arrematou.

A Inteligência Financeira é um canal jornalístico e este conteúdo não deve ser interpretado como uma recomendação de compra ou venda de investimentos. Antes de investir, verifique seu perfil de investidor, seus objetivos e mantenha-se sempre bem informado.


Últimas notícias

VER MAIS NOTÍCIAS