Por que cientistas temem futuro catastrófico causado pela inteligência artificial

A inteligência artificial tem o incrível poder de mudar a forma como vivemos, para o bem e para o mal — e os especialistas têm pouca confiança de que os que estão no poder estejam preparados para o que está por vir.

Em 2019, o grupo de pesquisa sem fins lucrativos OpenAI criou um software que era capaz de gerar parágrafos de texto coerente e fazer análise e compreensão rudimentar de textos sem instruções específicas.

Inicialmente, a OpenAI decidiu não tornar sua criação — chamada de GPT-2 — totalmente disponível para o público. O receio era que pessoas mal intencionadas pudessem usá-la para gerar grandes quantidades de desinformação e propaganda.

Em comunicado à imprensa anunciando a decisão, o grupo chamou o programa de “perigoso demais” na época.

Desde então, três anos se passaram, e a capacidade da inteligência artificial aumentou exponencialmente.

Em contraste com a última distribuição limitada, a nova versão, o GPT-3, foi disponibilizada prontamente em novembro de 2022.

A interface ChatGPT derivada dessa programação foi o serviço que gerou milhares de artigos de notícias e postagens de rede social, enquanto repórteres e especialistas testavam seus recursos — muitas vezes, com resultados impressionantes.

O ChatGPT escreveu roteiros de stand-up comedy no estilo do falecido humorista americano George Carlin sobre a falência do Silicon Valley Bank. Opinou sobre a teologia cristã, escreveu poesia e explicou física quântica para uma criança, como se fosse o rapper Snoop Dogg.

Outros modelos de inteligência artificial, como o Dall-E, produziram imagens tão convincentes que geraram polêmica sobre sua inclusão em sites de arte.

Pelo menos a olho nu, as máquinas aprenderam a ser criativas.

Em 14 de março, a OpenAI apresentou a última versão do seu programa, o GPT-4. O grupo afirma que ele apresenta limites mais sólidos contra usos abusivos. Os primeiros clientes incluem a Microsoft, o banco Merrill Lynch e o governo da Islândia.

E o tema mais quente na conferência interativa South by Southwest — uma reunião global de formuladores de políticas, investidores e executivos da área de tecnologia, realizada em Austin, no estado americano do Texas — foi o potencial e o poder dos programas de inteligência artificial.

‘Para o bem e para o mal’

Arati Prabhakar, diretora do Escritório de Política de Ciências e Tecnologia da Casa Branca, afirmou que está entusiasmada com as possibilidades da inteligência artificial, mas também fez um alerta.

“O que todos nós estamos vendo é o surgimento dessa tecnologia extremamente poderosa. É um ponto de inflexão”, declarou ela na conferência.

“Toda a história demonstra que esse tipo de tecnologia, nova e potente, pode e será usada para o bem e para o mal.”

Já Austin Carson, fundador da SeedAI, um grupo de consultoria sobre políticas de inteligência artificial, que participou do mesmo painel, foi um pouco mais direto.

“Se, em seis meses, vocês não tiverem perdido completamente a cabeça [e soltou um palavrão], pago um jantar”, disse ele ao público presente.

“Perder a cabeça” é uma forma de descrever o que pode vir a acontecer no futuro.

Amy Webb, chefe do instituto Future Today e professora de negócios da Universidade de Nova York, nos EUA, tentou prever as possíveis consequências. Segundo ela, a inteligência artificial pode seguir uma dentre duas direções nos próximos 10 anos.

Em um cenário otimista, o desenvolvimento da inteligência artificial vai se concentrar no bem comum, com um design de sistema transparente, e os indivíduos vão ter a capacidade de decidir se suas informações disponíveis ao público na internet serão incluídas na base de dados de conhecimento da inteligência artificial.

Nesta visão, a tecnologia serve como uma ferramenta que facilita a vida, tornando-a mais integrada, à medida que a inteligência artificial passa a estar disponível em produtos de consumo que podem antecipar as necessidades do usuário e ajudar a desempenhar virtualmente qualquer tarefa.

O outro cenário previsto por Webb é catastrófico. Envolve menos privacidade de dados, poder mais centralizado em poucas companhias, e a inteligência artificial antecipa as necessidades do usuário, mas as entende errado ou, no mínimo, reprime suas escolhas.

Ela acredita que o cenário otimista tem apenas 20% de chance de acontecer.

Webb afirma à BBC que o rumo que a tecnologia vai tomar depende, em grande parte, do grau de responsabilidade das empresas que vão desenvolvê-la. Será que elas vão fazer isso de forma transparente, revelando e fiscalizando as fontes das quais os chatbots — chamados pelos cientistas de Grandes Modelos de Linguagem (LLM, na sigla em inglês) — extraem suas informações?

O outro fator, segundo ela, é se o governo — incluindo os órgãos federais de regulamentação e o Congresso — pode agir rapidamente para estabelecer proteções legais para orientar os desenvolvimentos tecnológicos e evitar seu uso indevido.

Nesse sentido, a experiência dos governos com as empresas de redes sociais — Facebook, Twitter, Google e outras — é um indicativo. E não é uma experiência encorajadora.

“O que ouvi em muitas conversas foram preocupações de que não existe nenhuma barreira de proteção”, afirmou Melanie Subin, diretora-gerente do instituto Future Today, na conferência South by Southwest.

“Existe a sensação de que algo precisa ser feito.”

“E acho que as redes sociais, como uma lição, é o que fica na mente das pessoas quando elas observam a rapidez do desenvolvimento da inteligência artificial criativa”, acrescentou.

Fonte: BBC