Stuart Russell, professor de ciência da computação da Universidade da Califórnia em Berkeley e autor do livro "Inteligência Artificial a Nosso Favor", não é lá muito fã do ChatGPT.

Não porque ele vai tomar seu emprego em uma das universidades mais renomadas dos EUA ou porque vai destruir a sociedade como a conhecemos. É porque, ao contrário do que o entusiasmo em torno das IAs generativas faz parecer, ele não o considera muito inteligente.

"Ele faz coisas interessantes, mas parece que faltam grandes capacidades de raciocínio e planejamento, de refletir sobre suas próprias operações, sobre seu próprio conhecimento", disse, em entrevista por videoconferência à Folha de S.Paulo.

Stuart Russell, professor de ciência da computação da Universidade da Califórnia em Berkeley e autor do livro "Inteligência Artificial a Nosso Favor", não é lá muito fã do ChatGPT.

Não porque ele vai tomar seu emprego em uma das universidades mais renomadas dos EUA ou porque vai destruir a sociedade como a conhecemos. É porque, ao contrário do que o entusiasmo em torno das IAs generativas faz parecer, ele não o considera muito inteligente.

"Ele faz coisas interessantes, mas parece que faltam grandes capacidades de raciocínio e planejamento, de refletir sobre suas próprias operações, sobre seu próprio conhecimento", disse, em entrevista por videoconferência à Folha de S.Paulo.

Russell afirma que sua publicação, em março do ano passado, foi o que deixou o mundo mais atento sobre os perigos da IA.
O professor de Berkeley é um dos palestrantes do próximo ciclo de conferências Fronteiras do Pensamento. Ele dará palestras no Brasil nos dias 30 de abril, em Porto Alegre, e em 2 de maio, em São Paulo.

Pergunta - Há um ano, o sr. foi um dos signatários de uma carta que pediu uma pausa em pesquisas avançadas de IA por ao menos seis meses. O que mudou desde sua publicação?

Stuart Rusell - Mudou quase tudo. É interessante porque, quando a carta foi divulgada, muitas pessoas disseram que ninguém daria atenção. Mas, na verdade, nos seis meses seguintes, não foram anunciados sistemas mais poderosos do que o GPT 4 [versão mais avançada do motor que roda o ChatGPT]. E o mundo basicamente acordou.

Houve reuniões de emergência na Casa Branca e na ONU. A China anunciou uma regulação muito rígida para sistemas de IA. Geoffrey Hinton renunciou ao seu cargo no Google para expressar suas preocupações. O Reino Unido mudou completamente de posição. Se o ritmo de trabalho de pessoas da área é um sinal de progresso, então houve um enorme progresso no mundo, tanto na compreensão da questão quanto na disposição de lidar com ela.

P. - A OpenAI pode lançar o GPT 5 ainda neste ano, então talvez eles não concordem muito com a carta.
S. R. - Bem, a carta mencionava seis meses, e já se passou um ano. Mas eu acho que as empresas se sentem em uma corrida. Sob a lei atual, nada as impede de construir sistemas muito grandes. Na verdade, nada as impede de construir um sistema que destruirá o mundo.
Elas sentem que é melhor construir esse sistema antes que outra empresa o faça. E elas parecem reconhecer que há mesmo um risco de ser o fim do mundo. Mas, até agora, não parece ter passado pela cabeça delas simplesmente parar. Sam Altman já disse que vai construir a AGI e só depois descobrir como torná-la segura. Isso é loucura.

P. - A pesquisa em IA hoje parece estar concentrada nas big techs. A OpenAI é financiada pela Microsoft e concorre diretamente com o Google. Essa concentração nos estágios iniciais do setor não é prejudicial?

S. R. - Não sei se isso representa um mercado muito concentrado. Além das grandes empresas, existem algumas startups muito bem financiadas construindo sistemas concorrentes. O custo de entrada é significativo se você quiser que seu sistema se expanda e seja usado por milhões de pessoas, mas eu não acho que as barreiras sejam enormes. O que me preocupa é ver que a Microsoft está absorvendo uma dessas startups, a Inflection. Isso não é saudável.

P. - O ChatGPT foi lançado no momento certo, no final de 2022?

S. R. - Consigo entender o motivo econômico para terem feito isso. Eles sentiram que sairiam na frente das outras empresas. Isso teve o efeito de expor milhões de pessoas a um aperitivo do que seria se tivéssemos disponível uma IA de verdade.
Foi também um choque para o mundo. Possibilitou conversas com chefes de Estado e políticos sobre os riscos e o impacto da IA. Nesse sentido, eles fizeram um favor ao mundo.

Por outro lado, vimos muitas maneiras pelas quais o ChatGPT falha, dando respostas sem sentido, inventando coisas. Eu acho que eles viram a humanidade como milhões de cobaias de um produto.

Eu gostaria que as empresas se esforçassem para entender como seus sistemas funcionam e dissessem que são capazes de controlá-los, para garantir que não farão coisas inaceitáveis. Mas não estão fazendo isso. E acho que a única maneira de fazerem isso é regulando.

P. - Então o ChatGPT não é uma IA de verdade?

S. R. - Ele faz muitas coisas interessantes, mas parece que faltam grandes capacidades de raciocínio e planejamento, de refletir sobre suas próprias operações, sobre seu próprio conhecimento.

Se você olhar o AlphaGo, que venceu o campeão mundial de Go, ele não tem nada a ver com o ChatGPT. O AlphaGo é um sistema de IA muito clássico que raciocina sobre possíveis estados futuros do jogo. É um plano básico que remonta aos anos 1950.
Mas com o ChatGPT não temos ideia do que está acontecendo. Ele finge jogar xadrez e, muitas vezes, parece estar fazendo boas jogadas, mas, de repente, fará uma jogada que nem é permitida. E isso sugere que na verdade ele nunca esteve jogando xadrez. É uma miragem.

P. - O AlphaGo seria então mais inteligente, mesmo que o ChatGPT tenha sido treinado com terabytes de dados de toda a internet?
S. R. - Isso só ilustra a necessidade de ter essas outras formas de computação, além dessa na qual você apenas insere um input em uma rede para obter um output. O ChatGPT não consegue sentar e pensar em algo. Funciona como um circuito onde o sinal entra, passa e sai.
Será que conseguiríamos obter melhorias no ChatGPT de forma que ele seja capaz de raciocinar e planejar de forma confiável? Ou fazemos híbridos nos quais usamos o ChatGPT como apenas um componente? Ou será que precisamos de alguma concepção nova, que não tenha a ver com nenhum desses tipos?

P. - Como o sr. define a AGI?
S. R. - Em termos gerais, sistemas de IA que podem aprender rapidamente a executar, em nível humano ou super-humano, qualquer tarefa. Isso excederia as capacidades humanas em todas as dimensões.

P. - E esses tipos de IA como o ChatGPT estão próximos de uma AGI?
S. R. - Temos evidências de que esses grandes modelos transformadores estão aprendendo algo de interessante. Não estão apenas procurando frases semelhantes em seus bancos de dados e depois respondendo. É um circuito complexo.
Ao treiná-lo para prever a próxima palavra, você está forçando-o a desenvolver pelo menos algumas das estruturas internas que representam o mundo e algumas formas de raciocínio que não entendemos completamente.

O grande problema é que não temos a menor ideia do que está acontecendo dentro do GPT 4. E estão produzindo o GPT 5. A solução deles é aumentar e adicionar mais dados. Eu não acho que vai funcionar.

Quando eles chegarem ao GPT 5, terão usado praticamente todo o texto que existe no universo. Então não haverá mais dados de treinamento. E, se o sistema não mostrar uma melhoria nas suas capacidades, pode ser um sinal de que esse tipo de pesquisa atingiu um teto.
Não sei qual impacto isso terá nos investimentos, mas suponho que algumas pessoas ficarão decepcionadas e poderão parar de investir.

P. - Por que diz que não entendemos o que está por trás do GPT?

S. R. - As pessoas que o fizeram também não entendem. São trilhões de parâmetros. Entender o que está acontecendo por dentro é muito complexo para nós. Pode não ser compreensível, ele pode estar realizando processos estranhos ao pensamento humano.

P. - A chegada da AGI nos levará imediatamente a um cenário distópico, como uma Skynet de "O Exterminador do Futuro" assumindo o controle?

S. R. - A história da Skynet e de muitos outros filmes envolve a máquina se tornando consciente e depois decidindo que odeia a raça humana. Mas, naverdade, ninguém que trabalha com segurança da IA está preocupado com isso, porque não tem nada a ver com isso.

O que importa é se o sistema é competente. Se ele é bom em agir de forma a alcançar seus objetivos. Se você jogar contra o melhor programa de xadrez, no nível mais alto, você não terá chance alguma. E por que isso? Não é porque ele é consciente, é porque ele é melhor.

Pegue esse conceito e estenda para o mundo inteiro, supondo que o sistema seja simplesmente mais competente do que a raça humana em alcançar seus objetivos. E, então, se esses objetivos não estiverem alinhados com o que os humanos querem que o futuro seja, teremos um problema.
Como manter para sempre o poder sobre entidades que são mais poderosas do que nós mesmos? Essa é a pergunta que precisamos fazer.

P. - Estamos próximos de alcançá-la?

S. R. - Eu acho que estamos mais longe do que algumas pessoas acreditam. Alguns dos meus colegas muito renomados, como Geoffrey Hinton, que é um dos principais pioneiros nessa área, acredita que a alcançaremos em cinco anos. Eu acho que ainda precisamos de grandes descobertas.
E eu não acho que a AGI virá apenas tornando os sistemas maiores. Acho que precisamos de mais avanços conceituais, que têm acontecido rapidamente nos últimos anos. Então, não tenho certeza, mas acho que levará um pouco mais do que cinco anos.

P. - Podemos ser otimistas sobre o futuro da IA?

S. R. - Bem, há dois tipos de otimismo. Há o otimismo de que a IA gerará muito dinheiro, produzirá muitos lucros e resolverá muitos problemas importantes no mundo. E, então, há o otimismo de que continuaremos a existir como espécie.
Não tenho certeza se otimismo é a palavra certa, porque temos que decidir como vamos proceder. E, no momento, estamos agindo na direção errada.
Estamos construindo sistemas cada vez mais poderosos que não entendemos e não controlamos. Temos de resolver o problema do controle antes de criarmos a AGI. Os governos deveriam exigir que as empresas garantam que seus sistemas se comportem adequadamente.