Nada impede a criação de IA que destruirá o mundo, diz professor de Berkeley

Stuart Russell, professor de ciência da computação da Universidade da Califórnia em Berkeley e autor do livro "Inteligência Artificial a Nosso Favor", não é lá muito fã do ChatGPT.

Não porque ele vai tomar seu emprego em uma das universidades mais renomadas dos EUA ou porque vai destruir a sociedade como a conhecemos. É porque, ao contrário do que o entusiasmo em torno das IAs generativas faz parecer, ele não o considera muito inteligente.

"Ele faz coisas interessantes, mas parece que faltam grandes capacidades de raciocínio e planejamento, de refletir sobre suas próprias operações, sobre seu próprio conhecimento", disse, em entrevista por videoconferência à 💥️Folha.

O pesquisador está mesmo preocupado é com o controle que exercemos sobre sistemas que nem sequer existem hoje.

São as AGI (inteligência artificial geral, na sigla em inglês), as IAs que serão capazes de fazer tudo que um ser humano faz e provavelmente melhor. Para ele, garantir que essas máquinas poderosas estejam sob o nosso controle é o que vai definir se continuaremos a existir como espécie —mas sem pressão.

É por isso que Russell foi um dos signatários da carta que pediu uma interrupção nas pesquisas avançadas em inteligência artificial. Elon Musk, Steve Wozniak, cofundador da Apple, e o escritor Yuval Noah Harari também assinaram. Sam Altman, CEO da OpenAI, dona do ChatGPT, não.

Russell afirma que sua publicação, em março do ano passado, foi o que deixou o mundo mais atento sobre os perigos da IA.

O professor de Berkeley é um dos palestrantes do próximo ciclo de conferências Fronteiras do Pensamento. Ele dará palestras no Brasil nos dias 30 de abril, em Porto Alegre, e em 2 de maio, em São Paulo.

💥️Há um ano, o sr. foi um dos signatários de uma carta que pediu uma pausa em pesquisas avançadas de IA por ao menos seis meses. O que mudou desde sua publicação?
Mudou quase tudo. É interessante porque, quando a carta foi divulgada, muitas pessoas disseram que ninguém daria atenção. Mas, na verdade, nos seis meses seguintes, não foram anunciados sistemas mais poderosos do que o GPT 4 [versão mais avançada do motor que roda o ChatGPT]. E o mundo basicamente acordou.

Houve reuniões de emergência na Casa Branca e na ONU. A China anunciou uma regulação muito rígida para sistemas de IA. Geoffrey Hinton renunciou ao seu cargo no Google para expressar suas preocupações. O Reino Unido mudou completamente de posição. Se o ritmo de trabalho de pessoas da área é um sinal de progresso, então houve um enorme progresso no mundo, tanto na compreensão da questão quanto na disposição de lidar com ela.

Um guia do New York Times em formato de newsletter para você entender como funciona a IA

💥️A OpenAI pode lançar o GPT 5 ainda neste ano, então talvez eles não concordem muito com a carta.
Bem, a carta mencionava seis meses, e já se passou um ano. Mas eu acho que as empresas se sentem em uma corrida. Sob a lei atual, nada as impede de construir sistemas muito grandes. Na verdade, nada as impede de construir um sistema que destruirá o mundo.

Elas sentem que é melhor construir esse sistema antes que outra empresa o faça. E elas parecem reconhecer que há mesmo um risco de ser o fim do mundo. Mas, até agora, não parece ter passado pela cabeça delas simplesmente parar. Sam Altman já disse que vai construir a AGI e só depois descobrir como torná-la segura. Isso é loucura.

💥️A pesquisa em IA hoje parece estar concentrada nas big techs. A OpenAI é financiada pela Microsoft e concorre diretamente com o Google. Essa concentração nos estágios iniciais do setor não é prejudicial?
Não sei se isso representa um mercado muito concentrado. Além das grandes empresas, existem algumas startups muito bem financiadas construindo sistemas concorrentes. O custo de entrada é significativo se você quiser que seu sistema se expanda e seja usado por milhões de pessoas, mas eu não acho que as barreiras sejam enormes. O que me preocupa é ver que a Microsoft está absorvendo uma dessas startups, a Inflection. Isso não é saudável.

💥️O ChatGPT foi lançado no momento certo, no final de 2022?
Consigo entender o motivo econômico para terem feito isso. Eles sentiram que sairiam na frente das outras empresas. Isso teve o efeito de expor milhões de pessoas a um aperitivo do que seria se tivéssemos disponível uma IA de verdade.

Foi também um choque para o mundo. Possibilitou conversas com chefes de Estado e políticos sobre os riscos e o impacto da IA. Nesse sentido, eles fizeram um favor ao mundo.

Por outro lado, vimos muitas maneiras pelas quais o ChatGPT falha, dando respostas sem sentido, inventando coisas. Eu acho que eles viram a humanidade como milhões de cobaias de um produto.

Eu gostaria que as empresas se esforçassem para entender como seus sistemas funcionam e dissessem que são capazes de controlá-los, para garantir que não farão coisas inaceitáveis. Mas não estão fazendo isso. E acho que a única maneira de fazerem isso é regulando.

O que você está lendo é [Nada impede a criação de IA que destruirá o mundo, diz professor de Berkeley].Se você quiser saber mais detalhes, leia outros artigos deste site.

Wonderful comments

    Login You can publish only after logging in...