banner

Notícias

Nov 30, 2023

Inteligência artificial geral não é tão iminente quanto você pode pensar

Para a pessoa comum, deve parecer que o campo da inteligência artificial está fazendo imenso progresso. De acordo com algumas das contas de mídia e comunicados de imprensa mais entusiasmados, o DALL-E 2 da OpenAI pode aparentemente criar imagens espetaculares de qualquer texto; outro sistema OpenAI chamado GPT-3 pode falar sobre praticamente qualquer coisa - e até mesmo escrever sobre si mesmo; e um sistema chamado Gato, lançado em maio pela DeepMind, uma divisão da Alphabet, funcionava bem em todas as tarefas que a empresa lançava. Um dos executivos de alto nível da DeepMind chegou a se gabar de que, na busca pela criação de uma IA que tenha a flexibilidade e a desenvoltura da inteligência humana – conhecida como inteligência artificial geral, ou AGI – “o jogo acabou”.

Não se deixe enganar. As máquinas podem um dia ser tão inteligentes quanto as pessoas e talvez até mais inteligentes, mas o jogo está longe de terminar. Ainda há muito trabalho a ser feito para fabricar máquinas que realmente possam compreender e raciocinar sobre o mundo ao seu redor. O que precisamos agora é menos postura e mais pesquisa básica.

A IA está progredindo - as imagens sintéticas parecem cada vez mais realistas e o reconhecimento de fala geralmente funciona em ambientes ruidosos - mas ainda estamos a décadas de uma IA de nível humano de uso geral que possa entender os verdadeiros significados de artigos e vídeos ou lidar com obstáculos e interrupções inesperadas. O campo está preso precisamente nos mesmos desafios que os cientistas acadêmicos (inclusive eu) vêm apontando há anos: tornar a IA confiável e fazê-la lidar com circunstâncias incomuns.

Veja o recém-celebrado Gato, um suposto pau para toda obra, e como ele legendou a imagem de um arremessador arremessando uma bola de beisebol (acima). Os três principais palpites do sistema foram:

Um jogador de beisebol lançando uma bola em cima de um campo de beisebol. Um homem jogando uma bola de beisebol em um arremessador em um campo de beisebol. Um jogador de beisebol rebatendo e um apanhador na terra durante um jogo de beisebol.

A primeira resposta está correta, mas as outras duas respostas incluem alucinações de outros jogadores que não são vistos na imagem. O sistema não tem ideia do que realmente está na imagem, além das aproximações grosseiras que extrai de semelhanças estatísticas com outras imagens. Qualquer fã de beisebol reconheceria que este é um arremessador que acabou de lançar a bola e não o contrário. E embora esperemos que um apanhador e um batedor estejam por perto, eles obviamente não aparecem na imagem.

Da mesma forma, DALL-E 2 não poderia dizer a diferença entre uma imagem de um cubo vermelho em cima de um cubo azul versus uma imagem de um cubo azul em cima de um cubo vermelho. Um sistema mais recente, lançado em maio passado, não conseguia distinguir entre um astronauta andando a cavalo e um cavalo andando em um astronauta.

Quando sistemas de criação de imagens como o DALL-E 2 cometem erros, o resultado pode ser divertido. Mas às vezes os erros produzidos pela IA causam sérias consequências. Um Tesla no piloto automático recentemente dirigiu diretamente em direção a um trabalhador humano carregando uma placa de pare no meio da estrada, diminuindo a velocidade apenas quando o motorista humano interveio. O sistema pode reconhecer os humanos por conta própria (que é como eles apareceram nos dados de treinamento) e os sinais de parada em seus locais habituais (como apareceram nas imagens de treinamento), mas falharam em desacelerar quando confrontados com a combinação desconhecida dos dois, que colocou o sinal de parada em uma posição nova e incomum.

Infelizmente, o fato de que esses sistemas ainda não funcionam de forma confiável e lutam com novas circunstâncias geralmente está oculto nas letras miúdas. O Gato, por exemplo, funcionou bem em todas as tarefas que o DeepMind relatou, mas raramente tão bem quanto em outros sistemas contemporâneos. O GPT-3 geralmente cria prosa fluente, mas luta com aritmética básica e tem tão pouco controle da realidade que tende a criar frases como "Alguns especialistas acreditam que o ato de comer uma meia ajuda o cérebro a sair de seu estado alterado como um resultado da meditação." Uma olhada superficial nas manchetes recentes, no entanto, não revelaria nenhum desses problemas.

COMPARTILHAR