banner

blog

Aug 27, 2023

O segredo obscuro no coração da IA

No ano passado, um estranho carro autônomo foi lançado nas estradas tranquilas do Condado de Monmouth, Nova Jersey. O veículo experimental, desenvolvido por pesquisadores da fabricante de chips Nvidia, não parecia diferente de outros carros autônomos, mas era diferente de tudo demonstrado pelo Google, Tesla ou General Motors, e mostrava o crescente poder da inteligência artificial. O carro não seguiu uma única instrução fornecida por um engenheiro ou programador. Em vez disso, dependia inteiramente de um algoritmo que aprendeu sozinho a dirigir observando um humano fazê-lo.

Conseguir um carro para dirigir dessa maneira foi um feito impressionante. Mas também é um pouco perturbador, já que não está totalmente claro como o carro toma suas decisões. As informações dos sensores do veículo vão direto para uma enorme rede de neurônios artificiais que processam os dados e então fornecem os comandos necessários para operar o volante, os freios e outros sistemas. O resultado parece corresponder às respostas que você esperaria de um motorista humano. Mas e se um dia ele fizesse algo inesperado - colidisse com uma árvore ou parasse em um sinal verde? Como as coisas estão agora, pode ser difícil descobrir o porquê. O sistema é tão complicado que mesmo os engenheiros que o projetaram podem se esforçar para isolar o motivo de qualquer ação. E você não pode perguntar: não há uma maneira óbvia de projetar tal sistema para que ele sempre explique por que fez o que fez.

A mente misteriosa deste veículo aponta para um problema iminente com a inteligência artificial. A tecnologia de IA subjacente ao carro, conhecida como aprendizado profundo, provou ser muito poderosa na solução de problemas nos últimos anos e foi amplamente implantada para tarefas como legendas de imagens, reconhecimento de voz e tradução de idiomas. Agora há esperança de que as mesmas técnicas sejam capazes de diagnosticar doenças mortais, tomar decisões comerciais de milhões de dólares e fazer inúmeras outras coisas para transformar setores inteiros.

Mas isso não vai acontecer – ou não deveria acontecer – a menos que encontremos maneiras de tornar técnicas como o aprendizado profundo mais compreensíveis para seus criadores e responsáveis ​​por seus usuários. Caso contrário, será difícil prever quando as falhas podem ocorrer — e é inevitável que ocorram. Essa é uma das razões pelas quais o carro da Nvidia ainda é experimental.

Os modelos matemáticos já estão sendo usados ​​para ajudar a determinar quem ganha liberdade condicional, quem é aprovado para um empréstimo e quem é contratado para um emprego. Se você pudesse ter acesso a esses modelos matemáticos, seria possível entender seu raciocínio. Mas bancos, militares, empregadores e outros agora estão voltando sua atenção para abordagens de aprendizado de máquina mais complexas que podem tornar a tomada de decisão automatizada totalmente inescrutável. O aprendizado profundo, a mais comum dessas abordagens, representa uma maneira fundamentalmente diferente de programar computadores. “É um problema que já é relevante e será muito mais relevante no futuro”, diz Tommi Jaakkola, professor do MIT que trabalha com aplicações de aprendizado de máquina. "Seja uma decisão de investimento, uma decisão médica ou talvez uma decisão militar, você não quer apenas confiar em um método de 'caixa preta'."

Já existe um argumento de que ser capaz de interrogar um sistema de IA sobre como ele chegou a suas conclusões é um direito legal fundamental. A partir do verão de 2018, a União Europeia pode exigir que as empresas sejam capazes de dar aos usuários uma explicação para as decisões tomadas pelos sistemas automatizados. Isso pode ser impossível, mesmo para sistemas que parecem relativamente simples na superfície, como aplicativos e sites que usam aprendizado profundo para veicular anúncios ou recomendar músicas. Os computadores que executam esses serviços se programaram e fizeram isso de maneiras que não podemos entender. Mesmo os engenheiros que criam esses aplicativos não conseguem explicar totalmente seu comportamento.

Isso levanta questões incompreensíveis. À medida que a tecnologia avança, podemos em breve cruzar um limite além do qual o uso da IA ​​requer um salto de fé. Claro, nós, humanos, nem sempre podemos explicar verdadeiramente nossos processos de pensamento - mas encontramos maneiras de confiar intuitivamente e avaliar as pessoas. Isso também será possível com máquinas que pensam e tomam decisões de forma diferente de um ser humano? Nunca antes construímos máquinas que operam de maneiras que seus criadores não entendem. Quão bem podemos esperar nos comunicar — e nos dar bem com — máquinas inteligentes que podem ser imprevisíveis e inescrutáveis? Essas perguntas me levaram a uma jornada pela vanguarda da pesquisa sobre algoritmos de IA, do Google à Apple e muitos lugares intermediários, incluindo um encontro com um dos grandes filósofos de nosso tempo.

COMPARTILHAR