Engenheiro Blake Lemoine disse ao jornal Washington Post que o sistema de IA da plataforma teria alcançado um nível de consciência após centenas de interações, mas a empresa não concordou
As empresas de tecnologia estão constantemente exaltando os recursos de suas inteligências artificiais cada vez mais aprimoradas. Mas o Google foi rápido em encerrar as alegações de que um de seus programas avançou tanto que se tornou senciente (ou seja, passou a poder sentir sensações de forma consciente).
De acordo com um conto revelador no Washington Post no sábado, um engenheiro do Google disse que, após centenas de interações com um sistema de inteligência artificial inédito chamado LaMDA, ele acreditava que o programa havia alcançado um nível de consciência.
Em entrevistas e declarações públicas, muitos na comunidade de IA contestaram as afirmações do engenheiro, enquanto alguns apontaram que sua história destaca como a tecnologia pode levar as pessoas a atribuir características humanas a ela.
Mas a crença de que a IA do Google pode ser senciente destaca nossos medos e expectativas sobre o que essa tecnologia pode fazer.
LaMDA, sigla em inglês que significa “Modelo de linguagem para aplicativos de diálogo”, é um dos vários sistemas de IA de grande escala que foram treinados em grandes trechos de texto da Internet e podem responder a solicitações escritas.
Eles são encarregados, essencialmente, de encontrar padrões e prever quais palavras devem vir a seguir.
Esses sistemas se tornaram cada vez melhores em responder perguntas e escrever de maneiras que podem parecer convincentemente humanas — e o próprio Google apresentou o LaMDA em maio passado em um post de blog como aquele que pode “se envolver de maneira fluida sobre um número aparentemente infinito de tópicos”.
Mas os resultados também podem ser malucos, estranhos, perturbadores e propensos a divagações.
O engenheiro, Blake Lemoine, teria dito ao Washington Post que compartilhou evidências com o Google de que o LaMDA era consciente, mas a empresa não concordou.
Em um comunicado, o Google disse na última segunda-feira (13) que sua equipe, que inclui especialistas em ética e tecnólogos, “revisou as preocupações de Blake de acordo com princípios de IA e o informou que as evidências não apoiam suas alegações”.
Em 6 de junho, Lemoine postou no Medium que o Google o colocou em licença administrativa remunerada “em conexão com uma investigação de questões éticas de IA que eu estava levantando dentro da empresa” e que ele poderia ser demitido “em breve”.
Ele mencionou a experiência de Margaret Mitchell, que havia sido líder da equipe de IA ética do Google — isto é, até ser demitida no início de 2021, após sua franqueza excessiva sobre a saída da então co-líder Timnit Gebru no final de 2020.
Gebru foi demitida após brigas internas, incluindo um relacionado a um trabalho de pesquisa, do qual a liderança de IA da empresa pediu para que ela ou não o apresentasse em uma conferência, ou retirasse seu nome do documento.
Um porta-voz do Google confirmou que Lemoine permanece em licença administrativa. De acordo com o The Washington Post, ele foi colocado em licença por violar a política de confidencialidade da empresa. Lemoine não estava disponível para comentar na segunda-feira.
O surgimento contínuo de poderosos programas de computação treinados em dados maciços também deu origem a preocupações sobre a ética que rege o desenvolvimento e o uso de tal tecnologia. E, às vezes, os avanços são vistos através das lentes do que pode vir, em vez do que é atualmente possível.
As respostas da comunidade de IA à experiência de Lemoine ricochetearam nas mídias sociais no fim de semana e geralmente chegaram à mesma conclusão: a IA do Google não está nem perto da consciência.
Abeba Birhane, um membro sênior em IA confiável da Mozilla, tuitou no domingo: “Entramos em uma nova era de ‘esta rede neural é consciente’ e desta vez vai drenar muita energia para refutar”.
Gary Marcus, fundador e CEO da Geometric Intelligence, que foi vendida para a Uber, e autor de livros como “Rebooting AI: Building Artificial Intelligence We Can Trust”, chamou a ideia do LaMDA de “absurdo em pernas de pau” em um tuíte.
Ele rapidamente escreveu um post no blog apontando que tudo que esses sistemas de IA fazem é combinar padrões extraindo de enormes bancos de dados de linguagem.
Em entrevista na segunda-feira à CNN Business internacional, Marcus disse que a melhor maneira de pensar em sistemas como o LaMDA é como uma “versão glorificada” do software de preenchimento automático que você pode usar para prever a próxima palavra em uma mensagem de texto.
Se você digitar “Estou com muita fome, então quero ir a um”, pode sugerir “restaurante” como a próxima palavra. Mas essa é uma previsão feita usando estatísticas.
“Ninguém deve pensar que o preenchimento automático é consciente”, disse ele.
Em uma entrevista, Gebru, que é o fundador e diretor executivo do Distributed AI Research Institute, ou DAIR, disse que Lemoine é vítima de várias empresas que alegam que a IA consciente ou inteligência artificial geral — uma ideia que se refere à IA que pode realizar tarefas semelhantes às humanas e interagir conosco de maneiras significativas — não estão longe.
Por exemplo, ela observou, Ilya Sutskever, cofundadora e cientista-chefe da OpenAI, tuitou em fevereiro que “pode ser que as grandes redes neurais de hoje sejam ligeiramente conscientes”.
E na semana passada, o vice-presidente do Google Research e a colega Blaise Aguera y Arcas escreveram em um artigo para o The Economist que, quando começaram a usar o LaMDA no ano passado, “sentiam cada vez mais como se estivesse falando com algo inteligente”.
“O que está acontecendo é que há uma corrida para usar mais dados, mais computação, para dizer que você criou essa coisa geral que sabe tudo, responde a todas as suas perguntas ou o que quer que seja, e esse é o tambor que você está tocando”, disse Gebru .
“Então, como você fica surpreso quando essa pessoa está levando isso ao extremo?”
Em sua declaração, o Google apontou que o LaMDA passou por 11 “revisões distintas de princípios de IA”, bem como “pesquisas e testes rigorosos” relacionados à qualidade, segurança e capacidade de apresentar declarações baseadas em fatos.
“É claro que alguns na comunidade de IA mais ampla estão considerando a possibilidade de longo prazo de IA senciente ou geral, mas não faz sentido antropomorfizar os modelos de conversação de hoje, que não são sencientes”, disse a empresa.
“Centenas de pesquisadores e engenheiros conversaram com o LaMDA e não temos conhecimento de mais ninguém fazendo as afirmações abrangentes ou antropomorfizando o LaMDA, da maneira que Blake fez”, disse o Google.