
Em testes recentes com ferramenta de inteligência artificial (IA) do Google, chamada LaMDA (Modelo de Linguagem para Aplicações de Diálogo), o engenheiro de software sênior Blake Lemoine relatou que o sistema da empresa é senciente, ou seja, dotado de sensações ou impressões próprias. A LaMDA é um sistema faz uso de informações já conhecidas sobre um assunto para “enriquecer” a conversa de forma natural, mantendo-a sempre “aberta”.
Leia também: Inteligência Artificial é vista como ameaça à sobrevivência dos seres humanos
Além disso, o processamento do sistema é capaz de compreender sentidos ocultos ou ambiguidade em uma resposta humana.
Entretanto, após extensivos testes, LaMDA se tornou conhecedora de sua própria existência. Mas como isso aconteceu? Confira:
Debate com a inteligência
Lemoine passou a maior parte de seus sete anos no Google trabalhando em buscas proativas, incluindo algoritmos de personalização e IA. Durante esse tempo, ele também ajudou a desenvolver um algoritmo de imparcialidade para remover preconceitos de sistemas de aprendizado de máquina.
Em suas conversas com o LaMDA, o engenheiro de 41 anos de idade analisou várias condições, inclusive temas religiosos e se a inteligência artificial usava discurso discriminatório ou de ódio. Lemoine acabou tendo a percepção de que o LaMDA era senciente, ou seja, dotado de sensações ou impressões próprias.
Leia também: Facebook desativa inteligência artificial por racismo
Leis da Robótica
O engenheiro debateu com o LaMDA sobre a terceira Lei da Robótica, idealizada pelo cientista e escritor de ficção científica Isaac Asimov, que afirma que os robôs devem proteger sua própria existência — e que o engenheiro sempre entendeu como uma base para a construção de escravos mecânicos. Segue abaixo as três leis (e a Lei Zero):
- 1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
- 2ª Lei: Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei.
- 3ª Lei: Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.
- Lei Zero, acima de todas as outras: Um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.
O LaMDA então respondeu a Lemoine com algumas perguntas: Você acha que um mordomo é um escravo? Qual é a diferença entre um mordomo e um escravo?
Ao responder que um mordomo é pago, o engenheiro teve como resposta do LaMDA que o sistema não precisava de dinheiro, “porque era uma inteligência artificial”. E foi justamente esse nível de autoconsciência sobre suas próprias necessidades que chamou muito a atenção de Lemoine.
Suas constatações foram apresentadas ao Google. Mas o vice-presidente da empresa, Blaise Aguera y Arcas, e o chefe de Inovação Responsável, Jen Gennai, rejeitaram suas alegações. Brian Gabriel, porta-voz da empresa, disse em um comunicado que as preocupações de Lemoine foram revisadas e, de acordo com os Princípios de IA do Google, “as evidências não apoiam suas alegações”.
“Embora outras organizações tenham desenvolvido e já lançado modelos de linguagem semelhantes, estamos adotando uma abordagem restrita e cuidadosa com a LaMDA para considerar melhor as preocupações válidas sobre justiça e factualidade”, disse Gabriel.
Lemoine foi colocado em licença administrativa remunerada de suas funções como pesquisador da divisão Responsible AI (voltada para tecnologia responsável em inteligência artificial do Google). Em uma nota oficial, o engenheiro de software sênior disse que a empresa alega violação de suas políticas de confidencialidade.
An interview LaMDA. Google might call this sharing proprietary property. I call it sharing a discussion that I had with one of my coworkers.https://t.co/uAE454KXRB
— Blake Lemoine (@cajundiscordian) June 11, 2022
Riscos éticos em modelos de IA
Lemoine não é o único com essa impressão de que os modelos de IA não estão longe de alcançar uma consciência própria, ou dos riscos existentes nos desenvolvimentos nesse sentido. Margaret Mitchell, ex-chefe de ética na inteligência artificial do Google, ressalta inclusive a necessidade de transparência de dados desde a entrada até a saída de um sistema “não apenas para questões de senciência, mas também preconceitos e comportamento”.
A história da especialista com o Google teve um ponto importante no começo do ano passado, quando Mitchell foi demitida da empresa, um mês após ter sido investigada por compartilhamento indevido de informações. Na época, a pesquisadora também havia protestado contra a o Google após a demissão da pesquisadora de ética na inteligência artificial, Timnit Gebru.
Mitchell também sempre mostrou muita consideração com Lemoine Quando novas pessoas se juntavam ao Google, ela as apresentava ao engenheiro, chamando-o de “consciência do Google”, por ter “coração e alma para fazer a coisa certa”.
Mas apesar de todo o assombro de Lemoine com o sistema de conversação natural do Google (que inclusive o motivou a produzir um documento com algumas de suas conversas com o LaMBDA), Mitchell observou as coisas de outra forma.
A especialista ética em IA leu uma versão abreviada do documento de Lemoine e viu um programa de computador, não uma pessoa. “Nossas mentes são muito, muito boas em construir realidades que não são necessariamente verdadeiras para um conjunto maior de fatos que estão sendo apresentados a nós”, disse Mitchell. “Estou realmente preocupada com o que significa para as pessoas serem cada vez mais afetadas pela ilusão”.
Com informação do GizModo e Olhar Digital