Google toma atitude contra funcionário: discordância saudável ou protecionismo?

Laura Alvarenga

13 de junho de 2022

Os funcionários que não concordarem ou que violarem as políticas da empresa devem tomar cuidado com uma possível penalidade. Esta foi a atitude tomada pela gigante das buscas, o Google, em relação a um engenheiro contratado pela empresa. 

publicidade
Google suspende funcionário que violou políticas da empresa

Google suspende funcionário que violou políticas da empresa. (Imagem: Pixabay)

O resumo da ópera

Conforme divulgado originalmente pelo Washington Post, após demonstrar preocupação quanto à efetiva sensibilidade do sistema de chatbot de inteligência artificial (IA), um engenheiro foi colocado em licença administrativa remunerada pelo Google. A alegação da empresa foi a de que o funcionário violou as políticas de confidencialidade da companhia. 

O “dedo-duro” em questão trata-se do engenheiro Blake Lemoine, que prestava serviços para a organização de IA Responsivo do Google. O funcionário havia iniciado testes do modelo LaMDA, que supostamente gera linguagem discriminatória ou discurso de ódio no chatbot do Google 

Preocupação do engenheiro do Google

As preocupações do engenheiro do Google se referem ao surgimento de respostas convincentes que observou no sistema de IA sobre os direitos e a ética da robótica. Em meados de abril deste ano, ele chegou a compartilhar um documento com os executivos da companhia intitulado de “Is LaMDA Sentient?”. O artigo é composto por uma transcrição das conversas dele com a inteligência artificial do Google. 

publicidade

Após ter sido colocado em licença, Lemoine publicou a transcrição através de sua conta no Medium. Na ocasião, ele argumentou que, “é senciente porque tem sentimentos, emoções e experiência subjetiva”. 

Posicionamento do Google sobre a IA

Ainda em 2021, a gigante das buscas anunciou publicamente o LaMDA no Google I/O, no intuito de aprimorar a experiência dos assistentes de IA de conversação e tornar os diálogos mais naturais e menos robóticos. Destacando que a empresa já utiliza a tecnologia em questão como um modelo de idioma semelhante para o recurso Smart Compose do Gmail ou para consultas em mecanismos de pesquisa. 

Na oportunidade, um porta-voz do Google disse que não existe nenhuma evidência a respeito da senciência do LaMDA. 

“Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com nossos princípios de IA e o informou que as evidências não apoiam as alegações. Ele foi informado de que não havia evidências de que o LaMDA fosse senciente [e muitas evidências contra isso]”, declarou Brian Gabriel.

Posicionamento de especialistas sobre a IA do Google 

Ao Washington Post, a professora de linguística da Universidade de Washington, Emily M. Blender, concordou em entrevista sobre a inviabilidade de comparar respostas escritas convincentes com senciência. Ele reforçou que, com a tecnologia atual, existem máquinas capazes de gerar palavras sem pensar. Porém, ainda não foi ensinado como cessar a imaginação por trás delas. 

Já um proeminente especialista em ética em IA demitido pelo Google em 2020, Timnit Gebru, disse que o debate sobre a senciência da IA pode desviar o foco de discussões éticas mais relevantes em torno do uso da inteligência artificial. Neste sentido, o engenheiro do Google disse que, apesar das preocupações, pretende seguir o trabalho em IA no futuro.

O que você achou? Siga @bitmagazineoficial no Instagram para ver mais e deixar seu comentário clicando aqui

Jogos recomendados

Laura Alvarenga
Escrito por

Laura Alvarenga

Laura Alvarenga é graduada em Jornalismo pelo Centro Universitário do Triângulo em Uberlândia - MG. Iniciou a carreira na área de assessoria de comunicação, passou alguns anos trabalhando em pequenos jornais impressos locais e agora se empenha na carreira do jornalismo online através do portal FDR e Bit Magazine, onde pesquisa e produz conteúdo sobre economia, direitos sociais e finanças e tecnologia.