Ícone do site BIT magazine

Inteligência Artificial está aprendendo a se explicar para os humanos

A iniciativa do LinkedIn de equiparar sua equipe de vendas a um software de inteligência artificial, capaz de analisar e obter resultados a respeito da propensão de cada cliente, pode revolucionar o mundo. Lançado em julho do ano passado, a inteligência estimula os usuários a apresentarem os trabalhos de modo útil.

Inteligência Artificial está aprendendo a se explicar para os humanos. (Imagem: Pixabay)

Apesar de os cientistas especializados em inteligência artificial não terem enfrentado problemas na projeção do sistema capaz de fazer previsões precisas a respeito de todos os modelos de negócios, eles continuam descobrindo que, para tornar as ferramentas mais eficazes para operadores humanos, é preciso se explicar através de outro algoritmo. 

De acordo com a empresa, o campo emergente de “Explainable AI” ou XAI, teve o poder de estimular investimentos relevantes no Vale do Silício à medida que as startups e demais gigantes da tecnologia de nuvem investem em uma competição para descobrir qual delas conseguirá tornar o software opaco mais compreensível. 

O resultado foram debates intensos em Washington e Bruxelas, onde os reguladores pretendem assegurar que todas as decisões tomadas sejam automatizadas de modo justo e transparente.

É importante explicar que a tecnologia de inteligência artificial tem o poder de perpetuar preconceitos sociais como os de raça, gênero e cultura. Enquanto isso, alguns cientistas enxergam as explicações apresentadas como uma etapa essencial para mitigar os resultados problemáticos. 

No que compete aos reguladores de proteção ao consumidor dos Estados Unidos da América (EUA), incluindo a Federal Trade Commission, foram emitidos vários alertas no decorrer dos últimos dois anos alegando que a inteligência artificial não pode ser explicada, mas pode ser investigada. 

Por outro lado, a União Europeia (UE) se empenha em aprovar a Lei de Inteligência Artificial até o ano que vem. E não é só isso, também deve ser apreciado um conjunto de requisitos abrangentes que incluem as interpretações feitas pelos usuários através de previsões automatizadas. 

O que dizem os críticos

Os defensores da inteligência artificial explicável alegam como ela auxiliou no aumento da eficácia de aplicação em áreas como saúde e vendas. Um exemplo é o Google Cloud, que atua na venda de serviços de IA explicáveis. 

Um exemplo é a informação aos clientes sobre as tentativas de aprimoramento dos sistemas em pixels e, em breve, quais exemplos de treinamento são cruciais na prevenção do tema de uma foto.

Ainda assim, os críticos dizem que as explicações que levaram a inteligência artificial a fazer previsões não são confiáveis, tendo em vista que a tecnologia de interpretação das máquinas não é poderosa o bastante.

O que você achou? Siga @bitmagazineoficial no Instagram para ver mais e deixar seu comentário clicando aqui

Sair da versão mobile