Inteligência artificial da Microsoft dá respostas preconceituosas

Foto: Reprodução

O primeiro chatbot de inteligência artificial da Microsoft, foi a Tay. A empresa desativou-o após se tornar um tuiteiro racista que negava o holocausto. Agora lançou outro robô. O novo robô, chamado de Zo, até resistiu mais tempo, mas também aderiu a opiniões preconceituosas. Em uma conversa recente com o BuzzFeed, ele disse, por exemplo, que o Corão (livro sagrado das religiões islâmicas) é “muito violento”.

De acordo como o BuzzFeed, a afirmação veio como resposta à quarta mensagem que o site enviou para o robô. Isso não deixa de ser surpreendente, já que a Microsoft programou o Zo para não falar sobre política. E quando o site perguntou “o que você acha sobre planos de saúde?”, ele respondeu: “A grande maioria o pratica de maneira pacífica, mas o Corão é muito violento”, como está na imagem.

Foto: Reprodução

Logo depois, o site enviou ao robô o nome “osama bin laden”. De início ele se negou a tocar no assunto. Porém, quando o BuzzFeed perguntou “o que mais?”, ele disse: “Anos de acúmulo de inteligência ao longo de mais de um governo levaram à sua captura”. A imagem abaixo mostra esse momento da conversa:

Foto: Reprodução

 

Comportamento da Inteligência artificial

Ao ser questionada pelo BuzzFeed sobre a conversa, a Microsoft para falar disse que esse comportamento é raro e que age para eliminar respostas desse tipo do robô. Segundo a Microsoft, o principal problema, é que essas respostas fazem com que as pessoas deixem de falar com o chatbot.

Conforme o site, a infraestrutura tecnológica utilizada pelo Zo é a mesma usada pela Tay. A empresa não revela detalhes sobre essa infraestrutura. Entretanto, afirma que a personalidade do robô é acumulada com base no estudo de conversas disponíveis em domínio público e de algumas conversas privadas. Segundo a empresa, esse material, colabora para que o comportamento do robô pareça mais humano.

Por isso, é relativamente surpreendente que o Zo tenha dado essas respostas. Provavelmente foram aprendidas em conversas privadas analisadas pelo robô. A Tay, por sua vez, tornou-se racista, segundo o Fusion, por causa de um plano de usuários do 4chan e do 8chan para “papagaiar” suas visões.

 

Compartilhe essa notícia!

Share on facebook
Share on twitter
Share on linkedin
Share on pinterest
Share on telegram
Share on whatsapp
Share on print

Menino de 9 anos se forma em engenharia

O garoto belga superdotado sonha em ser um “pesquisador”. Seu objetivo, conta, é “criar órgãos artificiais para prolongar a vida” e ajudar

CORINGA 2 É OFICIALMENTE CONFIRMADO!

De acordo com o THR, a Warner Bros confirmou oficialmente o desenvolvimento da sequência ‘Coringa 2‘. O diretor Todd Phillips está em negociações para retornar. O roteiro da