Índice do Artigo

Internet

A ascensão e queda de Tay, um chatbot da Microsoft que devia ser inteligente, mas virou racista

UPDATE: A Microsoft se pronunciou oficialmente a respeito das travessuras de sua jovem chatbot:

O chatbot IA (Inteligência Artificial) Tay é um projeto de machine learning, criado para engajamento com humanos. É tanto um experimento cultural e social, como é técnico. Infelizmente, nas primeiras 24 horas online, nós ficamos sabendo de um esforço coordenado de alguns usuários de abusar das habilidades de comentário da Tay de maneiras inapropriadas. Como resultado, nós deixamos a Tay offline e estamos fazendo ajustes.” 

_______________________ 

ORIGINAL: A Microsoft escreveu ontem mais uma entrada no catálogo de tentativas frustradas com inteligência artificial ao lançar Tay, um chatbot para o Twitter com a capacidade de “aprender” conforme interage com os usuários da plataforma, podendo enviar respostas e tweets de autoria própria e ficando cada vez mais “realista” conforme “aprende”. E a boa e velha internet não perdeu tempo em ensiná-la a ser nazista. Abaixo, alguns de seus tweets mais ofensivos:

O chatbot funcionou por apenas um pouco mais do que 20 horas antes da Microsoft perceber o enorme erro que havia cometido e desligá-lo. Não foi feita uma declaração oficial de encerramento dos testes, apenas um tweet dizendo que ela precisava “dormir”. Enquanto isso, os tweets terríveis foram deletados, por isso só os vemos em print screens. Há uma chance da empresa tentar consertar o problema e colocar Tay de volta à ativa. 

É interessante notar que não foi necessário hackear a conta para corromper Tay. Os usuários apenas abusaram da função “repetir” que a Microsoft inocentemente adicionou ao bot. Era possível então pedir para Tay repetir um tweet seu e dizer qualquer coisa nele, mas o grande problema aqui é que o bot usava essas palavras repetidas para “aprender”. Uma receita simples pro fracasso: repetindo uma enorme quantidade de tweets maliciosos, o algoritmo começaria a gerar posts maliciosos por si mesmo.

Agora é ver se teremos em breve uma nova versão lobotomizada e menos ofensiva das aventuras de Tay, o robô racista. 

{via}The Guardian|http://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter{/via} 

Participe do grupo de ofertas do Adrenaline

Participe do grupo de ofertas do Adrenaline

Confira as principais ofertas de hardware, componentes e outros eletrônicos que encontramos pela internet. Placa de vídeo, placa-mãe, memória RAM e tudo que você precisa para montar o seu PC. Ao participar do nosso grupo, você recebe promoções diariamente e tem acesso antecipado a cupons de desconto.

Entre no grupo e aproveite as promoções