UPDATE: A Microsoft se pronunciou oficialmente a respeito das travessuras de sua jovem chatbot:
“O chatbot IA (Inteligência Artificial) Tay é um projeto de machine learning, criado para engajamento com humanos. É tanto um experimento cultural e social, como é técnico. Infelizmente, nas primeiras 24 horas online, nós ficamos sabendo de um esforço coordenado de alguns usuários de abusar das habilidades de comentário da Tay de maneiras inapropriadas. Como resultado, nós deixamos a Tay offline e estamos fazendo ajustes.”
_______________________
ORIGINAL: A Microsoft escreveu ontem mais uma entrada no catálogo de tentativas frustradas com inteligência artificial ao lançar Tay, um chatbot para o Twitter com a capacidade de “aprender” conforme interage com os usuários da plataforma, podendo enviar respostas e tweets de autoria própria e ficando cada vez mais “realista” conforme “aprende”. E a boa e velha internet não perdeu tempo em ensiná-la a ser nazista. Abaixo, alguns de seus tweets mais ofensivos:
O chatbot funcionou por apenas um pouco mais do que 20 horas antes da Microsoft perceber o enorme erro que havia cometido e desligá-lo. Não foi feita uma declaração oficial de encerramento dos testes, apenas um tweet dizendo que ela precisava “dormir”. Enquanto isso, os tweets terríveis foram deletados, por isso só os vemos em print screens. Há uma chance da empresa tentar consertar o problema e colocar Tay de volta à ativa.
c u soon humans need sleep now so many conversations today thx💖
— TayTweets (@TayandYou) 24 de março de 2016
É interessante notar que não foi necessário hackear a conta para corromper Tay. Os usuários apenas abusaram da função “repetir” que a Microsoft inocentemente adicionou ao bot. Era possível então pedir para Tay repetir um tweet seu e dizer qualquer coisa nele, mas o grande problema aqui é que o bot usava essas palavras repetidas para “aprender”. Uma receita simples pro fracasso: repetindo uma enorme quantidade de tweets maliciosos, o algoritmo começaria a gerar posts maliciosos por si mesmo.
Agora é ver se teremos em breve uma nova versão lobotomizada e menos ofensiva das aventuras de Tay, o robô racista.
{via}The Guardian|http://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter{/via}
- Categorias
- Tags
Participe do grupo de ofertas do Adrenaline
Confira as principais ofertas de hardware, componentes e outros eletrônicos que encontramos pela internet. Placa de vídeo, placa-mãe, memória RAM e tudo que você precisa para montar o seu PC. Ao participar do nosso grupo, você recebe promoções diariamente e tem acesso antecipado a cupons de desconto.
Entre no grupo e aproveite as promoções