A ascensão e queda de Tay, um chatbot da Microsoft que devia ser inteligente, mas virou racista

UPDATE: A Microsoft se pronunciou oficialmente a respeito das travessuras de sua jovem chatbot:

"O chatbot IA (Inteligência Artificial) Tay é um projeto de machine learning, criado para engajamento com humanos. É tanto um experimento cultural e social, como é técnico. Infelizmente, nas primeiras 24 horas online, nós ficamos sabendo de um esforço coordenado de alguns usuários de abusar das habilidades de comentário da Tay de maneiras inapropriadas. Como resultado, nós deixamos a Tay offline e estamos fazendo ajustes.

_______________________ 

ORIGINAL: A Microsoft escreveu ontem mais uma entrada no catálogo de tentativas frustradas com inteligência artificial ao lançar Tay, um chatbot para o Twitter com a capacidade de "aprender" conforme interage com os usuários da plataforma, podendo enviar respostas e tweets de autoria própria e ficando cada vez mais "realista" conforme "aprende". E a boa e velha internet não perdeu tempo em ensiná-la a ser nazista. Abaixo, alguns de seus tweets mais ofensivos:

- Continua após a publicidade -

O chatbot funcionou por apenas um pouco mais do que 20 horas antes da Microsoft perceber o enorme erro que havia cometido e desligá-lo. Não foi feita uma declaração oficial de encerramento dos testes, apenas um tweet dizendo que ela precisava "dormir". Enquanto isso, os tweets terríveis foram deletados, por isso só os vemos em print screens. Há uma chance da empresa tentar consertar o problema e colocar Tay de volta à ativa. 

É interessante notar que não foi necessário hackear a conta para corromper Tay. Os usuários apenas abusaram da função "repetir" que a Microsoft inocentemente adicionou ao bot. Era possível então pedir para Tay repetir um tweet seu e dizer qualquer coisa nele, mas o grande problema aqui é que o bot usava essas palavras repetidas para "aprender". Uma receita simples pro fracasso: repetindo uma enorme quantidade de tweets maliciosos, o algoritmo começaria a gerar posts maliciosos por si mesmo.

Agora é ver se teremos em breve uma nova versão lobotomizada e menos ofensiva das aventuras de Tay, o robô racista. 

{via}The Guardian|http://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter{/via} 

.....

Está pensando em comprar algum produto online? Conheça a extensão Economize do Adrenaline para Google Chrome. Ela é gratuita e oferece a você comparativo de preços nas principais lojas e cupons para você comprar sempre com o melhor preço. Baixe agora.

Tags
  • Redator: João Gabriel Nogueira

    João Gabriel Nogueira

    João Gabriel Nogueira se formou em jornalismo pela Universidade Federal de Santa Catarina (UFSC) em 2015 e curte games desde muito antes. Começou com o Master System e o gosto pelos jogos eletrônicos trouxe o gosto pela tecnologia. Escrever notícias e análises de jogos, hardware e dispositivos móveis para o Adrenaline, além de trabalho é uma alegria e um aprendizado.

O que você achou deste conteúdo? Deixe seu comentário abaixo e interaja com nossa equipe. Caso queira sugerir alguma pauta, entre em contato através deste formulário.