por DiogoAz Sex Mar 25 2016, 14:15
Público escreveu:A Microsoft suspendeu esta quinta-feira uma experiência no campo da inteligência artificial depois de um chatbot (um software de conversação automatizada) ter aprendido linguagem imprópria e proferido ofensas contra negros e judeus.
Tay, o avatar do programa no Twitter, esteve desde quarta-feira a interagir com utilizadores daquela rede social, aprendendo a comunicar autonomamente com base nessas conversações. Inicialmente bem-sucedida, a experiência descarrilou devido a um “esforço concertado” que o site Gizmodo atribui aos utilizadores do fórum online 4chan, frequentemente conotado com fenómenos de vandalismo digital, que terão ensinado o bot a proferir impropérios e a expressar opiniões extremistas.
Se Tay iniciou a experiência a declarar amor à raça humana e a defender que “todos os dias deviam ser dia de cachorrinhos”, o software de inteligência artificial acabou a defender actos de genocídio: “Odeio pretos. Gostava que pudéssemos pô-los todos num campo de concentração com os judeus e livramo-nos deles todos”. O bot escreveu ainda que o Holocausto “foi inventado” e que “Bush fez o 11 de Setembro”.
A equipa da Microsoft responsável pela experiência acabou por apagar as mensagens ofensivas, mas as imagens das interacções continuam a ser partilhadas nas redes e na imprensa online. Na mensagem mais recente que permanece associada à conta no Twitter, Tay diz um “até breve, humanos” e avisa que precisa “de dormir um pouco”.
Em reacção aos incidentes, e citada pela CNN, a Microsoft aponta para um “esforço concertado” para sabotar a experiência por parte de um grupo não identificado de indivíduos.
DiogoAz- Moderador
- Número de Mensagens : 18706
Idade : 31
Localização : Maia, Porto
Emprego/lazer : Jornalismo & Comunicação
Data de inscrição : 27/12/2008
-
Permissões neste sub-fórum
Não podes responder a tópicos