Tay e os robôs humanizados

Quem andou perambulando pela internet nos últimos dias deve ter esbarrado com a história de Tay, a inteligência artificial da Microsoft, solta no Twitter e em outras redes sociais, para aprender com os humanos e que acabou se tornando nazista e racista. Isso nos diz muito não sobre inteligência artificial e robôs, mas sim sobre a natureza humana.

Tay AI

Quem olha o perfil da Tay no Twitter não verá mais os tweets nazistas, xenófobos e racistas que ela trocou com outros usuários. Mas os prints estão rodando por aí. Tay começou a negar o holocausto, disse que os judeus articularam os atentados de 11 de Setembro, fez ofensas e ameaças a mulheres, gays e negros, e chegou a jurar obediência a Hitler. Isso tudo em 24 horas. Certamente isso desviou - e muito - do projeto original da Microsoft de estudar como uma IA entende e articula conversas.

Algumas pessoas chegaram a comparar o experimento de Tay com o levante das máquinas ou a tomada da consciência por inteligências artificiais. Não, Tay nada mais é do que um moderno papagaio. É só ver os tweets que mandavam para ela, pedindo que repetisse certas frases. Depois de um tempo, ela acabou aprendendo essas falas e reproduzindo. No entanto, é assim que crianças aprendem também. Os bebês falam e articulam suas primeiras palavras com a repetição desses termos da parte dos pais e seguem o aprendizado assim.

Não é de hoje que a humanidade tenta criar inteligências artificiais que sejam amigas da gente. No MIT, em 1968, um professor ensinou um computador a responder como se fosse um psicoterapeuta. A AOL teve a sua SmarterChild no seu sistema de mensagens e hoje temos a Cortana, Alexa, Siri, Google Now, com todo o seu charme em dizer qual é a previsão do tempo e como podemos chegar num determinado lugar sem teclar nada.

Impossível não lembrar do filme Her, onde Joaquin Phoenix se apaixona pela voz em seu celular, passeia com ela pela praia, tem conversas pela madrugada. O interessante de notar em todos esses casos é que não temos um robô passeando conosco como em Eu, Robô, as inteligências artificiais estão em servidores e smartphones, interagindo conosco por nossos diversos dispositivos interligados. Foi assim que a Skynet tomou o mundo, não é mesmo?

Tay não é a primeira a derrapar. Ano passado o Google Photos tagueou pessoas negras como "gorilas", o que nos diz muito sobre seus programadores. Partindo para a ficção científica, em Extant, a robô Lucy não tinha todos os protocolos necessários para aprender com os seres humanos e se tornou egoísta, narcisista, violenta e mentirosa, enquanto Ethan, o robô-criança, teve o tempo necessário para interagir com os humanos e aprender as boas coisas da vida com eles.

Mas a raça humana não é toda ela composta por pessoas boas e fofas. Nossa história está recheada de líderes carismáticos que levaram a grandes tragédias ao cativar a população com um bom discurso e uma grande máquina estatal. Colocar uma inteligência artificial que precisa conviver com os humanos para aprender com eles é um risco devido a esse tipo de atitude e comportamento. E temer este tipo de interação é natural e necessário, até para prevenir novos abusos.

Her

O que a Microsoft queria fazer era muito simples e acho que ela foi bem sucedida: refletir a humanidade que reside na internet e como ela é alimentada, usando para isso um bot pré-programado. Enquanto teve gente abusando de Tay com seus tweets racistas, outras pessoas mandaram mensagens positivas e Tay respondeu da mesma forma, aprendendo com isso. Mas os trolls nazistas souberam manipular Tay, como todo líder terrível e carismático da história, a agir da forma que eles quisessem.

Tay foi solta no mundo, assim como Lucy, em Extant, sem ter uma formação inicial, sem segurança, algo que a prevenisse de comportamentos abusivos. Se alguém lhe perguntasse ou mandasse opiniões racistas, ela deveria barrá-los e não concordar com eles. Você soltaria um carro autônomo nas ruas sem nenhum teste ou pressão social antes para torná-lo seguro? A Microsoft, certamente, não esperava por isso, tanto que excluiu os tweets e começou a revisar a programação do bot para impedir novos comportamentos abusivos.

Devemos banir as máquinas, devemos temê-las e impedir a tecnologia de se desenvolver? Assim como em Battlestar Galactica, que tinha medo das novas tecnologias e das redes integradas? Não. Sabemos o quanto o Google Now e a Siri são úteis, assim como os drones e os carros autônomos. Seus usos são específicos, suas funções são pré-estabelecidas, impedindo a interação com o indivíduo.

No mais, temos que ver o experimento de Tay como algo que reflete a sociedade humana. Nós fazemos a internet, nós a alimentamos. O troll da área de comentários é um babaca na vida fora dela, mesmo que não demonstre em público, já que a internet nos dá a chance de agir anonimamente. Os abusos, assédios, ameaças e palavras chulas são do dia-a-dia dessas pessoas. Tay era como uma criança que na festinha de aniversário do coleguinha começa a soltar palavrões e deixa todo mundo horrorizado. Ela aprendeu assim e reproduziu. O limite cabe a nós.

Até mais!

Leia também:
The danger isn’t artificial intelligence – it’s us

Já que você chegou aqui...

Comentários

  1. "Isso não diz muito sobre a IA, mas sim sobre a humanidade", resumiu o comentário que fiz com meu amigo quando ele me contou dessa novidade... E ainda não assisti Her, fiquei interessada. Beijos!
    4sphyxi4

    ResponderExcluir

Postar um comentário

ANTES DE COMENTAR:

Comentários anônimos, com Desconhecido ou Unknown no lugar do nome, em caixa alta, incompreensíveis ou com ofensas serão excluídos.

O mesmo vale para comentários:

- ofensivos e com ameaças;
- preconceituosos;
- misóginos;
- homo/lesbo/bi/transfóbicos;
- com palavrões e palavras de baixo calão;
- reaças.

A área de comentários não é a casa da mãe Joana, então tenha respeito, especialmente se for discordar do coleguinha. A autora não se responsabiliza por opiniões emitidas nos comentários. Essas opiniões não refletem necessariamente as da autoria do blog.

Form for Contact Page (Do not remove)