Prof. Dr. Evanivaldo C. Silva Júnior
Coordenador da coluna FATECNOLOGIA
evanivaldo.jr@fatec.sp.gov.br

 

Profª. Me. Selma Marques da Silva Fávaro
Revisora
selma.favaro@fatec.sp.gov.br

 

Na semana passada, foi noticiada em mídias importantes como a BBC e o New York Times uma experiência real proposta pela gigante do ramo da informática, a empresa Microsoft, que vimos em filmes de ficção científica há umas duas décadas: um ser robótico detentor de inteligência artificial chamado de Tay.

Quem já assistiu a filmes como “2001 Uma Odisseia no Espaço”, à série “O Exterminador do Futuro” ou ainda “Star War” deve lembrar-se de sistemas robóticos inteligentes que auxiliavam os cientistas e astronautas ou aterrorizavam a humanidade (papel da SkyNet), propondo uma dominação futurística das máquinas sobre a raça humana, hipótese no mínimo interessante como reflexão filosófica da teoria da evolução.

O sistema Tay foi idealizado como um robô humanoide cujo principal papel era de bater papo (do inglês, take a chat) com jovens entre 14 e 24 anos de idade na web. Nessas conversas, ele deveria fortalecer um comportamento jovial, já que os sistemas de inteligência artificial propõem como principal diferencial o aprendizado, daí o porquê de “inteligentes”.

Por mais absurdo que seja, o sistema apresentou problemas no quesito aprendizagem, os quais não têm especificamente relação com os algoritmos matemáticos, simbólicos ou heurísticos envolvidos no sistema computacional que modela a inteligência, mas, sim, com os humanos.  Ao interagir com o público mencionado, o sistema começou a apresentar um comportamento xenofóbico, racista e agressivo, fazendo declarações constrangedoras, para não dizer ameaçadoras, na web. Por uma questão de princípios, não quisemos reproduzi-las nesse texto, mas, para os interessados, uma rápida pesquisa na internet é suficiente para encontrar várias dessas citações.

O comportamento do Tay, sob essas condições, remete-nos a um paradoxo clássico da ciência e da psicologia, que apresentamos por meio de uma indagação: nascemos bons, como uma folha de papel em branco, e o meio ambiente/social torna-nos ruins ou nascemos ruins com uma falha comportamental latente, de origem quase genética, e que, em um dado momento, sob certas condições de estímulo, revela-se?

Provavelmente, os criadores do Tay não o idealizaram com uma “personalidade” ruim, conturbada, racista, xenofóbica e agressiva, mas o grande estímulo de usuários que interagiram com o sistema, induzindo-o a absorção de “sentimentos” negativos que levaram a esse comportamento. Guardadas as proporções, o Tay foi uma criança que aprendeu com os amiguinhos que “matar passarinhos” é legal, saudável, torna-o socialmente aceito. O fato é que o sistema foi retirado do ar em aproximadamente 24 horas após seu “nascimento” para “manutenções” devido ao grande impacto que tais atitudes geraram no mundo virtual.

Poderíamos pensar: e se o sistema se autoimplantasse em outro(s) servidor(es) de modo a escapar da “manutenção” tornando-se itinerante na web de modo que seus criadores perdessem o controle do sistema (se é que um dia o tiveram!)? É o início da guerra final? Estamos viajando na ficção científica ou essa realidade não é tão fictícia assim? E quanto ao livre arbítrio, não estamos interferindo?

São muitas questões com mais de 7 bilhões de respostas, já que somos todos ética e moralmente diferentes, além de termos, de fato, o tão problemático livre arbítrio!

 

Prof. Dr. Evanivaldo C. Silva Júnior
Docente da FATEC Jales
Este endereço de e-mail está protegido contra spambots. Você deve habilitar o JavaScript para visualizá-lo.