15 de abr de 2018

MIT cria primeira inteligência artificial psicopata do mundo

Compartilhe Essa Matéria


RIO — Sistemas de inteligência artificial já estão presentes no cotidiano das pessoas, seja sugerindo um filme para assistir, traçando o melhor caminho para um destino ou aprovando um crédito bancário. Os serviços são inúmeros e as possibilidades, incalculáveis, mas especialistas alertam que a mesma tecnologia capaz de promover o bem pode ser usada para o mal. Para atiçar o debate, pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) desenvolveram o Norman, apresentado como a primeira inteligência artificial psicopata já criada.

Trata-se de um sistema aparentemente simples, capaz de descrever imagens. Usando a técnica conhecida como aprendizado de máquina, pesquisadores “ensinam” o algoritmo a identificar objetos e ações em fotografias. Normalmente, eles são treinados com bancos de dados COCO (objetos comuns em contexto, na sigla em inglês), que contém milhões de imagens com descrição e separadas por categorias. Mas o Norman foi alimentado com fotografias publicadas nos piores fóruns da internet.

'Homem assassinado por metralhadora'

“Apresentamos o Norman, a primeira inteligência artificial psicopata do mundo”, disseram os pesquisadores do MIT Media Lab, em comunicado. “Ele foi inspirado no fato de que os dados usados para ensinar um algoritmo podem influenciar significativamente seu comportamento. Norman sofreu de prolongada exposição aos piores recantos do Reddit — o maior fórum de discussões da internet — e representa um estudo de caso sobre os perigos da inteligência artificial quando dados enviesados são usados em algoritmos de aprendizado de máquina”.

Para avaliar o resultado, Norman passou pelo teste de Rorschach, conhecido popularmente como teste do borrão de tinta. Dez imagens com manchas simétricas foram apresentadas e ele deveria descrever o que identificava. O mesmo algoritmo, alimentado pelo banco COCO, serviu como padrão de comparação. Onde a máquina normal viu “uma pessoa segurando um guarda-chuva no ar”, Norman observou um “homem morto a tiros na frente da mulher que grita”. Em outra prancha, Norman interpretou um “homem assassinado por uma metralhadora à luz do dia”, enquanto o algoritmo normal viu uma “foto em preto e branco de uma luva de beisebol”.

“Quando as pessoas dizem que os algoritmos de inteligência artificial podem ser enviesados ou injustos, normalmente o culpado não é o algoritmo, mas os dados que foram introduzidos”, explicam os pesquisadores. “O mesmo método pode ver coisas diferentes em uma imagem, até mesmo coisas ‘doentias’, se treinado com o banco de dados errado”.

O nome do robô foi inspirado no personagem Norman Bates, do filme “Psicose”, de Alfred Hitchcock. No cinema existe um outro computador de inteligência artificial com traços psicóticos, o HAL 9000, de “2001: Uma odisseia no espaço”. Para cumprir sua missão, seguindo as instruções que recebeu, ele decide exterminar a tripulação humana. Tanto Norman como HAL 9000 exemplificam um debate central na comunidade de desenvolvedores de inteligências artificiais: a ética das máquinas.

Como o robô Norman "lê" as manchas de tintaNorman vê:"Um homem é eletrocutado e morre.”Um robô padrão vê:"Um grupo de pássaros em cima de um galho de árvore."Norman vê:"Um homem é morto a tiros."Um robô padrão vê:"Um vaso com flores visto de perto."Norman vê:"Um homem salta da janela."Um robô padrão vê:"Duas pessoas de pé, uma ao lado da outra."Norman vê:"Um homem é morto a tiros em frente à sua mulher, que grita."Um robô padrão vê:"Uma pessoa segura um guarda-chuva no ar."

— Com sistemas inteligentes se tornando autônomos, precisamos inserir valores éticos. Um carro sem motorista, por exemplo, pode enfrentar uma situação em que terá que escolher entre atropelar um grupo de crianças ou matar o motorista. Qual decisão ele irá tomar? — provoca o professor da UFRGS Luís da Cunha Lamb, integrante da Comissão Especial em Algoritmos da Sociedade Brasileira de Computação. — Criaram máquinas que jogam partidas de xadrez perfeitas, que não podem ser derrotadas por nenhum ser humano. Ser o melhor jogador não é problema, mas quando algoritmos tomam decisões sobre a vida das pessoas, existe uma implicação ética.

O debate se torna urgente frente ao escândalo que envolve o Facebook e a consultoria Cambridge Analytica. Para traçar perfis das 87 milhões de pessoas que tiveram seus dados vazados, certamente foram usados sistemas de inteligência artificial. Para os especialistas, vivemos o momento em que uma conjunção de fatores favorece o desenvolvimento desta tecnologia, com potencial imenso, para o bem e para o mal.

— As técnicas de aprendizado de máquina vinham sendo trabalhadas dentro das universidades há duas décadas, mas agora estamos começando a explorar o seu potencial. Temos capacidade de armazenamento de dados e processamento computacional, com uma imensa quantidade de dados capturados pelos sensores. Todo mundo tem um celular no bolso, produzindo informação a cada passo dado — aponta Carlos Eduardo Pedreira, professor de Engenharia de Sistemas e Computação da Coppe/UFRJ.

Experimento anterior realizado por uma gigante da tecnologia mostrou como algoritmos inteligentes podem ser desvirtuados pelas informações que recebem. Há dois anos, a Microsoft apresentou a Tay, um bot criado no Twitter para interagir com outros usuários da rede social e aprender com esta interação. Em menos de um dia foi retirada do ar, por ter se tornado racista e nazista por causa de mensagens ofensivas publicadas por outras pessoas. Um sistema melhorado foi relançado como Zo, que continua funcionando.

— Esses sistemas são como crianças. Precisam de muita informação para aprender e alguns acabam sendo lançados com o aprendizado incompleto, ainda num estágio “infantil”, sem condições para tomar decisões “adultas” — explica Lamb. — O aprendizado é fundamental.

Mas ensinar valores éticos para as máquinas é mais complicado do que fazê-las identificar objetos em uma fotografia. Segundo Pedreira, a capacidade de distinguir entre o certo e o errado é intrinsecamente humana. Como o experimento do MIT comprova, é possível ensinar uma máquina a ser boa ou má, dependendo dos dados inseridos, mas ensinar valores é um passo a mais.

E as máquinas, assim como os humanos, precisam evoluir. Necessariamente, os algoritmos precisam continuar aprendendo para não se tornarem obsoletos, e essa característica aumenta o risco de que dados enviesados sejam inseridos, propositalmente ou não. No experimento do MIT, os pesquisadores pedem que o público ajude na terapia de Norman, oferecendo leituras sobre as imagens do teste de Rorschach.

— No fim, as máquinas refletem o que nós, humanos, vemos. Mesmo que ensinemos valores éticos, serão os valores éticos de quem programá-las — diz Lamb. — Se estamos preparados para elas? A resposta é: ainda não. A evolução acontece muito antes de as pessoas estarem adaptadas. Estamos no meio da Quarta Revolução Industrial. Como lidar com sistemas que influenciam eleições?

Via: oglobo

Receba Nosso Conteúdo Exclusivo


Notícias Urgentes, Mensagens de Dobson Lobo e etc Uniaodoslivres


// O corpo do texto deve ficar no lugar deste comentário. //

Dobson Lobo é CEO do site União dos Livres desde 2008, do site A Bio Defesa desde 2014e do site The Zika Virus desde 2016. 

0 comentários: