A utilização da Inteligência Artificial, apesar de ser um caminho sem retorno, é uma estrada ainda mergulhada na penumbra e ambígua. Se por um lado, é um mecanismo que nos permite facilitar a vida em vários processos quotidianos, tanto a nível pessoal como profissional, por outro há a questão da ética e da proteção da vida privada.

Mas não é só. Agora, há mais uma razão para se elevarem as vozes contra a [inevitável] disseminação da Inteligência Artificial. Desenvolvida à imagem social daquilo que são os humanos, a IA tem demonstrado, por diversas vezes, ser capaz de atos discriminatórios e racistas.

Ora, em 2016, Tay, uma experiência de Inteligência Artificial da Microsoft, nas redes sociais para aprender a interagir com os outros utilizadores e que correu horrivelmente mal, aprendeu a ser racista e xenófoba, tendo a experiência acabado abruptamente.

Em janeiro de 2020, Robert Williams, um homem afro-americano, foi detido durante 30 horas, porque um programa concluiu de modo equivocado que a foto do seu cartão de motorista e a imagem de um ladrão de relógios capturado por câmeras de vigilância eram idênticas. De acordo com a União Americana das Liberdades Civis (ACLU), que apresentou uma queixa em nome de Williams, “embora este seja o primeiro caso conhecido, ele provavelmente não é a primeira pessoa a ser detida e interrogada erroneamente com base num problema de reconhecimento facial”.

De acordo com Tarcízio Silva, pesquisador da Universidade Federal do ABC (UFABC), em São Paulo, no Brasil, o reconhecimento facial é muito imperfeito quando se trata de pessoas negras. “Ao mesmo tempo que estas tecnologias são muito imprecisas e mal construídas, estão a ser aplicadas por inúmeras prefeituras e governos em torno do mundo para hiper-vigiar e perseguir minorias”, disse em entrevista ao portal EOnline.

Um exemplo disso é a Universidade da Califórnia, em Los Angeles, que decidiu deixar de utilizar o reconhecimento facial no seu campus. Ao comparar os rostos de 400 integrantes da comunidade universitária (alunos, professores e funcionários) aos de criminosos e contraventores identificados pela polícia, a análise concluiu 58 falsos positivos.

O sistema consiste em cruzar o banco de dados da polícia com imagens de pessoas que passam em frente às câmeras de locais públicos. O objetivo é identificar suspeitos de crimes, foragidos, desaparecidos ou pessoas de interesse das forças de segurança. Porém, mesmo com tecnologia avançada, ainda são frequentes os casos de erros na identificação, sobretudo, de pessoas negras.

Um estudo do Instituto de Tecnologia de Massachusetts publicado em fevereiro de 2018 mostrou fortes imprecisões nos principais programas de reconhecimento facial quando se trata de identificar rostos por grupo populacional, com taxas de erro inferiores a 1% para homens brancos e de até 35% para mulheres negras.

Entretanto, a tecnologia utilizada para gerar e melhor interpretar informações também possui um lado sombrio: se os dados que alimentam os algoritmos de IA são colhidos em uma sociedade misógina, homo…

Na revista Veja, num artigo publicado nesta terça-feira, pelo advogado de Direito Civil Thiago Junqueira, podemos ler que “se os dados que alimentam os algoritmos de IA são colhidos em uma sociedade misógina, homofóbica e racista, é bem provável que, na falta de um bom controle antidiscriminatório feito pelo seu programador, o algoritmo reproduza – quiçá, amplifique – esses vieses. Independentemente de fazê-lo mediante deliberada intenção do programador, esses mecanismos decisórios podem reiteradamente gerar resultados negativos para membros de minorias já em desvantagem na sociedade – e, pior, dando uma aura de legitimidade ao processo.”

As primeiras pesquisas relativas à inteligência artificial começaram a ser feitas na década de 40, após a criação do primeiro computador digital. No entanto, o termo “inteligência artificial” surgiu mais tarde, em 1956, no famoso encontro de Dartmouth onde estiveram presentes, entre outros, os especialistas em ciências da computação Allen Newell, Herbert Simon, Marvin Minsky, Oliver Selfridge e John McCarthy. Desde então, têm sido estudadas e desenvolvidas formas de estabelecer comportamentos inteligentes nas máquinas. O grande desafio das pesquisas em IA pode ser resumido com a questão deixada por Minsky no livro “Semantic Information Processing” em 1968: “Como fazer as máquinas compreenderem as coisas?”

Relembramos-te que a BANTUMEN disponibiliza todo o tipo de conteúdos multimédia, através de várias plataformas online. Podes ouvir os nossos podcasts através do Soundcloud, Itunes ou Spotify e as entrevistas vídeo estão disponíveis através do nosso canal de YouTube.