Acessar o conteúdo principal

Especialistas da ONU advertem sobre viés racista em algoritmos

Estudos realizados demonstraram que os dados para "educar" os algoritmos de inteligência artificial têm dificuldades para reconhecer os rostos de mulheres e pessoas de pele escura.
Estudos realizados demonstraram que os dados para "educar" os algoritmos de inteligência artificial têm dificuldades para reconhecer os rostos de mulheres e pessoas de pele escura. DR
Texto por: RFI
3 min

Os países devem fazer mais para combater o racismo, principalmente nos algoritmos de inteligência artificial utilizados para reconhecimento facial e controles policiais. Essas ferramentas podem reforçar discriminações, alertam especialistas da ONU.

Publicidade

Segundo a especialista jamaicana Verene Shepherd, "existe um grande risco de que (a inteligência artificial) reforce o preconceito e, assim, agrave ou possibilite práticas discriminatórias". Shepherd é membro do Comitê da ONU para a eliminação da discriminação racial, composto por 18 especialistas. Nesta quinta-feira (26), o grupo publicou um relatório com recomendações às autoridades para combater esse problema.

O comitê está preocupado particularmente com os algoritmos usados entre as ferramentas policiais de "prevenção" ou "avaliação de riscos", assim como pelo motor de busca ou as redes sociais preferidas das pessoas, que podem ser bombardeadas com publicidade preconceituosa.

Esses sistemas de vigilância que supostamente apoiam a prevenção de crimes, e foram implementados pela primeira vez nos Estados Unidos em meados da década de 2000, são também criticados porque reforçam os preconceitos sobre algumas comunidades.

Ciclo vicioso  

 

"Os dados históricos sobre prisões em um bairro determinado (que alimentam a inteligência artificial) podem refletir muito bem as práticas policiais preconceituosas" e, consequentemente, reproduzi-las, destaca Shepherd. "Esses dados aumentam o risco de um excesso de presença policial que poderia levar a realizar mais prisões e, desse modo, criar um ciclo vicioso", alerta. "Dados incorretos provocam maus resultados", resume.

Entre suas recomendações, o comitê também expressa preocupação pelo uso cada vez mais generalizado do reconhecimento facial ou outras tecnologias de supervisão utilizadas em missões de segurança. Novamente, em relação a isso, o discernimento da inteligência artificial está intimamente vinculado aos dados usados para "educar" esses sistemas, explica a especialista jamaicana. Estudos realizados demonstraram que esses dados têm dificuldades para reconhecer os rostos de pele escura ou de mulheres.

Um preconceito bem ilustrado, por exemplo, foi a prisão este ano em Detroit de um homem negro americano, Robert Williams, com base em "conclusões" de um algoritmo mal desenvolvido, que o identificou como o suspeito de um roubo.

"Recebemos reclamações sobre esta forma de identificação errônea fruto dessas tecnologias, de quem as desenvolve ou dos exemplos utilizados por esses sistemas", indica Shepherd e acrescenta: "é uma preocupação real".

O comitê pede aos países que regulamentem as empresas que trabalham neste setor para garantir que tais sistemas respeitem as leis internacionais sobre direitos humanos. O relatório insiste na necessidade de transparência na concepção e aplicação desses direitos para o público em geral.

As recomendações do comitê não se limitam a essas novas tecnologias. "O desenvolvimento de perfis raciais não começou com elas", lembra Shepherd. Ela espera que "a intensificação e internacionalização do movimento Black Lives Matter (...) e outras campanhas que denunciam a discriminação contra grupos vulneráveis ajudarão (a destacar) a importância dessas recomendações".

Com informações da AFP

 

NewsletterReceba a newsletter diária RFI: noticiários, reportagens, entrevistas, análises, perfis, emissões, programas.

Página não encontrada

O conteúdo ao qual você tenta acessar não existe ou não está mais disponível.