Por Dina Kartit
(Reuters) – O órgão regulador de direitos na União Europeia disse nesta quinta-feira que os aplicativos que usam inteligência artificial (IA) para prever crimes e moderar o discurso de ódio online devem ser livres de preconceitos para evitar a discriminação.
Em um relatório, a Agência de Direitos Fundamentais da União Europeia (FRA) disse que algoritmos baseados em dados de baixa qualidade podem prejudicar as pessoas.
O estudo tem como pano de fundo a proposta da Comissão Europeia, que atraiu críticas de políticos e grupos de consumidores de países do bloco por não abordar totalmente os riscos de sistemas de inteligência artificial que poderiam violar os direitos fundamentais.
“Precisamos de um sistema para avaliar e mitigar o viés antes e durante o uso de algoritmos para proteger as pessoas da discriminação”, disse o diretor da FRA, Michael O’Flaherty.
A detecção de crimes varia e pode afetar os dados, disse a FRA, pois certos crimes são fáceis de detectar, enquanto as previsões se concentram demais em crimes mais fáceis de serem registrados pela polícia.
Como resultado, alguns grupos demográficos podem estar mais frequentemente ligados a crimes mais simples, o que pode levar a um viés na aplicação da lei, disse a FRA.
Na moderação do discurso ofensivo, a agência considerou os algoritmos desenvolvidos para detecção automatizada de discurso de ódio não confiáveis, pois sinalizava termos não ofensivos em inglês alusivos a muçulmanos, gays ou judeus como ofensivos.
Da mesma forma, alguns algoritmos nas línguas alemã e italiana, que usam substantivos de gênero, julgaram a versão feminina de um termo mais ofensiva do que sua contraparte masculina, ou vice-versa.