A União Europeia revelou nesta quarta-feira (21) um conjunto de propostas para regulamentar o uso de tecnologias de inteligência artificial no bloco.
A comissão que rascunhou o texto indicou que a tecnologia não poderia ser utilizada em cenários de “alto risco”, como uso de reconhecimento facial para vigilância em massa.
As autoridades querem impor regras para a utilização de sistemas automatizados que selecionem pessoas para vagas de emprego, em escolas e para empréstimos.
O grupo também quer proibir completamente o uso da inteligência artificial em casos considerados muito arriscados, como sistemas de “pontuação social” que julgam as pessoas com base em seu comportamento e traços físicos.
“Com essas regras históricas, a União Europeia está liderando o desenvolvimento de novas normas globais para garantir que a inteligência artificial possa ser confiável”, disse Margrethe Vestager, vice-presidente da Comissão Europeia para a era digital, em uma declaração.
Vestager disse que a proibição do uso de reconhecimento facial para identificar pessoas em tempo real em meio a uma multidão é importante pois “não há espaço para a vigilância em massa em nossa sociedade”.
O documento prevê algumas exceções para essa tecnologia, como buscas de crianças desaparecidas, fugitivos ou prevenção de ataques terroristas.
Alguns parlamentares e grupos de direito digital temem que isso crie uma brecha para justificar o emprego das soluções no futuro, segundo a agência de notícias Associated Press.
O descumprimento das regras poderia resultar em multas de até 30 mil euros (R$ 200 mil, na cotação atual) para pessoas físicas. Para empresas as sanções poderiam chegar até 6% da receita anual global.
As propostas ainda precisam ser debatidas pelos parlamentares da União Europeia em um processo que pode levar anos.
Reconhecimento facial é alvo e críticas
Uso de sistemas de reconhecimento facial na segurança pública é alvo de críticas de especialistas, por preocupações com privacidade e com a precisão desse tipo de tecnologia.
Em junho passado, após o assassinato de George Floyd na cidade de Minneapolis, a IBM anunciou que não iria mais desenvolver e pesquisar tecnologias de reconhecimento facial, alegando riscos de privacidade e possíveis injustiças caso a tecnologia fosse usada por forças policiais.
Pouco depois, a Amazon anunciou uma moratória de um ano para o uso da sua plataforma chamada “Rekognition”, mas disse planejar voltara vendê-la após regulamentações do setor nos EUA, que ainda engatinha.
Fonte: G1