União Europeia propõe regras para inteligência artificial de ‘alto risco’ | Tecnologia


A União Europeia revelou nesta quarta-feira (21) um conjunto de propostas para regulamentar o uso de tecnologias de inteligência artificial no bloco.

A comissão que rascunhou o texto indicou que a tecnologia não poderia ser utilizada em cenários de “alto risco”, como uso de reconhecimento facial para vigilância em massa.

As autoridades querem impor regras para a utilização de sistemas automatizados que selecionem pessoas para vagas de emprego, em escolas e para empréstimos.

O grupo também quer proibir completamente o uso da inteligência artificial em casos considerados muito arriscados, como sistemas de “pontuação social” que julgam as pessoas com base em seu comportamento e traços físicos.

“Com essas regras históricas, a União Europeia está liderando o desenvolvimento de novas normas globais para garantir que a inteligência artificial possa ser confiável”, disse Margrethe Vestager, vice-presidente da Comissão Europeia para a era digital, em uma declaração.

Vestager disse que a proibição do uso de reconhecimento facial para identificar pessoas em tempo real em meio a uma multidão é importante pois “não há espaço para a vigilância em massa em nossa sociedade”.

O documento prevê algumas exceções para essa tecnologia, como buscas de crianças desaparecidas, fugitivos ou prevenção de ataques terroristas.

Alguns parlamentares e grupos de direito digital temem que isso crie uma brecha para justificar o emprego das soluções no futuro, segundo a agência de notícias Associated Press.

O descumprimento das regras poderia resultar em multas de até 30 mil euros (R$ 200 mil, na cotação atual) para pessoas físicas. Para empresas as sanções poderiam chegar até 6% da receita anual global.

As propostas ainda precisam ser debatidas pelos parlamentares da União Europeia em um processo que pode levar anos.

Reconhecimento facial é alvo e críticas

Uso de sistemas de reconhecimento facial na segurança pública é alvo de críticas de especialistas, por preocupações com privacidade e com a precisão desse tipo de tecnologia.

Em junho passado, após o assassinato de George Floyd na cidade de Minneapolis, a IBM anunciou que não iria mais desenvolver e pesquisar tecnologias de reconhecimento facial, alegando riscos de privacidade e possíveis injustiças caso a tecnologia fosse usada por forças policiais.

Pouco depois, a Amazon anunciou uma moratória de um ano para o uso da sua plataforma chamada “Rekognition”, mas disse planejar voltara vendê-la após regulamentações do setor nos EUA, que ainda engatinha.



Fonte: G1