O Conselho Europeu aprovou nesta terça-feira (21/05) a Lei de Inteligência Artificial, que regula o uso da tecnologia em recursos como vigilância por vídeo, reconhecimento de voz e análise de dados financeiros.
A lei vale para todos que desenvolvem, oferecem ou utilizam sistemas de IA dentro da União Europeia, afetando atores públicos e privados dentro e fora do bloco. Também vai além da abordagem de compliance voluntária que vigora nos Estados Unidos e pode, por isso, inspirar outros países a seguirem caminho semelhante.
O texto é fruto de um contexto de preocupações crescentes com a desinformação, as notícias falsas e a violação de direitos intelectuais em meio à popularização de sistemas de IA generativa, como o ChatGPT, da OpenAI, e o Gemini, do Google.
Supervisão humana e regras mais rígidas para sistemas de alto risco
Pela lei, que já foi aprovada pelo Parlamento Europeu em março e deve entrar em vigor a partir da primavera de 2026, a autorização para o uso de sistemas de IA em setores como segurança e emprego dependerá de critérios de transparência e precisão, além do cumprimento de padrões de cibersegurança e de qualidade de dados usados no desenvolvimento de aplicações.
Sistemas considerados de alto risco estarão sujeitos a regras mais rígidas e terão que se certificar junto a órgãos de governo antes de serem usados no mercado europeu. Isso inclui situações em que o uso da IA pode prejudicar a saúde, a segurança, os direitos fundamentais, o meio ambiente, a democracia, as eleições e o Estado de Direito.
A chamada IA de propósito geral – caso do ChatGPT – não foi classificada como uma aplicação de alto risco. O governo alemão diz ter se empenhado por isso.
Uma das mais populares tecnologias de IA, o ChatGPT é capaz de se comunicar por texto com usuários e fornecer respostas detalhadas – porém nem sempre corretas – em questão de segundos. Também é capaz de gerar imagens que parecem reais.
Outro destaque da lei é a previsão de que os sistemas de IA sejam supervisionados por pessoas, e não apenas por outras tecnologias. Desenvolvedores também ficam obrigados a identificar como tal textos, sons e imagens gerados com a tecnologia – especialistas, porém, consideram que essa medida será de difícil fiscalização dada a enorme quantidade de material produzido.
Veto ao "social scoring" e uso indiscriminado de reconhecimento facial em espaços públicos
A lei também veta o uso da IA para avaliação de cidadãos com base em seu comportamento, status socioeconômico ou características pessoais. A prática, conhecida como "social scoring", existe na China, onde pessoas são pontuadas de acordo com os seus bons ou maus costumes.
Outro uso proibido é a categorização biométrica de indivíduos com base em religião ou visão de mundo, orientação sexual e raça, bem como a identificação de emoções no local de trabalho e em instituições de ensino.
O reconhecimento facial em espaços públicos – através da vigilância por vídeo em praças públicas, por exemplo – também não será permitido de forma indiscriminada. Exceções poderão ser feitas a pedido de autoridades de segurança apenas mediante ordem judicial, por exemplo para combater crimes como tráfico de pessoas e terrorismo.
Empresas que descumprirem a lei estarão sujeitas a sanções pelos países-membros da UE – como multas, por exemplo, que podem variar de 1,5% a 7% do faturamento. Indivíduos que descobrirem violações podem apresentar queixas às autoridades nacionais, que poderão abrir processos de supervisão e impor penalidades.
Críticas
A Anistia Internacional teme que o reconhecimento facial e outras tecnologias controversas sejam usadas contra migrantes e requerentes de asilo – a UE recentemente endureceu as regras que regem o direito ao asilo no bloco. Para eurodeputados dos partidos social-democrata (SPD) e d'A Esquerda, a identificação de pessoas em tempo real pela polícia não é regulamentada de forma suficientemente rigorosa.
Outro ponto levantado por críticos é que a lei corre o risco de nascer defasada, já que ela só entra em vigor daqui a dois anos. Até lá, a Comissão Europeia dependerá de acordos voluntários com as empresas.
Ministro de Trânsito e Digitalização, Volker Wissing contra-argumenta que os legisladores serão continuamente desafiados por uma tecnologia que muda tão rapidamente quanto a IA. "Por isso sempre defendi que devemos seguir rapidamente o caminho da regulamentação, mas também ter a coragem de fazer ajustes contínuos." Para Wissing, é importante ter o controle das tecnologias de IA "nas próprias mãos" e implementar o texto de forma "amigável à inovação". "A Inteligência Artificial é uma tecnologia-chave, da qual depende nossa competitividade", diz.
Alguns pontos da lei, porém, entrarão em vigor daqui a seis meses. São eles: a proibição de sistemas de IA que se baseiam na manipulação cognitiva de pessoas ou grupos vulneráveis, como crianças; o uso de "social scoring"; a identificação e categorização biométrica de pessoas, bem como sistemas de reconhecimento facial à distância e em tempo real.
Já as regras para IA de propósito geral entrarão em vigor daqui a um ano, enquanto sistemas de alto risco terão prazo estendido de três anos para se adequar à lei.
ra (AFP, dpa, Reuters)