A União Europeia (UE) selou na noite desta sexta-feira (08) um acordo histórico para o estabelecimento de um conjunto de regras que visa regulamentar o uso de sistemas de inteligência artificial (IA). A iniciativa pioneira, aprovada após um amplo debate, é considerada a mais completa em todo o mundo.
Com acordo selado entre os 27 Estados-membros e o Parlamento Europeu, a UE se torna o primeiro continente a estabelecer um conjunto de regras para a utilização dessas tecnologias. O pacto viabiliza a aprovação da chamada Lei de Inteligência Artificial pelos legisladores europeus no início do próximo ano.
O resultado veio após uma maratona de negociações nas últimas semanas. A conclusão somente foi atingida depois de 15 horas de negociações que se seguiram a quase 24 horas de debates no dia anterior.
O acordo abre caminho para a supervisão legal das tecnologias de IA, inclusive em pontos controversos como a regulamentação do uso do reconhecimento facial e de dados biométricos, assim como das ferramentas de IA generativa, como o ChatGPT.
"A Europa se posicionou como pioneira, compreendendo a importância de seu papel como formadora de padrões. Acredito que este seja um dia histórico", afirmou o comissário europeu para o mercado interno, Thierry Breton.
Em postagem na rede social X, Breton disse que a Lei é "muito mais do que um conjunto de regras; é uma plataforma para startups e pesquisadores da UE liderarem a corrida global na IA. O melhor ainda está por vir".
O que estabelece o acordo
Ferramentas como ChatGPT e outros sistemas de propósito geral com base na IA deverão ser submetidas a uma série de obrigações legais antes de entrarem no mercado. Isso inclui a apresentação da documentação técnica e o cumprimento da Lei de Direitos Autorais da UE.
Modelos considerados como de alto impacto e de riscos sistêmicos terão de conduzir avaliações e análises de modelos e mitigar esses riscos, além de realizar testes para detectar adversidades e relatar incidentes graves à Comissão Europeia. As empresas deverão fornecer garantias quanto à segurança cibernética e apresentar relatórios sobre sua eficiência energética.
Os governos poderão utilizar a vigilância biométrica em espaços públicos somente no caso de determinados crimes com vítimas e na prevenção de ameaças reais, presentes ou previsíveis, como ataques terroristas, assim como na busca por suspeitos de crimes graves.
O acordo proíbe a chamada manipulação cognitivo-comportamental (ferramentas que incentivam determinados comportamentos, por exemplo, em crianças), o rastreamento não-especificado de imagens faciais na internet ou de câmeras de segurança, assim como o chamado sistema de crédito social ou de categorização biométrica para discriminar orientações religiosas, políticas, sexuais, raciais e filosóficas.
O público terá direito a apresentar queixas e receber esclarecimentos das partes responsáveis. As multas podem chegar a 7,5 milhões de euros (R$ 39,8 milhões) ou ao equivalente de 1,5% do faturamento das empresas, podendo ser de até 35 milhões de euros, ou 7% do faturamento global.
Corrida contra o tempo
A UE saiu na frente para regular a IA ao criar o primeiro conjunto de regras em 2021. O avanço rápido dessas tecnologias forçou os legisladores europeus a acelerarem a criação de uma proposta que poderia se tornar uma referência para o resto do mundo.
Após a iniciativa europeia, os Estados Unidos, Reino Unido, China e coalizões internacionais como o grupo dos países do G7 também deram início à elaboração de regulamentações sobre a IA, embora ainda estejam em estágios menos avançados.
Em outubro o presidente dos EUA, Joe Biden, assinou uma ordem executiva que estabelece padrões de segurança para a IA, após a China ter adotado uma regra geral para essa tecnologia em agosto.
O Parlamento Europeu ainda precisará aprovar o acordo em plenário, o que deverá ocorrer no início de 2024. Mas, após conclusão do pacto nesta sexta-feira, essa próxima etapa deverá ser pouco mais que uma formalidade.
As novas regulamentações europeias avançam em um momento em que empresas como a OpenIA – a criadora do ChatGPT – continuam a desenvolver amplos modelos de linguagem e outros projetos. O Google lançou seu modelo de IA, o Gemini, na última quinta-feira.
Críticos apontam brechas perigosas
Contudo, analistas e ativistas dos direitos digitais expressaram preocupação com algumas brechas na nova Lei europeia que consideram perigosas, como a falta de proteção para os sistemas de IA utilizados nos controles de fronteira e de imigração, assim como a opção dada às empresas para não classificarem seus sistemas como sendo de alto risco.
"Quaisquer que tenham sido as vitórias nessa fase final de negociações, não mudam o fato de que enormes falhas permanecerão no texto", avalia Daniel Leufer, analista sênior de políticas do grupo de direitos digitais Access Now.
O grupo do setor empresarial DigitalEurope se queixou que as regras trazem novos obstáculos para as empresas, juntamente com outras legislações recentemente adotadas.
"Temos um acordo, mas a qual custo? Apoiamos totalmente a abordagem voltada para os riscos baseada no uso da IA, não na tecnologia por si só, mas as tentativas de última hora de regular os modelos de fundação fizeram com que isso se voltasse contra a própria cabeça", avalia a diretora-geral do grupo Cecilia Bonefeld-Dahl.
O grupo European Digital Rights também criticou a nova Lei. "É difícil nos empolgarmos com uma lei que, pela primeira vez na UE, avançou para legalizar o reconhecimento facial", disse a consultora sênior de políticas Ella Jakubovska
"Apesar de o Parlamento Europeu ter lutado duramente para minimizar os danos, o pacote geral sobre a vigilância biométrica e perfilamento é, no máximo, mediano", observou.
rc (Reuters, AP)