(FOLHAPRESS) – Na semana passada, o Parlamento Europeu aprovou a primeira versão da lei que regula o uso de IA (Inteligência Artificial) na União Europeia. A legislação é pioneira na governança desta tecnologia, cujas potencialidades encantam tanto quanto assustam especialistas e usuários, e deve servir de modelo para outras leis em discussão pelo mundo.

“O objetivo da regulação é estabelecer uma relação de confiança dos usuários com essa tecnologia, reduzindo seus riscos”, explica à reportagem o eurodeputado italiano Brando Benifei, 27, relator da nova lei europeia. “Queremos lutar contra essa ansiedade gerada pela IA.”

Benifei, que integra o Comitê de Mercado Interno e Proteção do Consumidor do Parlamento Europeu e atua junto ao Comitê Especial de Inteligência Artificial na Era Digital, refere-se aos temores, aos riscos e às desconfianças que rondam o desenvolvimento desta tecnologia.

Essa ansiedade tomou tal proporção que, em março passado, centenas de especialistas assinaram uma carta pública que pedia a suspensão das pesquisas com IA por seis meses, de modo a permitir que sejam estabelecidos sistemas de regulação e de segurança para uma tecnologia que traz, segundo o documento, “grandes riscos para a humanidade”.

Entre os signatários estão Elon Musk, dono do Twitter e fundador da SpaceX e da Tesla, e Steve Wozniak, cofundador da Apple, além de membros do laboratório de IA do Google, entre outros.

“Precisamos ser francos: existem riscos sistêmicos para a IA no nível global. Mas sabemos que existem também riscos cotidianos para as pessoas, e nos concentramos neles”, justifica o eurodeputado italiano.

“Queremos ter certeza de que qualquer sistema de IA que entrar no mercado europeu receberá um tratamento para redução de riscos de modo que as pessoas possam se sentir mais seguras. Esse é o nosso foco. Queremos que o modelo europeu de desenvolvimento de IA seja centrado no ser humano e baseado em parâmetros de confiança.”

O texto aprovado pelo Parlamento Europeu foi proposto por uma coalizão de sociais-democratas, cristãos de centro-direita, ecologistas e liberais, e obteve aprovação expressiva de 499 votos a favor, 28 contra e 93 abstenções.

Ele classifica diferentes usos de IA em graus de risco: baixo, médio, alto e inaceitável.

“Identificamos aplicações de risco extremo, inaceitável, que foram banidas porque elas implicam riscos que não queremos correr e violação de direitos fundamentais”, diz Benifei, que está em seu segundo mandato e entrou na lista da revista Forbes de 2016 como uma das 30 pessoas com menos de 30 anos que mais se destacaram.

Entre essas aplicações estão o uso de IA para o reconhecimento de emoções em escolas e em espaços de trabalho e também por autoridades de controle de fronteira e da justiça criminal.

Também é proibido o uso de IA para o chamado policiamento preditivo, voltado à prevenção de crimes, para o ranqueamento social e, no ponto mais sensível do debate pelos membros do Parlamento Europeu, para a identificação biométrica em espaços públicos.

Trata-se de um campo em que o uso de IA é considerado extremamente problemático porque fere o direito à privacidade de dados de quem é filmado e também porque já foram identificados algoritmos com potenciais problemas de viés racial. Além disso, o uso de reconhecimento facial por IA em espaços públicos tem sido associado a regimes autocráticos da China e da Rússia, que já utilizaram a tecnologia para identificar pessoas em protestos contra os governos, o que viola direitos humanos.

Alvo de intensos debates durante os dois anos ao longo dos quais os eurodeputados estiveram às voltas com o tema, o banimento do uso de IA para identificação biométrica em espaços públicos para fins de vigilância foi mantido, mas com exceções ligadas à ocorrência de crimes graves, do desaparecimento de crianças e de atos de terrorismo.

Já as áreas consideradas de alto risco incluem sistemas de IA usados para influenciar votos e o resultado de eleições, além de sistemas de recomendação usados por grandes redes sociais.

“É preciso olhar para os riscos de algoritmos discriminatórios e para os dados usados para treinar esses sistemas e para as grandes plataformas online fazerem recomendações”, defende Benifei. “Tenho certeza de que este será um tópico para futuras negociações com governos que vão buscar a melhor formulação possível.”

Segundo ele, todas as áreas consideradas de alto risco terão sistemas de certificação de IA em relação à “qualidade dos dados, à supervisão humana e aos protocolos de redução de riscos para a saúde, a segurança e os direitos fundamentais dos usuários”. E isso inclui os chamados modelos fundacionais, que servem de base para sistemas de IA e que precisarão ser registrados no banco de dados da UE antes de seu lançamento no mercado europeu.

A legislação também cria regras de transparência para os chamados sistemas generativos de IA, como o ChatGPT, que terão de divulgar que o conteúdo foi gerado por IA, auxiliando na distinção entre imagens reais e deep fakes.

Eles terão ainda de fornecer resumos dos dados utilizados no treinamento da IA que são protegidos por direitos autorais e de garantir salvaguardas contra a geração de conteúdo ilegal.

“Criamos regras para transparência de IA generativa, que implica muita responsabilidade para os desenvolvedores. Precisamos de transparência sobre o conteúdo produzido por IA. Deve estar claro para as pessoas quando um conteúdo foi produzido por IA e não por humanos”, aponta Benifei.

No mês passado, o presidente-executivo da OpenAI, startup responsável pelo ChatGPT, declarou que a empresa deixaria a UE caso a legislação sobre IA fosse muito restritiva.

“Esse é um tipo de discurso esquisito. E devemos prosseguir com o nosso trabalho, que inclui a promoção de diálogo entre diferentes instituições no nível global, como OCDE, ONU e G7. Afinal, não estamos criando uma regulação só para nós mesmos”, diz Benifei.

Segundo o eurodeputado relator da lei sobre IA, muitas empresas ligadas a esta tecnologia o procuraram para apresentar sua perspectiva sobre a regulamentação do setor.

“Escutamos todas elas. É importante ouvirmos as preocupações não só de organizações da sociedade civil e de consumidores, mas também de quem faz negócios com IA. O certo é considerarmos todos os pontos de vista dessa área na busca política por soluções para as questões envolvendo IA.”

Diante de uma tecnologia em acelerado processo de desenvolvimento e de geração de novos usos e produtos, os relatores da lei europeia para IA criaram uma estratégia para que o texto não se tornasse obsoleto em pouco tempo.

“Olhamos para os usos e as áreas de aplicação, e não para a tecnologia em si”, afirma o eurodeputado italiano. “Também existe um grau de flexibilidade legislativa para emendas ao texto, que podem ser feitas por decretos dos delegados da Comissão Europeia, sem a necessidade de reabrir as negociações de toda a lei.”

Aprovada a primeira versão do texto, começam as negociações diretas com os 27 países do bloco. A meta é alcançar um texto consensual a ser aprovado no início de 2024 para implementação em 2026.

Um prazo tão longo para um tema que parece tão urgente tem inquietado os membros do parlamento. “Leva tempo para implementar esse tipo de legislação porque é preciso um período de transição para a construção de toda a infraestrutura necessária, mas achamos que isso terá de ser acelerado”, admite Benifei. “Estamos estudando a possibilidade de anteciparmos os efeitos da lei, seja por meio de um marco provisório, seja por aplicação voluntária por empresas.”

A grande dificuldade da legislação pioneira em regular o uso de IA, avalia Benifei, é justamente sua aplicação. “O desafio é ter autoridades nos Estados-membros que supervisionem o setor em relação a fraudes e outras violações ao mesmo tempo em que precisamos de coordenação no nível da UE para investigações de grandes fraudes. Essas duas instâncias têm de trabalhar juntas na busca de estratégias comuns para lidar com essas questões em toda a Europa.”

Leia Também: Até onde o ChatGPT pode chegar? Limitações da IA que você precisa saber