UE chega a acordo para proibir IA que cria imagens de teor sexual

Foto: © Reuters/Proibida reprodução

Os Estados-Membros e o Parlamento Europeu chegaram a acordo na quarta-feira (6) à noite para proibir na União Europeia (UE) os serviços de inteligência artificial (IA) que possam “despir” pessoas sem o seu consentimento.

A iniciativa surge após a introdução, há alguns meses, de uma funcionalidade no Grok – o assistente de IA da rede social X – que permitia aos usuários solicitar a criação de montagens hiper-realistas (deepfakes) de adultos e crianças nus a partir de fotografias reais, sem o seu consentimento.

A proibição entrará em vigor a partir de 2 de dezembro. A partir dessa data, os sistemas de IA deverão estar equipados com medidas de segurança que os impeçam de gerar este tipo de conteúdo.

Será também obrigatório, a partir de dezembro, a inclusão de marca d’água nos resultados gerados por IA.

“Até o final deste ano, todos, mas especialmente mulheres e meninas, estarão a salvo de assédio sexual horríveis que estão amplamente disponíveis no mercado da UE. Hoje pomos um fim definitivo a esse tipo de violência contra pessoas e crianças”, disse a eurodeputada holandesa Kim van Sparrentak.

A criação deste tipo de conteúdos gerou indignação em muitos países e levou a UE a abrir uma investigação.

Na terça-feira (5), a primeira-ministra italiana, Giorgia Meloni, condenou veementemente as fotos falsas dela mesma geradas por IA, classificando os deepfakes como uma “ferramenta perigosa”.

Girano in questi giorni diverse mie foto false, generate con l’intelligenza artificiale e spacciate per vere da qualche solerte oppositore.
Devo riconoscere che chi le ha realizzate, almeno nel caso in allegato, mi ha anche migliorata parecchio. Ma resta il fatto che, pur di… pic.twitter.com/or44qru2qj

— Giorgia Meloni (@GiorgiaMeloni) May 5, 2026

“Os deepfakes são uma ferramenta perigosa, pois podem enganar, manipular e atacar qualquer pessoa. Eu posso me defender. Muitos outros não”, escreveu Meloni no X.

“Por isso, deve ser sempre aplicada uma regra: verificar antes de acreditar e acreditar antes de partilhar. Porque hoje aconteceu comigo, amanhã pode acontecer com qualquer um”, acrescentou.

De acordo com o Parlamento Europeu, a nova proibição visa sistemas que possam criar imagens, vídeos e sons de natureza pornográfica com crianças, ou representações das partes íntimas de uma pessoa identificável, ou imagens dessa pessoa envolvida em atividade sexual, sem o seu consentimento.

A decisão de ontem foi adotada no âmbito de uma revisão da legislação europeia sobre a IA, a chamada Lei da IA, uma lei pioneira formalmente aprovada há dois anos.

Neste âmbito, os 27 Estados-membros e os eurodeputados concordaram ainda em adiar para 2027 a entrada em vigor de novas regras destinadas a regular a atividade dos chamados sistemas de IA de alto risco, isto é, aqueles que envolvem biometria ou que operam em áreas sensíveis como a segurança, a saúde ou os direitos fundamentais.

As regras deveriam entrar em vigor já em agosto deste ano, mas a Comissão Europeia adiou para 2 de dezembro de 2027 para dar mais tempo às empresas para se adaptarem ao novo quadro.

O adiamento foi sugerido após reclamações de empresas sobre a sobreposição de regulamentações e a burocracia excessiva que dificultam a sua capacidade de competir com rivais americanos e asiáticos.

A presidente da Comissão Europeia, Ursula von der Leyen, saudou o acordo, afirmando que “proporciona um ambiente simples e favorável à inovação para o crescimento do nosso ecossistema europeu de IA”.

“Ao mesmo tempo, estamos reforçando a proteção dos nossos cidadãos”, escreveu Von der Leyen no X.

O acordo foi alcançado no momento em que as preocupações com os riscos associados à IA voltaram à discussão na UE nas últimas semanas devido ao Mythos, o novo modelo da startup norte-americana Anthropic.

A Anthopic decidiu não disponibilizar o Mythos ao público em geral, mas apenas a um grupo restrito de empresas norte-americanas, devido à excepcional capacidade do modelo de identificar vulnerabilidades críticas de programação, que poderiam desencadear uma crise de cibersegurança.

Fonte: Agência Brasil

#INTERNACIONAL

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima