Deepfake: o que é, como reconhecer e o que dizem as leis sobre o assunto
Um caso no Reino Unido envolvendo a criação de imagens por inteligência artificial chamou atenção da mídia e da área jurídica
Hugh Nelson, um homem de 27 anos, foi condenado a 18 anos de prisão no Reino Unido por usar inteligência artificial (IA) para criar imagens pornográficas de crianças e vendê-las em grupos de bate-papo na internet. A decisão foi amplamente divulgada na mídia local e mundial e está sendo considerada histórica para as autoridades inglesas, por ser um grande marco no direito envolvendo inteligências artificiais.
Para a criação dessas imagens, ele usou as chamadas deepfakes, uma técnica que permite alterar fotos e vídeos com o auxílio da inteligência artificial. Jeanette Smith, promotora especialista da Unidade de Abuso Sexual Infantil Organizado do CPS, apontou que, neste caso, foram levadas em consideração as leis envolvendo o abuso sexual infantil. Ela reforçou que as regras valem tanto para imagens reais quanto para aquelas criadas artificialmente.
A decisão, sem dúvidas, abriu uma grande discussão sobre a seriedade de imagens produzidas em inteligências artificiais e como regulamentá-las. Filipe Medon, professor da FGV Direito Rio, membro da Associação Brasileira de Governança Pública de Dados Pessoais (govDADOS), da Comissão de Crimes Digitais da OAB/RJ, coordenador de Proteção de Dados e Inteligência Artificial da Comissão de Proteção de Dados e Privacidade da OAB/RJ e integrante da Comissão de Juristas do Senado Federal responsável pela criação da Lei Brasileira de Inteligência Artificial, explica que, hoje, no Brasil, não existem leis específicas sobre deepfakes.
“O que nós temos [de leis a respeito de deepfakes] é apenas uma regulamentação administrativa feita pelo CNJ em relação ao uso dessas tecnologias no contexto eleitoral. Ela foi, inclusive, aplicada nessa última eleição. Mas nós não temos nada específico sobre efeitos em termos de lei”, detalha o profissional.
Índice:
O que é deepfake?
Antes de entender como funciona, hoje, a legislação brasileira no que diz respeito às deepfakes e imagens criadas artificialmente é preciso, primeiramente, entender o que elas são.
Basicamente, as deepfakes são técnicas que utilizam a inteligência artificial para manipular imagens e sons, criando vídeos com situações irreais. Por meio dessa técnica é possível, por exemplo, mudar o trocar o rosto de uma pessoa por outra em um vídeo ou, até mesmo, mudar o que ela está falando.
Normalmente, o material falso é criado a partir de conteúdos verdadeiros que são modificados para uma realidade diferente. Isso é feito por meio de programas e aplicativos.
O uso da ferramenta para criar vídeos pornográficos com rostos de outras pessoas não é novidade e já é uma preocupação. Uma pesquisa da Sensity, publicada em 2020, indicou que nudes falsos de mais de 100 mil mulheres, criados por meio dessas ferramentas, estavam sendo compartilhados na internet.
Deepfake e as leis brasileiras
Apesar de não existir, atualmente, uma legislação específica para imagens criadas artificialmente no Brasil – a não ser em contextos eleitorais – isso não significa que os crimes relacionados a essa prática não sejam punidos.
“No caso de imagens criadas a partir de deepfakes, a gente pode aplicar as normas gerais sobre direito à imagem, especialmente o artigo 20 do Código Civil, que diz que a imagem de uma pessoa pode ser violada quando utilizada sem a sua autorização salva. Aplicando para os casos de deepfakes, ela diz basicamente que você não pode criar uma imagem falsa, da mesma forma como não pode usar a imagem de uma pessoa sem que haja uma autorização por parte dela, ou uma exceção legal que permita a utilização dessa imagem. Então não muda nada em relação ao que já existe hoje em dia para o uso da imagem regular”, explica.
O advogado reforça que esse tipo de mudança de imagem usando a tecnologia já existia antes da vinda das inteligências artificiais, com montagens, por exemplo. A novidade principal vinda com essas tecnologias é em relação à facilidade e ao grau de aperfeiçoamento que elas conseguem trazer.
Caiu na rede, a coisa muda
Quando as imagens falsas criadas caem na rede, a realidade muda um pouco. Filipe Medon explica que quando uma pessoa é lesada por meio de uma imagem e esta imagem é compartilhada na internet, existe uma outra lei que ela pode recorrer.
“Com base no Artigo 19 do Marco Civil da Internet, a pessoa lesada pode pedir a remoção deste conteúdo de forma mais ágil. Assim, as plataformas são obrigadas a retirar a imagem. A pessoa lesada pode até pedir diretamente às plataformas para retirarem a imagem do ar, mas as empresas podem escolher fazê-lo ou não, quando a Justiça está envolvida e essa lei aplicada, no entanto, as empresas são obrigadas a retirar o conteúdo do ar”, detalha o advogado.
Apesar de existirem possibilidades, hoje, de recursos a serem tomados após a criação de deepfakes, o professor reforça que não considera que as leis brasileiras conseguem abraçar completamente a criação de imagens por inteligências artificiais.
“É preciso ter leis específicas, sobretudo leis que imponham em algum grau o uso de algum tipo de marca d’água para sinalizar que aquela imagem foi alterada ou criada artificialmente. Esse símbolo não precisa ser necessariamente uma marca d’água na definição literal, mas pode ser qualquer outra medida técnica que permita identificar e rastrear, especialmente por conta dos perigos relacionados à desinformação. É importante discutirmos cada vez mais obras criadas artificialmente, para definirmos regras cada vez mais claras sobre seu uso, envolvendo múltiplos atores nessa discussão, afinal, é uma tecnologia que tem impactos em vários setores”, reforça.
Ele adiciona, ainda, que, além de uma questão a respeito de uso de imagem pessoal indevida, existe também a discussão de direitos autorais destas imagens. “Precisamos lembrar que quando uma deepfake é criada, ela pode ter sido feita com conteúdos que podem ser protegidos por direitos autorais. Então é preciso muita conversa e mudanças na constituição para conseguir abraçar todas essas novidades”, conclui.
Como reconhecer uma deepfake
Enquanto regras relacionadas a marcações de imagens criadas por inteligências artificiais ainda estão sendo desenvolvidas, é importante entender como reconhecer uma deepfake. O reconhecimento, hoje em dia, pode ser muito complicado, uma vez que essas tecnologias estão cada vez mais aprimoradas, apesar disso, existem algumas dicas que podem te ajudar a olhar para as imagens e entender se elas são reais ou alteradas.
A primeira dica ao olhar um vídeo ou imagem suspeita que recebeu é procurar por inconsistências, como piscadas não naturais, movimentações estranhas, expressões faciais desalinhadas, entre outros. Isso porque os programas que criam deepfakes tendem a ter uma certa dificuldade em relação aos detalhes, como movimento dos olhos, sincronização labial, jogo de luz e sombras no rosto, etc.
Outra dica é prestar atenção no áudio: muitas vezes, as vozes podem parecer levemente robóticas, com entonações diferentes e palavras pronunciadas erradas.
E, claro, sempre que receber uma informação, seja em texto, vídeo, ou foto, cheque em fontes confiáveis antes de sair compartilhando por aí, para evitar disseminar desinformação ou fake news.