Caso Giovanna Ewbank: saiba identificar e se proteger das deepfakes
A circulação de deepfakes com Giovanna Ewbank acendeu um alerta sobre como se proteger dos perigos de conteúdos falsos
atualizado
Compartilhar notícia

A circulação de deepfakes envolvendo a imagem de celebridades, como a apresentadora Giovanna Ewbank, acendeu um sinal de alerta sobre os perigos da manipulação digital. Utilizando Inteligência Artificial, criminosos simularam a voz e o rosto da atriz para promover tratamentos estéticos que ela afirmou nem conhecer. A prática, além de prejudicar a imagem da influenciadora, enganou milhares de seguidores que confiam na credibilidade de suas publicações.
Diante do impacto crescente desses vídeos falsos, a coluna Claudia Meireles conversou com dois especialistas em tecnologia e marketing de influência, Yuri Tanaka e André Maini. Os experts explicaram o funcionamento dos deepfakes, os riscos envolvidos e como os internautas e os influenciadores podem se proteger desses ataques cibernético.
Entenda
- Em março deste ano, a atriz e influenciadora Giovanna Ewbank foi vítima de deepfake. A esposa de Bruno Gagliasso usou as redes sociais para alertar os seguidores sobre a divulgação de um vídeo falso que utilizava seu rosto e sua voz para promover o uso de botox.
- De acordo com André Maini, especialista em tecnologia e marketing de influência, os deepfakes são criados por inteligência artificial utilizando algoritmos treinados com uma grande quantidade de dados — imagens, expressões e falas — que conseguem imitar com precisão o rosto e a voz de uma pessoa.
- O termo, segundo Yuri Tanaka, surge da junção de “deep learning” (aprendizado profundo) com “fake” (falso).
- No Brasil, ainda não existe um marco legal específico para o uso malicioso de deepfakes. Segundo Tanaka, as legislações existentes para casos como o enfrentado pela influenciadora são as que tangem o uso indevido de imagem, o crime de falsidade ideológica, estelionato ou até os crimes contra a honra, dependendo do teor do conteúdo.
- Para Mainin, a Lei Geral de Proteção de Dados (LGPD) também é uma ferramenta legal capaz de atuar nesses casos. Apesar da falta de uma legislação específica, o expert avalia que já existem projetos de lei em andamento, especialmente por conta do impacto político e publicitário dos deepfakes.
Especialistas oferecem o a o para se proteger de deepfakes
Apesar de existirem ferramentas de machine learning que detectam anomalias em vídeos manipulados, como erros na sincronia labial ou ruídos no áudio, Tanaka destaca que esses recursos ainda são limitados e, muitas vezes, iníveis ao público geral. Outro ponto destacado pelo expert é em relação ao ritmo dos avanços tecnológicos da geração de deepfake, que são mais rápidos que suas contramedidas.
“Por isso, o melhor mecanismo de defesa continua sendo a prevenção. No caso em que o crime atinge a imagem de produtores de conteúdo, é fundamental monitorar redes sociais, contar com uma equipe jurídica preparada e agir com rapidez diante de qualquer suspeita”, adverte.

Quando se trata dos usuários que estão imersos nas redes sociais, André Maini garante que o primeiro o para se proteger desse tipo de crime é criar um esquema de checagem criterioso.
“Cheque se aquele conteúdo realmente saiu dos canais oficiais do influenciador. Outro ponto importante é se manter crítico quanto aos conteúdos que aparecem nas timelines — se algo parecer estranho, é bom investigar. Em um cenário em que qualquer um pode parecer qualquer pessoa, confiança e rastreabilidade viram prioridade”, recomenda André Maini.
No que tange à criação das deepfakes, um dos piores cenários é o uso indevido da imagem para a produção de vídeos falsos com conteúdos de nudez. “Essa é a forma mais grave e traumática de deepfakes.” Infelizmente, esses conteúdos são os mais recorrentes e afetam principalmente mulheres e pessoas públicas”, revela Yuri Tanaka.

Ainda segundo Tanaka, proteger-se desses atentados virtuais não é nada simples.
“Nesses casos, dependemos mais da estrutura que cerca o influenciador ou a pessoa do que, de fato, uma ferramenta tecnológica. O melhor aliado é a educação digital para que as se informem sobre os riscos, os sinais de manipulação e quais procedimentos adotar diante de uma violação. Além disso, é preciso envolver as plataformas digitais, que devem ter responsabilidade na identificação e remoção desses conteúdos”, alerta.
É possível acabar de vez com as deepfakes?
Ao ser perguntado sobre a possibilidade de erradicar totalmente a produção e disseminação das deepfakes, Yuri Tanaka é enfático: é improvável acabar com esse efeito colateral do uso das IAs.

A tecnologia que os permite criar vídeos falsos também tem usos legítimos, como no cinema, na ibilidade e até em projetos educacionais. “A questão está no uso indevido. A saída mais viável envolve um esforço conjunto”, explica.
Para o especialista em marketing de influência, é preciso, por um lado, que haja maior desenvolvimento de tecnologias que detectem deepfakes com mais precisão. “Por outro lado, é mais que necessário a regulamentação clara sobre os limites do uso de IA na criação de conteúdo, penalidades para abusos e diretrizes de transparência”.
As plataformas digitais também precisam estar na vanguarda da solução do problema que envolve as deepfakes. “É urgente que plataformas se comprometam com políticas mais rígidas e ferramentas de denúncia mais eficazes”, esclarece Tanaka.
Para saber mais, siga o perfil de Vida&Estilo no Instagram