Anúncios fraudulentos com “deepfake” são isca para golpes

Diante da presença constante de publicidade entre as publicações que aparecem nas redes sociais, mantenha a desconfiança diante de tudo o que pareça
Representação de homem usando isca para notícias falsas.

Se tiver caído em um golpe, municie-se de prints de telas e e-mails que sirvam como prova


Montagens feitas com uso de inteligência artificial usam rosto e voz de pessoas famosas em vídeos publicados em redes sociais, atraindo os consumidores para falsas promoções


Um dos chefs de cozinha mais conhecidos do País, dono de um restaurante com reconhecimento internacional, desponta sem avisar em um vídeo no seu feed, enquanto você se distrai em uma rede social. Ele aparece em uma bela cozinha ao lado de uma vistosa batedeira planetária, com corpo vermelho em estilo vintage e traz uma notícia em primeira mão: para comemorar um certo número de unidades comercializadas, a fabricante resolveu presentear os primeiros 200 interessados com exemplares vendidos a módicos R$ 200, menos de 10% do preço de um aparelho novo. Mas é preciso ser rápido, os eletrodomésticos devem se esgotar logo e o pagamento só pode ser feito por Pix.

O apelo de uma promoção como essa é enorme e, com medo de ficar de fora de uma oportunidade imperdível, você não hesita em clicar em “Saiba Mais”. Em poucos cliques, você preenche um cadastro e é direcionado para o aplicativo do seu banco. Não há nada a temer, afinal a oferta-relâmpago conta com o aval do chef-celebridade.

Essa história é real e não tem um final feliz: era um golpe. Que colou, graças ao indiscutível prestígio do chef em questão. Só que ele não havia participado de campanha nenhuma. O anúncio exibido na rede social havia sido produzido com deepfake, uma técnica que permite aplicar a imagem do rosto e a voz de uma pessoa em um vídeo, por meio de programas de inteligência artificial (IA). Essa técnica, que pode ter resultados muito críveis para os desavisados, vem ganhando espaço na internet em montagens abertamente satíricas, feitas para o entretenimento. Mas também pode ser usada para fins ilícitos, como meio para a prática de crimes como estelionato e difamação.

E o emprego mal-intencionado de deepfakes vem crescendo a olhos vistos. Um relatório da empresa de verificação de identidade Onfido calculou que, no ano passado, os golpes com a manipulação digital de rostos e vozes de pessoas tiveram um salto de 3.000% em relação a 2022. “Os crimes cometidos por meios digitais acompanham a evolução das tecnologias. Algumas dessas fraudes são mais fáceis de identificar, mas outras são sofisticadas e convincentes. Nos tempos atuais, todo cuidado é pouco: é preciso desconfiar para, depois, confiar”, afirma Fábio Diniz, presidente do INCC (Instituto Nacional de Combate ao Cibercrime).

Embora esse seja um problema relativamente recente, o uso criminoso da IA já vem chamando a atenção das casas legislativas. Há diversos projetos de lei em tramitação que buscam reprimir condutas desse tipo. Eles propõem a criação de tipos penais ou de circunstâncias agravantes da pena, para endurecer a repressão aos crimes contra a honra que usem a IA e a divulgação de fake news nas campanhas eleitorais. Essas atualizações do ordenamento jurídico são importantes, mas não bastam. A internet é um campo fértil para que golpistas atuem sem controle e, por isso, os consumidores precisam se proteger. 

Diante da presença constante de publicidade entre as publicações que aparecem nas redes sociais, mantenha a desconfiança diante de tudo o que pareça vantajoso demais ou urgente: preços muito abaixo da média do mercado, mercadorias prestes a se esgotar. Em vez de clicar no próprio anúncio, entre no site original da empresa pelo seu navegador. Evite fazer pagamentos fora do próprio site em que o produto foi escolhido.

Ainda que os vídeos criados com deepfake estejam cada vez mais sofisticados, há alguns sinais característicos que os denunciam. Desconfie se, ao longo do vídeo, notar oscilações na iluminação, variações no tom da pele da pessoa ou movimentos bruscos. Lábios mal sincronizados com a fala e olhos que piscam de forma estranha (ou jamais piscam, mesmo em um vídeo longo) são outros sinais suspeitos.

E se tiver caído em um golpe, municie-se de prints de telas e e-mails que sirvam como prova. Faça contato com o banco para comunicar o ocorrido e tentar cancelar a transação, anotando todos os números de protocolo. E registre a ocorrência em uma delegacia.

🌐  🌐  🌐

Sobre o Instituto Nacional de Combate ao Cibercrime – INCC
O Instituto Nacional de Combate ao Cibercrime (INCC) foi fundado em 2023 com o propósito de colaborar para a promoção de um ambiente digital mais seguro para todos. Com atuação apartidária e independente na construção de projetos, pesquisas, parcerias e ações de advocacy, tem o compromisso de promover conscientização, prevenção e respostas eficazes a ameaças digitais, capazes de garantir o efetivo enfrentamento dos problemas relacionados à cibersegurança e aos cibercrimes no Brasil. O instituto tem firmadas alianças estratégicas e cooperações técnicas com entidades nacionais e internacionais que atuam na temática da segurança cibernética, no combate a crimes digitais e às organizações criminosas. Entre elas estão: Gabinete de Segurança Nacional da Presidência da República (GSI), Polícia Federal, Polícia Militar do Estado de São Paulo, Polícia Civil da Cidade de São Paulo, Universidade de São Paulo, FIESP, FecomercioSP, Febraban, CNI, Abrasca, (International Chamber of Commerce (ICC), entre outras. Mais informações no site.

Enviar um comentário

Comentários