retornar retornar
Descodificação de ameaças cibernéticas  para 2023

POR:
Equipe IDi

COMPARTILHAR

Twitter Facebook Linkedin
Referências

- 24 milhões de euros roubados em
um golpe de inteligência artificial (El Confidencial)
https://www.elconfidencial.com/tecnologia/
- Messi Messages (PepsiCo Inc.)
- Sora (OpenAI)

Deepfake: Engano e perda de 20 milhões de euros

"Um funcionário de uma empresa financeira de Hong Kong transferiu recentemente 23,7 milhões de euros para o que ele acreditava ser a subsidiária de sua empresa no Reino Unido." É assim que começa a história do jornal El Confidencial. Em uma primeira abordagem a esse parágrafo, podemos considerar que a falta de planos de conscientização de segurança foi a principal causa, e novamente vemos a exploração do "elo mais fraco".

Continue lendo: "Os fraudadores usaram a tecnologia Deepfake para se passar pelo diretor financeiro e outros colegas em uma videoconferência, segundo a polícia de Hong Kong." "

A análise do que aconteceu explica que um funcionário recebeu uma mensagem pelo correio do "diretor financeiro" da subsidiária do Reino Unido, a qual solicitava uma transferência de dinheiro "secreta". O funcionário, então, bem treinado quanto à possibilidade de estar nas mãos de um possível criminoso cibernético, desconfiou da transação solicitada e, naturalmente, pediu uma ligação para confirmação. Foi aí que a pessoa viu e conversou com o "CEO" e outros funcionários que também estavam na chamada de vídeo, conseguindo reconhecer a aparência e o tom de voz de seus colegas. Depois que a operação foi validada, mais de 23 milhões de euros foram transferidos.

Imagem de uma reunião gerada com um serviço gratuito usando um único prompt e sem preparação


Deepfake

Deepfake é uma técnica avançada de inteligência artificial que permite a criação ou a manipulação de conteúdo multimídia, como vídeos ou áudios, para fazer com que uma pessoa pareça dizer ou fazer algo que nunca aconteceu de fato. Geralmente usando recursos como redes neurais e algoritmos de aprendizagem profunda, os modelos são treinados com grandes volumes de dados visuais e auditivos para imitar a aparência, a voz e os gestos de indivíduos específicos com um alto grau de realismo.



Desafio para as organizações

Do ponto de vista da segurança cibernética, os Deepfakes representam um desafio significativo devido ao seu potencial para disseminar a desinformação, comprometer a autenticidade das informações e realizar atividades mal-intencionadas, como atividades fraudulentas como a descrita acima, mas também com um enorme escopo para a manipulação de eventos políticos e sociais.

A detecção eficaz de Deepfakes e a educação dos usuários sobre sua existência e riscos associados são pontos importantes para mitigar seu impacto negativo, embora controles compensatórios também devam ser considerados para simplesmente reduzir o risco associado a essa tecnologia.

Quanto aos riscos decorrentes do uso indevido dessas tecnologias, podemos encontrar:

Falsa identidade: imitar a voz ou a imagem de pessoas importantes da organização, como executivos ou administradores de sistemas, para autorizar transações fraudulentas, divulgar informações confidenciais ou manipular funcionários para que realizem ações comprometedoras.

Desinformação e manipulação: A criação de conteúdo falso que pareça autêntico pode prejudicar a reputação da organização, manipular as percepções do mercado, desestabilizar as ações da empresa ou espalhar falsidades sobre produtos e serviços, afetando a confiança do cliente e as relações com investidores.

Spear-phishing: seu uso em campanhas de phishing representa um nível de personalização e realismo que pode enganar até mesmo usuários tecnicamente sofisticados, aumentando a eficácia desses ataques para obter credenciais de login, informações financeiras ou dados confidenciais.

Riscos legais e de conformidade: a circulação de Deepfakes envolvendo a organização ou seus funcionários pode levar a implicações legais, incluindo litígios por difamação, violações de direitos autorais ou não conformidade com as normas de privacidade e proteção de dados.

Espionagem corporativa: em setores críticos ou organizações que trabalham em áreas de interesse nacional, os Deepfakes podem ser usados por agentes estatais ou concorrentes para espionagem corporativa ou até mesmo para desestabilizar ou influenciar processos democráticos e decisões políticas.

Alteração de provas e registros: Os deepfakes podem ser empregados para alterar evidências visuais ou auditivas em investigações legais ou internas, tornando complexa a atribuição de responsabilidade e a aplicação da justiça.

Impacto na autenticação biométrica: à medida que as técnicas de Deepfake se tornam mais sofisticadas, há o risco de que elas possam ser usadas para burlar sistemas de segurança baseados em reconhecimento facial ou de voz, comprometendo o controle de acesso a infraestruturas de informações essenciais.

Algumas conclusões

Os planos de conscientização devem incluir um foco no uso indevido da tecnologia Deepfake. O caso mencionado não é mais uma novidade, é apenas mais um que se soma a outros semelhantes no ambiente, podemos saber que seu uso é cada vez mais provável devido à grande quantidade de recursos tecnológicos disponíveis, não é necessário analisar grandes estatísticas para perceber isso quando temos esse tipo de tecnologia disponível para enviar uma saudação aos nossos amigos do Messi.

Gerador de mensagens personalizadas on-line em nome de Leonel Messi (disponível em fevereiro de 2024)


Recentemente, a OpenIA compartilhou o progresso de um novo desenvolvimento que permite a geração de conteúdo multimídia a partir de instruções de texto. Além de seu incrível avanço, podemos observar, no contexto desta publicação, os riscos associados.

Cena de um homem lendo um livro sentado em uma nuvem gerada com o SORA (OpenAI)


Em suma, podemos dizer que, para realmente mitigar os riscos associados à tecnologia Deepfake, como para a maioria dos riscos, é importante adotar uma abordagem multifacetada que inclua também outros elementos, desde a atualização das políticas de segurança até o investimento em soluções de inteligência artificial que possam identificar anomalias e assinaturas específicas de Deepfake, sendo que esta última nem sempre está ao alcance, mas elementos simples, como a revisão de processos para incluir alguma forma de validação ou verificação adicional e autenticação de fontes de informação, podem ser considerados.

Também é importante mencionar uma cultura de segurança dentro da organização que promova a vigilância e o ceticismo saudável em relação a conteúdos suspeitos.

A colaboração com outras empresas e órgãos reguladores para compartilhar conhecimento e práticas recomendadas também pode ajudar a criar um ambiente mais seguro contra as ameaças representadas pelos Deepfakes.