top of page

ChatGPT - Como a IA está sendo usada em ataques cibernéticos?


Já é de conhecimento geral que os hackers estão empregando a inteligência artificial em suas atividades. Muitas empresas estão atualmente restringindo o uso do ChatGPT. Nós acreditamos que a IA generativa pode potencializar a eficiência e a criatividade de seus colaboradores em medidas que ultrapassam as capacidades das ferramentas convencionais, como computadores pessoais, Internet e dispositivos móveis.


IA generativa: é um tipo de sistema de IA capaz de gerar texto, imagens ou outras medias em resposta a solicitações em linguagem comum.


A Audere disponibiliza soluções que habilitarão seus funcionários a aproveitar o potencial de ferramentas como o ChatGPT, ao mesmo tempo, em que garantem a segurança e a proteção dos dados críticos de sua organização.


Uma variedade de IA generativas pode ser aplicada em diversos tipos de ataques cibernéticos, e a sinergia de múltiplos tipos pode ampliar a complexidade desses ataques, tornando-os mais desafiadores de identificar. Neste contexto, iremos apresentar neste blog as distintas modalidades de IA generativa e fornecemos exemplos específicos de como elas podem ser usadas em ataques cibernéticos:


Os diferentes tipos de IA generativa e como cada um deles poderia ser usado em ataques cibernéticos?


1. IA generativa baseada em texto: Ataque: phishing avançado e spear-phishing


Exemplo: Um atacante emprega um sistema de IA de geração textual para conceber e-mails de phishing altamente contextualizados e individualizados, que se apresentam de maneira convincente como provenientes do CEO de uma organização. Esses e-mails são encaminhados aos colaboradores, induzindo-os ao erro, levando-os a divulgar dados sensíveis ou efetuar transferências de fundos para a conta do invasor.


2. IA generativa baseada em vídeo (Deepfakes): Ataque: Desinformação e danos à reputação


Exemplo: Um atacante desenvolve um vídeo deepfake que aparenta exibir o executivo de uma corporação confessando atos fraudulentos ou comportamentos antiéticos. Este vídeo é divulgado na internet, resultando em sérios danos à reputação da empresa e provocando impactos adversos no valor de suas ações.


3. IA generativa baseada em áudio (síntese de voz): Ataque: phishing de voz (vishing) e personificação


Exemplo: Um invasor faz uso da síntese vocal gerada por IA para representar o CFO de uma organização em uma chamada telefônica, orientando um colaborador do setor financeiro a realizar uma transferência de fundos para uma conta externa, sob a falsa premissa de um pagamento de fatura legítimo.


4. IA generativa baseada em gráficos (GANs para síntese de imagens): Ataque: Criação de identidades falsas para engenharia social


Exemplo: Um invasor emprega uma Rede Adversarial Generativa (GAN) para produzir imagens fictícias de indivíduos que não existem e usa essas imagens para criar perfis fraudulentos em plataformas de mídia social. Esses perfis são então utilizados para estabelecer laços de confiança com os funcionários de uma empresa, com o intuito de coletar informações para um ataque específico ou influenciá-los a revelar dados confidenciais.




A combinação de dois ou mais tipos de IA generativa pode ampliar a eficácia dos ataques cibernéticos:


Ataque: Deepfake multimodal (vídeo e áudio)


Exemplo: um invasor desenvolve um vídeo deepfake que retrata um executivo corporativo emitindo um anúncio falso de situação de emergência. Este vídeo é complementado com a síntese de voz gerada por IA para sincronizar o áudio com a voz do referido executivo. O invasor, então, dissemina o vídeo entre os colaboradores por meio de e-mails ou plataformas de redes sociais, iludindo-os a adotar medidas que ponham em risco a segurança da empresa ou resultem em prejuízos financeiros.


Ataque: Campanha coordenada de desinformação (texto, imagens, vídeo, áudio)


Exemplo: um invasor promove uma estratégia meticulosa de desinformação dirigida a uma empresa, valendo-se de inteligência artificial para criar conteúdo em formato de texto, imagens, vídeos e áudio. Esse conteúdo artificial é empregado na fabricação de notícias falsas, publicações em redes sociais e materiais multimídia. Essa campanha dissemina informações incorretas a respeito da empresa, resultando em prejuízos à sua reputação, perda de clientes e desvalorização de suas ações.


Conclusão


Conforme a inteligência artificial generativa evolui em sofisticação, é fundamental que as empresas estabeleçam medidas de segurança sólidas e proporcionem treinamento aos seus colaboradores sobre os possíveis perigos relacionados ao conteúdo produzido pela IA. Isso implica em realizar investimentos em tecnologias de proteção impulsionadas pela IA, instruir os funcionários na identificação de diferentes formas de ataques, e cultivar uma cultura de segurança sólida dentro da organização.


Sobre a Audere


A Audere é a empresa líder em segurança cibernética de proteção de usuários e dados, encarregada de proteger as organizações enquanto impulsiona a transformação e o crescimento digital. Nossos serviços e soluções de grandes fabricantes em ciber segurança se adaptam em tempo real à forma como as pessoas interagem com os dados, fornecendo acesso seguro ao ambiente de rede corporativo.


Proteja-se com quem entende do seu negócio!

Venha agora mesmo aderir a Audere!

☎️ (11) 4063-2655

✉️ vendas@audere.com.br

65 visualizações0 comentário

Commentaires


bottom of page