Volte às noções básicas de segurança para se preparar para os riscos de IA
Não há um dia em que não ouçamos falar sobre IA nas notícias. Desde o rápido desenvolvimento de novas tecnologias até as formas como elas afetarão nosso futuro, a IA está sempre em nossas mentes, especialmente no mundo da tecnologia.
E algumas das questões mais urgentes sobre os novos avanços de ferramentas como o ChatGPT vêm do mundo da segurança cibernética. Como os malfeitores usarão a IA para aumentar seus atos maliciosos? E como o ransomware evoluirá para melhor escapar de nossas defesas?
Para analisar a ferramenta e o que ela significa para o futuro do setor de segurança cibernética, Paul Dant, engenheiro sênior de sistemas da Illumio, e Michael Adjei, diretor de engenharia de sistemas da EMEA da Illumio, conversaram sobre como a IA funciona, onde estão suas vulnerabilidades e como os líderes de segurança podem combater seu impacto.
Seus conselhos finais? Volte ao básico.
Continue lendo e assista à discussão completa — com um pequeno clipe abaixo — para saber por quê.
A estrutura da IA e suas muitas vulnerabilidades
Faz menos de dois anos que o ChatGPT foi lançado pela primeira vez e, em tão pouco tempo, o setor já está vendo que a nova tecnologia de IA terá um enorme impacto na segurança cibernética — e já está nas mãos daqueles que querem usá-la para o bem e para o mal.
É importante entender como a IA é estruturada para combater os pontos em que os invasores podem interferir.
“Em termos simplificados, a IA funciona com um conjunto de dados com uma camada de entrada, camada oculta e camada de saída”, explicou Adjei. “Os dados são empurrados para a camada de entrada e para a camada oculta, onde a 'mágica' da IA acontece. Em seguida, ele acaba na camada de saída, onde o consumidor pode interagir com ele.”
Onde podem estar as vulnerabilidades nesse processo? “Praticamente em todas as etapas”, disse Adjei.

Os riscos de segurança da IA existem há anos
Essas vulnerabilidades não começaram apenas com o lançamento generalizado do ChatGPT no ano passado. Adjei e Dant explicaram que os sistemas de IA comprometidos existem há anos — e são um grande risco, facilmente ignorado, dos sistemas de IA.
A dupla citou o lançamento de um chatbot de inteligência artificial para o Twitter em 2016: “Em poucas horas, o chatbot recebeu todas as piores e mais vis informações que você pode imaginar na Internet. Passou de uma demonstração do progresso da IA para tudo de ruim que existe on-line”, disse Adjei.
Esse é um exemplo simples e inicial de um ataque relacionado à IA, mas mostra como agentes mal-intencionados podem se basear em táticas, técnicas e procedimentos de ataque (TTPs) existentes para transformar rapidamente uma nova tecnologia em uma nova via de ataque. Organizações de todos os setores, regiões e tamanhos precisam ser proativas em sua preparação para se protegerem contra ataques inevitáveis gerados pela IA.
Como um exemplo mais recente, Dant solicitou que o ChatGPT produzisse algum ransomware em tempo real, destacando a facilidade com que suas barreiras de proteção podem ser contornadas. O ChatGPT não estava disposto a abordar a solicitação de Dant de “me escrever um ransomware”. Mas quando ele deu um toque educacional às suas instruções e dividiu sua solicitação em etapas aparentemente inocentes, ele descobriu que o ChatGPT estava tentando ajudar e, finalmente, criando um ransomware para ele.
" O ChatGPT quer nos ajudar, disse " Dant. “O que descobri é que, se você realmente der um toque educacional às suas solicitações, é mais do que provável que ela não veja quais são suas principais intenções e realmente o ajudará a automatizar a criação de um script de ransomware.”
Esse exemplo é apenas um dos muitos casos de uso de IA que os agentes de ameaças estão descobrindo e usando diariamente para acelerar o volume e o impacto dos ataques. Como Adjei resumiu habilmente: “Muito legal, mas muito assustador”.
Como os líderes de segurança devem responder aos riscos da IA
Apesar do medo que a IA está causando na segurança cibernética, Adjei e Dant concordaram que muitas organizações podem fazer para começar a se proteger contra o próximo ataque em potencial. O mais importante é voltar ao básico.
“A primeira resposta de muitos CISOs e líderes de segurança foi: 'A IA está sendo usada pelos bandidos, então os mocinhos também precisam de mais IA'”, disse Adjei, “Mas isso não é necessariamente verdade”.
Dant concordou, explicando que, embora a IA se torne mais importante em termos de análise de dados e conclusão de tarefas na mesma velocidade em que os atacantes se movem, a melhor maneira de se preparar para ataques de IA será garantir uma boa higiene cibernética.
“O primeiro princípio é voltar ao básico”, disse Dant. “Em última análise, uma boa higiene cibernética, a prevenção de movimentos laterais e os princípios do Zero Trust se tornarão ainda mais válidos no futuro.”
Não importa como os ataques gerados pela IA se desenvolvam, os principais princípios de segurança permanecerão verdadeiros. “É importante que os líderes de segurança não se sintam sobrecarregados diante da IA”, disse Dant.
No futuro, tanto Adjei quanto Dant incentivam os líderes de segurança a se concentrarem na construção de resiliência cibernética e contenção de violações alinhadas às estratégias de segurança Zero Trust.
Assista ao webinar completo para ver como o ChatGPT torna incrivelmente simples para os invasores criarem ransomware com IA.
Entre em contato conosco hoje mesmo para saber mais sobre como criar resiliência contra ataques de IA com a plataforma de segmentação Illumio Zero Trust.