Ferramenta open source com IA é usada em ataques contra dispositivos FortiGate
Uma plataforma ofensiva baseada em inteligência artificial, batizada de CyberStrikeAI, vem sendo explorada em uma campanha em larga escala contra appliances Fortinet FortiGate, resultando no comprometimento de mais de 600 dispositivos distribuídos em 55 países. A operação, altamente automatizada, combina varreduras de internet, exploração de falhas conhecidas e coordenação de múltiplas ferramentas por meio de modelos de IA generativa.
A investigação técnica foi conduzida por especialistas da Team Cymru, a partir da análise de um endereço IP vinculado à campanha (212.11.64[.]250), utilizado para realizar buscas massivas por appliances FortiGate vulneráveis expostos à internet. A partir desse ponto, foi possível mapear a infraestrutura usada, as ferramentas envolvidas e parte do ecossistema por trás da ofensiva.
Os pesquisadores atribuem a atividade a um agente de ameaça de língua russa, que se valeu de modelos de IA como Claude, da Anthropic, e DeepSeek para automatizar etapas que tradicionalmente dependiam de conhecimento humano especializado. Em vez de um operador executar manualmente cada fase, scripts gerados e orquestrados por IA assumem o trabalho de identificar alvos, explorar vulnerabilidades e manter o controle sobre os equipamentos comprometidos.
A CyberStrikeAI funciona como um verdadeiro framework de automação ofensiva. Desenvolvida em linguagem Go por um programador chinês conhecido pelo pseudônimo Ed1s0nZ, a ferramenta foi concebida para integrar e orquestrar mais de 100 utilitários de segurança voltados a diferentes momentos de um ataque: reconhecimento, exploração, movimentação lateral, escalonamento de privilégios, coleta de dados e validação de impacto.
De acordo com as informações públicas do projeto, a plataforma oferece funcionalidades como descoberta automatizada de vulnerabilidades, análise de cadeias de ataque, organização e recuperação de conhecimento técnico (como playbooks e relatórios), visualização consolidada de resultados e automação de testes ofensivos e de segurança. Na prática, ela reduz a barreira técnica para conduzir operações complexas, permitindo que atacantes menos experientes se apoiem na inteligência artificial para conduzir campanhas avançadas.
Entre 20 de janeiro e 26 de fevereiro de 2026, foram identificados 21 endereços IP distintos executando a CyberStrikeAI. A maior parte dessa infraestrutura encontrava-se em servidores localizados na China, Singapura e Hong Kong, com instâncias adicionais nos Estados Unidos, Japão e Suíça. Esse espalhamento geográfico contribui para dificultar o rastreio da operação e confundir atribuições.
Os dados coletados indicam que mais de 600 appliances FortiGate foram comprometidos globalmente. Os ataques seguiam um fluxo em grande parte autônomo: scripts faziam a varredura da internet em busca de equipamentos expostos, analisavam se eram vulneráveis a falhas conhecidas e, em caso positivo, iniciavam cadeias de exploração sem necessidade de intervenção humana constante. Essa abordagem reduz o tempo entre a descoberta de uma brecha e sua exploração efetiva, ampliando o impacto da campanha.
O perfil público do desenvolvedor da CyberStrikeAI revela que a ferramenta não é um projeto isolado, mas parte de um portfólio explicitamente voltado à exploração ofensiva e ao uso de IA em ciberataques. Entre os projetos associados a ele estão:
– PrivHunterAI – solução que utiliza modelos como DeepSeek, GPT e Kimi para detectar vulnerabilidades de escalonamento de privilégios em sistemas e aplicações.
– ChatGPTJailbreak – conjunto de prompts e técnicas desenhadas para burlar controles de segurança de modelos de IA, forçando-os a gerar conteúdo ou respostas normalmente bloqueadas.
– banana_blackmail – um ransomware escrito em Go, destinado a cifrar arquivos e usar extorsão como mecanismo de monetização.
– InfiltrateX – scanner de vulnerabilidades com foco em vetores de escalonamento de privilégios locais.
– VigilantEye – ferramenta voltada ao monitoramento e identificação de vazamentos de dados sensíveis em bancos de dados e outras fontes.
Esse conjunto de projetos aponta para um interesse consistente na construção de capacidades ofensivas e na manipulação de modelos de IA para fins de ataque, indo além do uso defensivo ou acadêmico normalmente associado a pesquisas de segurança.
Pesquisadores também identificaram conexões indiretas entre o desenvolvedor e organizações ligadas a operações cibernéticas patrocinadas pelo Estado chinês. Uma das entidades citadas é a Knownsec 404, empresa de segurança chinesa que, no ano anterior, sofreu um vazamento de dados de grandes proporções, expondo mais de 12 mil documentos internos.
Os arquivos vazados atribuídos à Knownsec 404 trouxeram à luz uma série de informações sensíveis: ferramentas de hacking utilizadas em operações clandestinas, detalhes de contratos com clientes governamentais, registros telefônicos sul-coreanos supostamente roubados, dados sobre infraestrutura crítica de Taiwan e descrições de campanhas cibernéticas direcionadas a outros países. Essa documentação reforçou a percepção de que a empresa atua, na prática, como um braço contratado para operações estatais de espionagem e intrusão.
Análises realizadas por especialistas em inteligência de domínios apontam que a Knownsec opera alinhada a interesses estratégicos do governo chinês, mantendo relações com o Exército de Libertação Popular (PLA) e com o Ministério de Segurança do Estado (MSS). Nesse contexto, a proximidade técnica ou colaborativa entre o desenvolvedor da CyberStrikeAI e esse ecossistema levanta suspeitas de possíveis vínculos indiretos com operações patrocinadas pelo Estado.
Outro ponto que chamou atenção foi a tentativa recente do desenvolvedor de apagar rastros de sua relação com o China National Vulnerability Database (CNNVD). Investigações indicam que ele removeu menções, em seu perfil e materiais públicos, a um prêmio concedido por esse banco de vulnerabilidades. O CNNVD é administrado pelo Ministério de Segurança do Estado da China, enquanto um outro repositório similar, o CNVD, é mantido por uma estrutura voltada à resposta a incidentes e coordenação técnica no país. A remoção dessas referências é interpretada por pesquisadores como uma tentativa de distanciar sua imagem de instituições associadas ao aparato estatal de cibersegurança e inteligência.
Por que o uso de IA em ataques preocupa tanto?
O caso da CyberStrikeAI ilustra uma mudança importante no cenário de ameaças. Antes, a condução de uma campanha global exigia equipes especializadas, tempo de planejamento e grande esforço manual. Com a integração de IA generativa, partes críticas desse processo podem ser automatizadas: geração de código de exploração, correção de erros em tempo real, adaptação de scripts para diferentes ambientes, priorização de alvos e até o desenvolvimento de novas táticas com base em dados coletados durante o próprio ataque.
Isso significa que atores menos sofisticados podem acessar capacidades que antes estavam restritas a grupos avançados. Ao combinar ferramentas open source com modelos de IA acessíveis, torna-se mais fácil escalar ataques, testar múltiplas vulnerabilidades de forma simultânea e reagir rapidamente a defesas ou bloqueios implementados pelas vítimas.
Ferramentas open source: pesquisa legítima ou arsenal pronto?
Ferramentas ofensivas de código aberto não são novidade. Profissionais de segurança as utilizam há anos para testes de intrusão, validações de segurança e pesquisas acadêmicas. O diferencial da CyberStrikeAI está no grau de automação e na integração nativa com modelos de IA generativa, que atuam como um “cérebro” estratégico do framework.
Esse tipo de solução fica em uma zona cinzenta: de um lado, pode ser usada eticamente, em ambientes controlados, para simular ataques reais e fortalecer defesas; de outro, oferece a criminosos um pacote quase pronto para operações em grande escala. A ausência de mecanismos de limitação de uso ou de verificação de identidade de quem executa a ferramenta torna praticamente impossível impedir que seja apropriada por agentes maliciosos.
Impacto específico em dispositivos FortiGate
Os appliances FortiGate são amplamente utilizados para proteção de perímetro, VPN, filtragem de tráfego e segmentação de redes. Quando comprometidos, tornam-se uma porta de entrada privilegiada para o ambiente interno da organização. Ataques bem-sucedidos contra esses equipamentos podem permitir:
– Interceptação e redirecionamento de tráfego sensível.
– Desativação ou enfraquecimento de políticas de firewall.
– Criação de túneis ocultos para movimentação lateral.
– Implantação de backdoors persistentes.
Em um cenário como o relatado, com mais de 600 equipamentos afetados, as consequências podem incluir espionagem de longo prazo, roubo de dados confidenciais, fraudes financeiras e preparação silenciosa para ataques disruptivos futuros.
O que empresas e equipes de segurança podem fazer
Diante desse tipo de ameaça, apenas controles tradicionais já não são suficientes. Algumas medidas consideradas essenciais incluem:
– Manter patches e atualizações de dispositivos de borda, como firewalls e VPNs, aplicados com prioridade máxima, especialmente para falhas criticamente exploradas.
– Reduzir a exposição de painéis administrativos à internet, utilizando VPNs robustas, listas de controle de acesso e autenticação multifator.
– Implantar monitoramento contínuo de logs de dispositivos de rede e de tentativas de login suspeitas.
– Adotar detecção baseada em comportamento, capaz de identificar atividades automatizadas em larga escala, como varreduras e exploração em massa.
– Realizar testes de intrusão periódicos, preferencialmente conduzidos por equipes independentes, para identificar brechas antes que sejam exploradas.
– Investir em capacitação das equipes para entender o uso ofensivo de IA e simular cenários semelhantes aos observados na campanha com a CyberStrikeAI.
IA defensiva contra IA ofensiva
Se por um lado a inteligência artificial potencializa o ataque, por outro ela pode fortalecer a defesa. Ferramentas de detecção baseadas em IA já são usadas para identificar anomalias, reconhecer padrões de ataque e automatizar respostas iniciais, como o bloqueio de IPs maliciosos ou o isolamento de segmentos de rede afetados.
A tendência é que surja uma espécie de “corrida armamentista algorítmica”, em que atacantes e defensores usem modelos cada vez mais sofisticados para superar um ao outro. Nesse contexto, organizações que demorarem a incorporar IA em suas estratégias de segurança podem ficar em desvantagem significativa diante de adversários que se adaptam rapidamente.
Necessidade de governança e regulação
O caso da CyberStrikeAI também alimenta o debate sobre a responsabilidade de desenvolvedores e plataformas na divulgação de ferramentas poderosas de uso dual (ético ou malicioso). Fala-se cada vez mais em:
– Políticas de divulgação responsável para ferramentas explicitamente ofensivas.
– Mecanismos de verificação mais rígidos para acesso a determinados recursos de IA avançada.
– Diretrizes éticas claras para pesquisa em segurança que envolva automação de ataques.
Embora seja difícil controlar completamente a circulação de código open source, a pressão por maior responsabilidade e transparência tende a aumentar, especialmente quando há suspeitas de vínculo com operações estatais e espionagem internacional.
No fim, a campanha contra dispositivos FortiGate usando a CyberStrikeAI expõe uma realidade incômoda: a inteligência artificial já não é apenas um recurso para análise de ameaças, mas um componente ativo da própria ofensiva cibernética. Organizações que dependem de appliances de rede críticos, como os FortiGate, precisam acelerar a modernização de suas defesas, incorporar monitoramento avançado e considerar que o próximo ataque pode não vir de um humano, mas de uma combinação de scripts e modelos de IA operando em escala global.