Quando as ameaças cibernéticas generativas de IA chegarem, o Wraithwatch estará pronto e aguardando

Paulo Boaventura
55 Views
12 Min Read

A IA generativa já está presente em praticamente todos os setores, gostemos ou não, e a segurança cibernética não é exceção. A possibilidade de desenvolvimento de malware acelerado por IA e ataques autônomos deve alarmar qualquer administrador de sistema, mesmo neste estágio inicial. Wraithwatch é um novo equipamento de segurança que visa combater fogo com fogo, implantando boa IA para combater os maus.

A imagem de agentes de IA justos lutando contra os malvados no ciberespaço já é bastante romantizada, então vamos deixar claro desde o início que não se trata de um combate corpo a corpo no estilo Matrix. Trata-se de automação de software que permite atores mal-intencionados da mesma forma que permite a todos nós.

Funcionários da SpaceX e da Anduril até poucos meses atrás, Nik Seetharaman, Grace Clemente e Carlos Más testemunharam em primeira mão a tempestade de ameaças a que toda empresa com algo valioso a esconder (como aeroespacial, defesa, finanças) está sujeita a qualquer hora.

“Isso vem acontecendo há mais de 30 anos e os LLMs só vão piorar a situação”, disse Seetharaman. “Não há diálogo suficiente sobre as implicações da IA generativa no lado ofensivo do cenário.”

Uma versão simples do modelo de ameaça é uma variação de um processo normal de desenvolvimento de software. Um desenvolvedor trabalhando em um projeto comum pode fazer uma parte do código pessoalmente e depois dizer a um copiloto de IA para usar esse código como guia para fazer uma função semelhante em cinco outras linguagens. E se não funcionar, o sistema pode iterar até funcionar, ou até mesmo criar variantes para ver se alguma tem melhor desempenho ou é auditada mais facilmente. Útil, mas não um milagre. Alguém ainda é responsável por esse código.

Mas pense em um desenvolvedor de malware. Eles podem usar o mesmo processo para criar várias versões de um software malicioso em poucos minutos, protegendo-os dos métodos de detecção “frágeis” de nível superficial que procuram tamanhos de pacotes, bibliotecas comuns e outros sinais reveladores de um malware. ou seu criador.

“É trivial para uma potência estrangeira apontar um worm para um LLM e dizer ‘ei, transforme-se em mil versões’ e depois lançar todas as 1.000 de uma vez. Em nossos testes, existem modelos de código aberto sem censura que ficam felizes em pegar seu malware e transformá-lo na direção que você desejar”, explicou Seetharaman. “Os bandidos estão por aí e não se importam com o alinhamento – você mesmo tem que forçar os LLMs a explorar o lado negro e mapeá-los para saber como você realmente se defenderá se isso acontecer.”

Uma indústria reativa

A plataforma que a Wraithwatch está a construir, e espera estar operacional comercialmente no próximo ano, tem mais em comum com os jogos de guerra do que com as operações tradicionais de cibersegurança, que tendem a ser “fundamentalmente reativas” às ameaças que outros detectaram, disseram. A velocidade e a variedade dos ataques poderão em breve sobrecarregar as políticas de resposta de cibersegurança, em grande parte manuais e orientadas por humanos, que a maioria das empresas utiliza.

Como a empresa escreve em uma postagem no blog:

Novas vulnerabilidades e técnicas de ataque — que ocorrem semanalmente — são difíceis de compreender e mitigar, exigindo uma análise aprofundada para compreender a mecânica de ataque subjacente e traduzir manualmente essa compreensão em estratégias defensivas apropriadas.

“Parte do desafio para as equipes cibernéticas é que acordamos de manhã e aprendemos sobre um dia zero [o nome dado às vulnerabilidades de segurança onde o fornecedor não tem aviso prévio para corrigi-las] – mas no momento em que estamos lendo sobre isso , já existem blogs sobre a nova variação para a qual sofreu mutação”, disse Clemente. “E se você está na SpaceX, na Anduril ou no governo dos EUA, você está recebendo uma nova versão personalizada feita especialmente para você. Não podemos esperar até que alguém seja atingido.”

Embora esses ataques personalizados sejam em grande parte produzidos pelo homem, assim como as defesas contra eles, já vimos o início de ameaças cibernéticas generativas em coisas como o WormGPT . Essa pode ter sido rudimentar, mas é uma questão de quando, e não se, modelos melhorados serão aplicados no problema.

Más observou que os atuais LLMs têm limitações nas suas capacidades e alinhamento. Mas os pesquisadores de segurança já demonstraram como as principais APIs de geração de código, como as OpenAI, podem ser enganadas para ajudar um ator mal-intencionado, bem como os modelos abertos mencionados acima que podem ser executados sem restrições de alinhamento (evitando “Desculpe, não posso criar malware ”-tipo respostas).

“Se você começar a ser criativo na forma como usa uma API, poderá obter uma resposta que talvez não esperasse”, disse Más. Mas é mais do que apenas codificação. “Uma das maneiras pelas quais as agências detectam ou suspeitam quem está por trás de um ataque é ter assinaturas: os ataques que usam, os binários que usam… imagine um mundo onde você pode fazer com que um LLM gere assinaturas como essa. Você clica em um bot e tem uma APT [ameaça persistente avançada, por exemplo, uma empresa de hackers patrocinada pelo estado] totalmente nova.”

É até possível, disse Seetharaman, que as novas IAs do tipo agente treinadas para interagir com múltiplas plataformas de software e APIs como se fossem usuários humanos, possam ser criadas para agir como ameaças semiautônomas para atacar persistentemente e em coordenação. Se a sua equipe de segurança cibernética estiver preparada para combater esse nível de ataque constante, é provável que seja apenas uma questão de tempo até que haja uma violação.

Jogos de guerra

Então, qual é a solução? Basicamente, uma plataforma de segurança cibernética que aproveita a IA para adaptar sua detecção e contramedidas ao que uma IA ofensiva provavelmente lançará sobre ela.

“Fomos muito deliberados sobre ser uma empresa de segurança que faz IA, e não uma empresa de IA que faz segurança. Estivemos do outro lado do teclado e vimos até os últimos dias [em suas respectivas empresas] o tipo de ataques que eles estavam lançando contra nós. Sabemos até onde eles irão”, disse Clemente.

A partir da esquerda, os cofundadores da Wraithwatch Carlos Más, Nik Seetharaman e Grace Clemente. Créditos da imagem: Wraithwatch

E embora uma empresa como a Meta ou a SpaceX possa ter especialistas em segurança de alto nível no local, nem toda empresa pode formar uma equipe como essa (pense em um subcontratado de 10 pessoas para uma empresa aeroespacial principal) e, de qualquer forma, as ferramentas que eles são trabalhar pode não estar à altura da tarefa. Todo o sistema de denúncia, resposta e divulgação pode ser desafiado por agentes mal-intencionados capacitados pelos LLMs.

“Vimos todas as ferramentas de segurança cibernética do planeta e todas elas carecem de alguma forma. Queremos servir como uma camada de comando e controle sobre essas ferramentas, amarrar um fio entre elas e transformar o que precisa ser transformado”, disse Seetharaman.

Ao usar os mesmos métodos que os invasores usariam em um ambiente de sandbox, o Wraithwatch pode caracterizar e prever os tipos de variações e ataques que o malware infundido com LLM poderia implantar, ou pelo menos é o que eles esperam. A capacidade dos modelos de IA de detectar sinais no ruído é potencialmente útil na criação de camadas de percepção e autonomia que podem detectar e possivelmente até responder a ameaças sem intervenção humana – para não dizer que é tudo automatizado, mas o sistema poderia se preparar para bloquear um centenas de variantes prováveis de um novo ataque, por exemplo, tão rapidamente quanto seus administradores desejam executar patches para o original.

“A visão é que existe um mundo onde quando você acorda se perguntando se já foi violado, mas o Wraithwatch já está simulando esses ataques aos milhares e dizendo aqui estão as mudanças que você precisa fazer , e automatizando essas mudanças na medida em que possível”, disse Clemente.

Embora a pequena equipe tenha “vários milhares de linhas de código” no projeto, ainda é o começo. Parte do argumento, no entanto, é que, por mais certo que seja que atores mal-intencionados estejam explorando esta tecnologia, as grandes corporações e os Estados-nação provavelmente também o estarão – ou, pelo menos, é saudável assumir isso, em vez de o oposto. Uma startup pequena e ágil, composta por veteranos de empresas sob séria ameaça, armada com uma pilha de dinheiro de capital de risco, poderia muito bem ultrapassar a concorrência, estando livre da habitual bagagem corporativa.

A rodada inicial de US$ 8 milhões foi liderada pelo Founders Fund, com a participação da XYZ Capital e Human Capital. O objetivo é colocá-lo para funcionar o mais rápido possível, pois neste momento é justo considerá-lo uma corrida. “Como viemos de empresas com cronogramas agressivos, o objetivo é ter um MVP resiliente com a maioria dos recursos implantados para nossos parceiros de design no primeiro trimestre do próximo ano”, com um produto comercial mais amplo chegando até o final de 2024, disse Seetharaman.

Pode parecer um pouco exagerado falar sobre agentes de IA sitiando segredos dos EUA em uma guerra secreta no ciberespaço, e ainda estamos muito longe dessa sinopse específica de suspense de aeroporto. Mas um grama de preparação vale muita cura, especialmente quando as coisas são tão imprevisíveis e rápidas como no mundo da IA. Esperemos que os problemas sobre os quais Wraithwatch e outros alertam ainda demorem pelo menos alguns anos – mas, entretanto, está claro que os investidores pensam que aqueles que têm segredos a proteger irão querer tomar medidas preventivas.

Fonte: techcrunch
Tradução e Revisão: Paulo Boaventura

Share This Article
Leave a review

Leave a review

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *