09 / 08 / 2018

DeepLocker: Quando o malware transforma a inteligência artificial em uma arma

tecnologia

DeepLocker: Quando o malware transforma a inteligência artificial em uma arma

No futuro, seu rosto pode se tornar o gatilho para a execução de malware.

A AI pode ser usada para detectar e combater malware automaticamente, mas isso não significa que os hackers também possam usá-lo em seu benefício.

A segurança cibernética, em um mundo cheio de sistemas em rede, coleta de dados, dispositivos da Internet das Coisas (IoT) e mobilidade, tornou-se uma corrida entre os chapéus brancos e os agentes de ameaça.

As soluções tradicionais de segurança cibernética, como o antivírus bolt-on, não são mais suficientes. Os ciberatautas estão explorando todas as vias possíveis para roubar dados, infiltrar-se em redes, interromper sistemas críticos, lavar contas bancárias e exigir resgate de empresas.

O aumento dos ataques patrocinados pelo Estado também não ajuda.

Pesquisadores de segurança e equipes de resposta são frequentemente pressionados para acompanhar tentativas de ataques constantes, bem como gerenciamento de vulnerabilidades e patches em um momento em que a computação está se tornando cada vez mais sofisticada.

A inteligência artificial (IA) tem sido apontada como uma solução em potencial que pode aprender a detectar comportamentos suspeitos, impedir ataques cibernéticos e tirar parte da carga de trabalho das equipes humanas.

No entanto, a mesma tecnologia também pode ser usada por agentes de ameaças para aumentar seus próprios métodos de ataque.

Segundo a IBM, a "era da IA" poderia resultar em inteligência artificial armada. Para estudar como a inteligência artificial poderia um dia se tornar uma nova ferramenta no arsenal de agentes de ameaças, a IBM Research desenvolveu uma ferramenta de ataque baseada em inteligência artificial.

Apelidado de DeepLocker, o malware com tecnologia AI é "altamente direcionado e evasivo", segundo a equipe de pesquisa.

O malware, transportado por sistemas como o software de videoconferência, está inativo até chegar a uma vítima específica, identificada por fatores como reconhecimento facial, geolocalização, reconhecimento de voz e, potencialmente, análise de dados coletados de fontes como rastreadores on-line e mídia social.

Uma vez que o alvo tenha sido adquirido, o DeepLocker lança seu ataque.

"Você pode pensar nessa capacidade como semelhante a um ataque de franco-atirador, em contraste com a abordagem" spray and pray "do malware tradicional", diz a IBM. "Ele foi projetado para ser furtivo e voar sob o radar, evitando a detecção até o último momento em que um alvo específico foi reconhecido."

O modelo DNN (Deep Neural Network) do DeepLocker estipula "condições de disparo" para executar uma carga útil. Se essas condições não forem atendidas - e o alvo não for encontrado -, o malware permanecerá bloqueado, o que, segundo a IBM, torna o código malicioso "quase impossível de fazer engenharia reversa".

Encontrar um alvo, disparar uma chave e executar uma carga útil pode trazer à mente um modelo de programação "se isto e aquilo". No entanto, o modelo AI DNN é muito mais complexo e difícil de decifrar.

Para demonstrar o potencial do DeepLocker, os pesquisadores de segurança criaram uma prova de conceito (PoC) na qual o ransomware WannaCry estava oculto em um aplicativo de videoconferência. O malware não foi detectado por mecanismos antivírus ou sandbox.

O modelo de IA foi então treinado para reconhecer a face de um indivíduo selecionado para o teste e, uma vez detectado, a condição de disparo seria atendida e o ransomware executado.

"O que torna este malware com inteligência artificial particularmente perigoso é que, como funciona o malware de estado-nação, ele pode infectar milhões de sistemas sem ser detectado, apenas liberando sua carga maliciosa para alvos especificados que o operador de malware define", disse a equipe de pesquisa. adicionado.

Felizmente, esse tipo de ameaça cibernética não foi usado ativamente - ainda. No entanto, o DeepLocker foi criado para entender como a IA poderia ser anexada às técnicas atuais de malware e pesquisar quais ameaças a empresa e os consumidores podem enfrentar no futuro.

Mais do Blog
Orçamento Online