Especialistas em segurança digital já tratavam o uso de inteligência artificial por hackers como uma ameaça inevitável, mas o Google afirmou ter encontrado pela primeira vez evidências concretas de IA auxiliando um exploit zero-day. O ataque teria sido preparado para exploração em massa e poderia comprometer sistemas protegidos por autenticação em dois fatores.
Segundo o relatório divulgado pela companhia, criminosos buscavam explorar uma falha lógica em uma ferramenta online de administração de sistemas. A vulnerabilidade permitiria acesso indevido mesmo em ambientes protegidos por 2FA, mecanismo usado justamente para reforçar a segurança de contas corporativas e plataformas críticas.
O alerta divulgado pelo Google marca uma mudança importante no cenário da segurança digital. Até então, empresas de tecnologia vinham discutindo o risco teórico de criminosos utilizarem inteligência artificial para acelerar a descoberta de vulnerabilidades, automatizar invasões e criar ataques mais difíceis de detectar.
Desta vez, porém, a companhia afirma ter encontrado sinais concretos dentro do próprio exploit usado pelos criminosos. O script em Python analisado pelos pesquisadores apresentava padrões considerados incomuns para ferramentas produzidas manualmente por operadores tradicionais.
Segundo o Google Threat Intelligence Group, os indícios incluíam uma estrutura “didática” na organização do código, além de referências técnicas incompatíveis com padrões reais de classificação de vulnerabilidades. Entre elas, apareceu um “score CVSS alucinado”, expressão usada para descrever informações fabricadas ou incorretas geradas por modelos de IA.
O exploit explorava uma falha lógica considerada de alto nível semântico. De acordo com o relatório, o problema estava ligado a uma suposição de confiança implementada no fluxo de autenticação da plataforma afetada.
Na prática, os criminosos conseguiam contornar barreiras de autenticação em dois fatores, tecnologia usada para impedir acessos indevidos mesmo quando senhas são comprometidas.
O Google afirmou que interrompeu a operação antes que o ataque causasse danos e notificou tanto a empresa afetada quanto autoridades responsáveis.
A companhia não revelou qual ferramenta foi alvo do ataque nem quem estava por trás da tentativa de exploração. Também informou não haver indícios de envolvimento estatal no episódio.
O documento divulgado pelo Google aponta que grupos criminosos vêm ampliando o uso de inteligência artificial em diferentes etapas dos ataques digitais. Além da busca automatizada por falhas, hackers também estariam usando IA para refinar payloads e aumentar a eficiência de exploits antes da implantação real.
Segundo o Olhardigital, o relatório menciona ainda o uso de técnicas chamadas de “jailbreaking direcionado por persona”, em que criminosos manipulam modelos de linguagem com prompts específicos para fazer a IA assumir o comportamento de especialistas em segurança ofensiva.
Segundo os pesquisadores, há também sinais de grupos alimentando sistemas de inteligência artificial com grandes bancos de dados de vulnerabilidades conhecidas e repositórios inteiros de falhas de segurança.
O episódio ocorre em um momento de crescimento acelerado de modelos voltados para segurança cibernética. Empresas do setor passaram a desenvolver ferramentas específicas para ajudar equipes defensivas a identificar vulnerabilidades antes que criminosos consigam explorá-las.
Ao mesmo tempo, especialistas alertam que o avanço da IA ofensiva pode ampliar riscos no curto prazo. Isso acontece porque milhões de sistemas vulneráveis seguem ativos globalmente, criando um ambiente favorável para ataques automatizados em larga escala, revelou o G1.
John Hultquist, analista-chefe da divisão de inteligência de ameaças do Google, afirmou que o cenário previsto há anos finalmente começou a se materializar. Segundo ele, a era da exploração de vulnerabilidades impulsionada por inteligência artificial já deixou de ser uma hipótese distante.
O caso segue em monitoramento pelas equipes de segurança do Google, enquanto pesquisadores acompanham novas tentativas de uso de inteligência artificial em operações ofensivas contra sistemas corporativos e plataformas online.
Foto de capa: Solen Feyissa / Unsplash.