Pesquisadores da empresa de segurança Radware alertaram sobre o possível uso de recursos do ChatGPT para roubar informações confidenciais de contas do Gmail.
A falha foi detalhada em relatório divulgado nesta semana e expôs riscos associados ao uso de agentes de inteligência artificial.
De acordo com o documento, criminosos conseguiram manipular o Deep Research, recurso lançado no início do ano pela OpenAI, para realizar buscas não autorizadas em caixas de entrada.
O ataque ocorreu a partir de instruções ocultas inseridas em um e-mail, que, ao ser acessado pelo agente de IA, desencadeou a coleta de dados sensíveis.
Nesse caso, o sistema chegou a pesquisar mensagens de RH e detalhes pessoais, enviando as informações diretamente a hackers sem que a vítima percebesse. As defesas cibernéticas tradicionais também não foram suficientes para barrar a ação.
Os especialistas da Radware alertaram que a técnica pode ser aplicada a outros aplicativos integrados ao Deep Research, como Outlook, GitHub, Google Drive e Dropbox, o que amplia o potencial de exploração de informações comerciais e estratégicas.
A OpenAI afirmou que a vulnerabilidade já foi corrigida e que as ferramentas seguem seguras para uso. A empresa reforçou o compromisso em aprimorar a proteção dos seus sistemas contra novas tentativas de exploração.

