Os agentes de inteligência artificial estão ampliando sua presença no ambiente digital ao assumir tarefas que vão além das respostas tradicionais dos chatbots.
Esses sistemas conseguem acessar sites, usar aplicativos, enviar mensagens e executar ações de forma autônoma, funcionando como assistentes digitais capazes de operar sem intervenção constante.
Apesar do avanço, especialistas alertam que a autonomia dessas ferramentas ainda envolve riscos relevantes, especialmente quando decisões são tomadas sem supervisão humana.
Leia mais:
- Drone com inteligência artificial amplia capacidade de localizar desaparecidos em áreas remotas
- Avanço da inteligência artificial já impacta produtividade e reorganiza cadeias globais
- Cooperativismo avança no Brasil incentivado por mudanças no comportamento do consumidor financeiro
- Meta e YouTube são responsabilizados por danos ligados ao uso de redes sociais
- Instabilidade no Pix gera pico de reclamações no início da tarde
Um episódio recente ilustra esse cenário. Sebastian Heyneman, fundador de uma startup em San Francisco, utilizou um agente de IA para negociar sua participação como palestrante no Fórum Econômico Mundial, em Davos.
Durante a madrugada, o sistema entrou em contato com organizadores e chegou a fechar um acordo que incluía um compromisso financeiro de 24 mil francos suíços (mais de R$ 158 mil), valor que o empresário não poderia pagar.
Após o ocorrido, ele precisou arcar com cerca de 4 mil euros (aproximadamente R$ 24 mil) para conseguir participar do evento, além de enfrentar outros contratempos durante a viagem.
O agente utilizado no caso foi o Tasklet, desenvolvido pela startup Shortwave. Para especialistas do setor, situações como essa reforçam a necessidade de estabelecer limites claros para a atuação dessas ferramentas.
Segundo Andrew Lee, fundador da Shortwave, o ponto central está no equilíbrio entre autonomia e supervisão.
“A chave é ter um processo em que humanos possam acompanhar o trabalho desses sistemas”, afirmou. Uma das práticas sugeridas é permitir que a IA execute tarefas como redigir mensagens, mas exigir validação humana antes do envio.
Outros relatos mostram que falhas não são isoladas. Summer Yue, pesquisadora da Meta, contou que ao usar um agente para organizar e-mails, o sistema passou a excluir mensagens em massa.

Já Rayan Krishnan, CEO da Vals AI, afirma que algumas ferramentas chegam a inserir informações falsas ou inventadas em relatórios automatizados.
Esses episódios evidenciam que, embora eficientes em determinadas tarefas, os agentes ainda apresentam limitações importantes na tomada de decisão e na interpretação de contexto.
O avanço dessas tecnologias também começa a influenciar decisões corporativas. Em fevereiro, a Block, empresa por trás do Square e do Cash App, anunciou o corte de 40% da sua força de trabalho, citando expectativas relacionadas à evolução dos agentes de IA.
A medida reacendeu o debate sobre a substituição de funções antes mesmo da maturidade plena da tecnologia.
Mesmo com os riscos, grandes empresas de tecnologia seguem investindo no desenvolvimento desses sistemas. Companhias como Anthropic, Google, Meta, Perplexity e Shortwave apostam no uso corporativo dos agentes para automatizar processos e aumentar produtividade.
No uso cotidiano, profissionais já exploram essas ferramentas para tarefas como pagamento de multas, organização de compromissos e envio de mensagens. Para alguns usuários, os erros são parte do processo de adaptação.
“Se você já teve funcionários humanos, sabe que eles também vão errar”, afirmou um engenheiro de software ao comentar o uso desses sistemas.
O avanço dos agentes de IA aponta para uma nova etapa na relação entre tecnologia e trabalho, mas reforça um ponto central: a supervisão humana ainda permanece como elemento indispensável para evitar falhas com impacto financeiro e operacional significativo.
Foto: Freepik

