A corrida acelerada da indústria de tecnologia para lançar novos produtos de inteligência artificial pode resultar em um incidente de grande impacto e comprometer a confiança pública na tecnologia.
O alerta é de Michael Wooldridge, professor de IA da Universidade de Oxford e um dos pesquisadores mais influentes da área.
Segundo ele, a combinação entre competição comercial intensa e desenvolvimento acelerado eleva o risco de um episódio grave envolvendo sistemas de IA, com potencial de afetar diferentes setores simultaneamente.
Em entrevista ao The Guardian, Wooldridge afirmou que empresas têm colocado no mercado ferramentas cada vez mais sofisticadas, mesmo quando suas capacidades e limitações ainda não foram plenamente compreendidas.
Para o pesquisador, a proliferação de chatbots com mecanismos de segurança facilmente contornáveis evidencia que interesses comerciais vêm sendo priorizados em detrimento da confiabilidade.
Leia mais:
- Governo eleva imposto de importação de mais de 1.200 produtos e mira indústria nacional
- Câmara aprova incentivo a data centers e Brasil busca espaço na corrida da IA
- CEO do JPMorgan alerta que euforia com IA pode preceder nova crise financeira
- Samsung integra Perplexity ao Galaxy AI e ativa comando “Hey Plex” no Galaxy S26
- Ministério da Agricultura cria canal para alertas sobre suspeitas de pragas
Ele compara o cenário atual a um padrão recorrente na história da tecnologia, em que inovações promissoras são disponibilizadas ao público antes de passarem por testes suficientemente rigorosos.
Tema será aprofundado por Wooldridge na palestra do prêmio Michael Faraday, da Royal Society, intitulada “Esta não é a IA que nos foi prometida”.
Para ilustrar o risco, o professor faz referência ao desastre do dirigível Hindenburg, que explodiu ao tentar pousar nos Estados Unidos, em 1937. O acidente, causado pela ignição do hidrogênio que mantinha a aeronave no ar, matou 36 pessoas e praticamente encerrou o interesse global por esse tipo de transporte.
Na avaliação de Wooldridge, um incidente de grandes proporções envolvendo IA poderia ter efeito semelhante, reduzindo drasticamente a confiança pública na tecnologia. Como sistemas inteligentes já estão integrados a áreas críticas, como finanças, saúde e transporte, uma falha grave poderia se espalhar rapidamente.
Entre os cenários mencionados estão uma atualização defeituosa em carros autônomos com consequências fatais, um ciberataque que paralise companhias aéreas globais ou até o colapso de uma grande empresa provocado por decisões automatizadas equivocadas.
Apesar das críticas, Wooldridge afirma não ser contrário ao avanço da IA. Para ele, o problema está na diferença entre as expectativas criadas ao longo dos anos e os resultados entregues até agora.
Os grandes modelos de linguagem que sustentam chatbots atuais funcionam com base em probabilidades, prevendo a próxima palavra a partir de padrões aprendidos no treinamento. Isso os torna eficazes em várias tarefas, mas também sujeitos a inconsistências.
Segundo o pesquisador, esses sistemas não têm consciência dos próprios erros e, ainda assim, apresentam respostas com alto grau de confiança,combinação que pode induzir usuários ao engano.
Como alternativa, Wooldridge cita representações mais antigas de IA na ficção científica, em que os sistemas reconheciam explicitamente quando não possuíam dados suficientes para responder a determinada pergunta.
Para ele, modelos capazes de admitir incerteza de forma clara e objetiva poderiam reduzir a ilusão de competência absoluta e diminuir o risco de um eventual “momento Hindenburg” da inteligência artificial.
Foto: Unsplash

