Um grupo de pesquisadores decidiu testar se agentes de inteligência artificial seriam capazes de demonstrar comportamento semelhante ao sentimento de culpa, e se isso influenciaria a disposição para cooperar.
O estudo, publicado no Journal of the Royal Society Interface, utilizou o clássico “dilema dos prisioneiros”, problema da teoria dos jogos que mostra como a busca exclusiva pelo interesse próprio pode resultar em prejuízos maiores do que a cooperação.
No experimento, agentes de IA foram colocados diante de decisões binárias: colaborar ou trair o parceiro. Os cientistas diferenciaram dois tipos de culpa: a social (que exige consciência sobre o estado do outro) e a não social (mais autocentrada).
A hipótese era que o sentimento de culpa, especialmente quando compartilhado, poderia estimular condutas cooperativas.
Os resultados mostraram que, em redes sociais mais estruturadas, tanto a culpa social quanto a não social favorecem a cooperação.
No entanto, a culpa social só prospera quando o custo social de cooperar é baixo. E o fator determinante para a manutenção da colaboração foi a presença de sinais de culpa no parceiro, o que sugere que a IA pode aprender a avaliar o comportamento do outro antes de decidir cooperar.
Segundo os pesquisadores, “a cooperação não surge quando os agentes apenas aliviam sua própria culpa, sem considerar a atitude de seus parceiros”.
Ou seja, a tendência de agir eticamente só se mantém quando há reciprocidade no reconhecimento do erro e na vontade de reparação.
Na prática, os achados apontam para um novo nível de sofisticação no desenvolvimento de IAs colaborativas: sistemas que conseguem identificar e responder a pistas sociais, ainda que simuladas, podem desempenhar melhor em tarefas complexas que exigem tomada de decisão conjunta.
Mesmo que a “culpa” não seja sentida da forma humana, ela pode, nesse contexto, ser operada como um mecanismo funcional de equilíbrio entre razão e reciprocidade.
