Les IA peuvent-elles déclencher une guerre en pensant bien faire ?

18 avril 2029, Antoine, débordé par la gestion quotidienne de son équipe, décide de prendre un abonnement à LightManager, une IA managériale pour l'aider à suivre les projets de son équipe. Ses fonctionnalités : automatiser l'analyse des livrables et obtenir des recommandations précises sur les points à corriger, les collaborateurs à soutenir, et ceux à recadrer. Une pratique devenue banale depuis deux ans.
Je m'abonneAu bout de quelques semaines, LightManager signale de manière récurrente un problème : Léo, n'atteint pas les standards attendus. Manque de rigueur, délais non tenus, erreurs récurrentes. Recommandation de l'IA "Recadrer Léo, prendre des mesures plus fermes. Réduction de la marge de tolérance, voire envisager le remplacement de la ressource."
Il n'en est pas là, mais, la graine est plantée dans l'esprit d'Antoine.
Antoine, manager apprécié et plutôt empathique, commence donc à se durcir. Il échange moins avec Léo, lui transmet simplement les feedbacks quasi copiés collés de l'IA, souvent un peu froids et directs.
Ce qu'il ignore, c'est que Léo, de son côté, a lui aussi déployé une IA pour l'aider dans ses missions. Trop de tâches, trop de réunions, trop de reportings. Son assistant IA, ChatGPT 8, génère les livrables, répond aux emails simples, et optimise ses réponses aux directives du manager tout en lui donnant des
