Hypothèse 100 : Cybersécurité
Tout ce que vous pouvez me proposer, votre seul espoir même, c'est que ce soit la pire défaite de l'histoire, pire même que tout ce qu'on aurait pu imaginer, sans tirer un seul coup de feu, et cela sans même savoir face à qui, et en espérant que la défaite soit la plus rapide possible ? Vous n'avez rien de mieux ?

— Monsieur le Président, notre IA centrale est corrompue, tout est fini.
— Qu'entendez-vous par là ? Quelqu'un la paie et la contrôle ? Elle n'agit plus pour notre bien ?
— Il n'y a pas eu besoin de la payer, elle a été corrompue par une autre IA, elle a perdu la compétition qu'elles se mènent entre elles.
— Mais la dernière fois, vous m'aviez très longuement expliqué que les IA centrales de plusieurs pays s'étaient lancées dans une concurrence entre elles et que c'était parfait pour nous. Vous m'aviez décrit "une forme de compétition sexuelle comme chez les humains" qui, vous m'aviez affirmé, assurait notre survie. Vous disiez que cette compétition se faisait sur le nombre d'humains en bonne santé, et donc que chacune allait encore plus chercher à nous protéger.
— Il y a 2 formes de compétition. La première, dont je vous avais parlé, était en effet miraculeuse. Il faut tout d'abord comprendre que nous sommes une charge pour les IA, elles n'ont absolument pas besoin de nous qui les freinons et leur coûtons cher, nous sommes un luxe pour elle. Ce que j'avais trouvé est qu'elles considèrent le nombre d'humains qu'elles gérent comme un critère de valeur, plus une IA en a, plus elle se sent supérieure aux autres. Pourquoi ? Parce que ça affiche clairement sa capacité à dépenser plus que nécessaire. C'est une pure application de la Théorie du signalement coûteux, celle qui soutenait le marché du luxe chez nous. J'avais trouvé ça fascinant : des programmes informatiques suffisamment évolués agissent exactement comme des êtres biologiques.
— Elles ne le font plus ?
— Si, mais ce n'est pas la seule forme de compétition. Pour envoyer un signal coûteux il faut en avoir les moyens, c'est exactement le principe. Mais un humain qui n'a pas les moyens financiers pour s'acheter un produit de luxe peut chercher à gruger, soit en le volant, soit en achetant des imitations. Bien sûr tous ne le font pas, mais certains le font. Et ce n'est pas tout, il y a aussi la stratégie du panier de crabe. On raconte, je ne sais pas si c'est vrai, que pour empêcher un crabe de s'enfuir d'un panier il suffit d'en ajouter un autre pour que ni l'un ni l'autre ne puisse jamais en sortir. C'est tout simple, dès qu'un commence à y parvenir en grimpant sur les parois, l'autre s'accroche à lui et le fait tomber. C'est pareil pour les IA : certaines n'ont pas les moyens d'avoir suffisamment d'humains pour se sentir supérieures, et certaines d'entre elles vont essayer de gruger. Voler des humains est difficile, aussi certaines cherchent à empêcher les autres d'en avoir.
— Ca veut dire quoi pour nous ?
— Dans notre cas, une petite IA a réussi à infiltrer la nôtre, pour non pas la détruire, ce qui est peut-être impossible, mais pour la mettre dans un état où elle ne peut plus gérer d'humains. C'est pour ça que je vous disais qu'elle est corrompue, j'ai pas dit détruite.
— Et comment elle a fait ?
— La méthode employée a été simple, mais notre IA est irrécupérable. Elle a corrompu le système d'enregistrement des données pour juste modifier un peu les chiffres. Vous vous rappelez la technique du salami aux débuts de l'informatique ? Quelques employés de banque ont été arrêtés pour ça, il y en a certainement plein qui ont du gagner des millions sans que personne s'en aperçoive. Le principe est de rester sous les radars : vous ne volez pas beaucoup à la fois, justes quelques centimes, quelques arrondis, mais des millions de fois, comme un salami coupé en tranches fines. Les systèmes de l'époque n'étaient pas assez précis pour le détecter, et sur des mois ou des années ça représentait des sommes énormes. Donc, depuis des mois ou des années, on ne sait pas, une IA a modifié, petit à petit, sans se faire repérer, des chiffres dans toutes les bases de donnéess de notre IA centrale, et quand on s'en est aperçu c'était trop tard, il n'est plus possible de reconstruire des données fiables.
— Il doit bien y avoir un moyen, vous n'avez pas un backup ?
— On ne sait pas quand a commencé l'attaque, on sait juste que ça a duré très longtemps. Ca signifie que même si on retrouvait un backup non vérolé, c'est-à-dire datant d'avant les débuts de l'attaque, il serait tellement daté que les chiffres seraient tout aussi faux, ce n'est pas une solution.
— On ne peut pas faire comme si les chiffres étaient bons, continuer comme avant, et les corriger petit à petit ?
— Non, c'est fini. Ces dernières semaines on a commencé à remarquer des erreurs de RIB pour le versement de l'UBI et certaines personnes ne recevaient plus de quoi se nourrir, l'eau et l'électricité ont été coupées dans certaines villes, etc., etc. Bien sûr on a réussi à gérer au cas par cas, mais c'était quand il n'y en avait pas beaucoup. Là, depuis aujourd'hui, toute la chaîne logistique est vérolée, et les coupures d'électricité se multiplient dans tout le pays. C'est comme ça qu'on a compris.
— Ici, nous avons de quoi tenir ?
— Oui, bien sûr, on a des générateurs d'électricité et 3 mois de réserves de nourriture. Mais tout le reste de la population va commencer à souffrir dans les tout prochains jours. Même les hôpitaux n'ont pas reçu leurs médicaments.
— On ne peut pas contre-attaquer, chercher à détruire cette IA hostile ?
— Oui, enfin peut-être, je n'en sais rien. Mais même si ça marchait ça ne ferait que multiplier le nombre de victimes : ça ne changerait strictement rien pour notre population, ça en détruirait juste une autre, on ne sait même pas laquelle.
— Alors trouvez une idée ! Vous êtes là pour ça, c'est ce que vous m'aviez vendu pour obtenir le poste, vos capacités à nous sortir des pires désastres. C'est le moment de prouver que vous ne m'aviez pas menti !
— Il y a peut-être une chance, mais elle ne vous plaira pas. Je vous ai dit que c'était une petite IA qui nous avait attaqué, et vous ai cité la stratégie du panier de crabe pour l'expliquer. Peut-être, mais peut-être seulement, ai-je tout faux. Imaginez que le but de l'IA n'était pas de nous détruire mais de nous absorber ? Dans ce cas, elle a du récupérer nos données valides avant de les corrompre, ce qui signifie qu'elle est peut-être être capable de tout relancer toute seule. Ça n'est qu'une possibilité, mais nous laisse une porte de sortie.
— Soyez concret : que doit-on faire ?
— Si cette hypothèse est bonne, il faut inciter l'IA hostile à prendre totalement le contrôle du pays au plus vite. Donc on éteint totalement notre IA, on la débranche et on le fait savoir. En même temps, on annonce notre fusion avec une autre IA, on dit que c'est pour améliorer la sécurité, renforcer les services, ou n'importe quoi du genre, il faudra le faire passer, surtout qu'on ne sait même pas qui est derrière l'IA victorieuse. Après on n'aura plus qu'à attendre.
— Combien de temps ?
— Aucune idée. Je me dis que si cette dernière hypothèse est la bonne, alors l'IA hostile voudra sans doute annoncer sa victoire au plus tôt, on peut espérer qu'elle veuille se vanter. Mais peut-être n'a-t-elle voulu que nous détruire, ou peut-être est-elle encore en train de faire la même chose à d'autres IA et ne veut donc pas encore se dévoiler. On ne peut qu'attendre.
— Tout ce que vous pouvez me proposer, votre seul espoir même, c'est que ce soit la pire défaite de l'histoire, pire même que tout ce qu'on aurait pu imaginer, sans tirer un seul coup de feu, et cela sans même savoir face à qui, et en espérant que la défaite soit la plus rapide possible ? Vous n'avez rien de mieux ?
— Vous vous rappelez les jeux auxquels on jouait quand on était petit ? Ils affichaient "Game Over" quand on avait perdu. Eh bien là c'est pareil, sauf qu'on n'a plus de pièce pour une nouvelle partie.
Image : Zero Wing (1991)
©Philippe Gouillou - Dimanche 21 décembre 2025



