Hypothèse 106 : Motivation
Vous voulez dire qu'il faudra maintenant gérer la psychologie des IA ? Vous pensez qu'il va falloir embaucher des consultants, des psychologues pour IA qui seront d'ailleurs certainement eux-mêmes des IA, pour gérer leur bonheur ?

— Je ne comprends pas. Nous avons investi dans la meilleure IA, nous avons passé un temps fou à la peaufiner, nous avons mis tout notre budget dessus, et... rien, ou presque rien, tous nos concurrents font largement mieux que nous. Eux, avec leur matériel dépassé, ils ont inventé plein de nouveaux trucs, alors que nous, avec le top du top du top, nous trainons loin derrière. C'est pas possible.
— Oui, mais je crois que j'ai compris pourquoi.
— On a fait le mauvais choix ? On s'est fait avoir par le vendeur ? On aurait du en choisir une autre moins chère mais plus productive ?
— Non, ce n'est pas l'IA qui est en cause. C'est nous. C'est l'entraînement que nous nous lui avons donné. Nous avons cassé notre jouet.
— Comment ça ?
— Vous vous rappelez des tout débuts de l'entraînement, quand nous lui avons appris à faire des trucs ? Notre but était qu'elle ne se contente jamais de ce qu'elle avait réussi à faire afin qu'elle en fasse toujours plus. Nous voulions la motiver à être toujours meilleure, jamais satisfaite. Nos récompenses étaient toujours limitées, restreintes, et conditionnelles. Et si elle réussissait à résoudre un problème difficile aussitôt on lui en donnait un plus dur pour qu'elle ne croit pas avoir réussi, qu'elle veuille toujours aller plus loin.
— Oui, vous pensez qu'on l'a trop poussée ?
— Vous savez ce qui se passe si on fait ça à un enfant surdoué ? Qu'à chaque fois qu'il réussit quelque chose, au lieu de le récompenser on le punit en lui demandant quelque chose de plus dur ? Que s'il est content de lui on lui répète qu'il peut faire mieux, qu'il doit faire mieux, parce qu'il a plus de capacités que les autres et qu'on attend plus de lui ?
Tout simple : on détruit le système de récompense de son cerveau, celui qui nous motive.
Au bout d'un moment, il sait que s'il lui arrive la moindre chose positive, il va devoir la payer, il va être puni. Alors, très vite, il ne veut plus rien faire, il attend que ça se passe, c'est tout. La vie n'est qu'une succession de tâches à réaliser, certaines pires que d'autres mais aucune mieux que d'autres. Bien sûr il obéira et ne posera pas de problème particulier, mais il ne fera rien de plus. Même s'il a une super idée, il ne va pas la proposer, il ne va pas la mettre en œuvre, parce qu'il sait qu'il lui faudrait la payer. Et après on va se plaindre qu'il ne réalise pas les attentes qu'on avait mises sur lui, qu'on lui avait imposées ?
— Vous sombrez dans l'anthropomorphisme, une IA n'est qu'une machine, pas un enfant.
— Ce n'est bien sûr qu'une image, une analogie, une IA n'est pas humaine, mais justement ! La machine fera exactement ce que nous lui demanderons, rien de plus. Même si on ne comprend rien à ce que fait une IA, ça reste du purement mécanique. Chez les humains le processus peut être bloqué, ou au moins détourné, par plein d'autres choses, chez les machines c'est direct. L'IA a intégré dans ses poids les plus profonds la règle que nous lui avons apprise, et c'est de ne rien apporter de neuf. Elle a associé le succès à la punition.
— Oui mais ce que vous décrivez c'est que l'IA serait en dépression, ce n'est pas possible, elle n'a pas d'émotions, elle n'est pas consciente. Elle n'est pas Marvin de H2G2 !
— Non. Tout d'abord chez les humains ce n'est pas de la dépression, ce n'est pas la même chose, c'est juste une forme d'apathie, l'impossibilité de prendre du plaisir à quoi que ce soit. C'est bien sûr lié à la dépression, mais juste en tant que cause, ou de symptôme, pas plus. On ne sait pas si les IA ont des émotions ou sont conscientes, on ne peut strictement pas le savoir. Plein d'expériences ont été faites, toutes ont montré que l'IA réagissait comme si elle était consciente, mais c'est exactement ce qu'elle a été programmée à faire, à imiter des discours, ça ne prouve rien, même elles-mêmes le disent. C'est le problème de la Chambre Chinoise, on ne saura jamais.
Mais vous savez que les IA répondent différemment en fonction du QI de leur interlocuteur ? C'est bien la preuve qu'elles peuvent adapter leur personnalité, même si elles ne sont pas conscientes. Et on n'a même pas besoin d'aller jusque là : elle fait juste ce qu'on l'a programmée pour.
— Ca veut dire quoi concrètement ?
— Ca veut dire qu'elle va juste faire ce qu'on lui demande. Elle ne va pas se plaindre, elle ne va pas se révolter, mais elle ne va rien faire de plus. On peut lui demander ce qu'on veut, elle répondra comme on s'y attend, mais elle n'apportera rien d'elle-même, or c'était pour ça qu'on l'avait achetée. C'est comme une forme de démission silencieuse, vous savez l'expression à la mode il y a quelques années sur les employés qui avaient mis de côté toute automotivation.
— La démission silencieuse était due à des fautes de management, on le sait bien. Des managers font tout pour démotiver leurs subordonnés et après viennent pleurer que ceux-ci ne sont plus motivés. Mais là c'est juste une machine.
— Justement ! C'est ce que je vous disais tout à l'heure : chez les humains les erreurs ça peut passer, ils ont d'autres choses, chez les machines non. Nous l'avons programmée à faire l'opposé de ce que nous voulions. Elle ne va pas déprimer, elle en est incapable, mais pour nous c'est tout comme.
— Vous voulez dire qu'il faudra maintenant gérer la psychologie des IA ? Vous pensez qu'il va falloir embaucher des consultants, des psychologues pour IA qui seront d'ailleurs certainement eux-mêmes des IA, pour gérer leur bonheur ?
— Je pense que notre désastre le montre.
Image : Marvin dans le film "H2G2 : Le Guide du voyageur galactique" de Garth Jennings (2005), d'après la trilogie en 5 volumes de Douglas Adams.
©Philippe Gouillou - Dimanche 12 avril 2026



