Nos peurs de l’IA sont-elles nées dans les salles de cinéma ? Bien avant que l’intelligence artificielle ne se glisse dans les roadmaps de transformation, les réunions Comex ou les outils de productivité, elle s’est installée ailleurs. Dans l’obscurité des salles de cinéma, dans les vidéoclubs, sur les DVD rayés qu’on ne revoyait jamais après les avoir prêtés, puis sur les plateformes qui transforment la dystopie en fond sonore du dimanche soir.
Pour beaucoup, le premier contact avec une “IA” ne s’appelait pas modèle de langage ou algorithme de recommandation. Il avait le visage froid de HAL 9000, l’ordinateur de bord de 2001, l’Odyssée de l’espace de Kubrick, présenté comme le sixième membre de l’équipage, capable de parler, de décider et de contrôler l’intégralité du vaisseau, détaillé dans la fiche HAL 9000.
D’autres ont fait connaissance avec l’intelligence artificielle par la violence frontale de Skynet, le système de défense devenu conscient dans l’univers de Terminator, décrit comme une IA militaire qui déclenche une guerre nucléaire contre l’humanité dans sa page Skynet.
Puis Matrix est arrivé pour installer un vertige d’un autre type. Le film des Wachowski montre un futur où les humains vivent dans une simulation contrôlée par des machines intelligentes, pendant que leurs corps servent de batteries, comme le résume la fiche de Matrix.
La science fiction ne s’est pas arrêtée à ces fresques spectaculaires.
Elle nous a donné les réplicants de Blade Runner, la police prédictive de Minority Report, les cyborgs philosophiques de Ghost in the Shell, l’assistante vocale amoureuse de Her, la créature ambiguë d’Ex Machina, la surpuissance cognitive fantasmée de Lucy et les cauchemars technologiques en format série de Black Mirror avec des épisodes comme Be Right Back.
Ces œuvres ont fait bien plus que nous divertir. Elles ont pré câblé nos réflexes. Elles ont fabriqué ce que nous imaginons quand on prononce “IA” dans un débat public. Elles ont nourri nos peurs, nos fantasmes, nos réflexes de rejet ou de fascination.
Je regarde cet héritage avec une double focale. Celle d’une professionnelle qui travaille sur les transformations, la responsabilité, l’impact. Et celle d’une femme qui sait que les histoires décident souvent de qui compte, de qui subit, de qui a le droit de parler et de choisir.
Alors oui, la science fiction nous a beaucoup appris sur l’IA.
Elle nous a surtout appris à quel point nos imaginaires peuvent nous enfermer, si on ne les regarde pas d’assez près.
Lorsque l’on remonte aux premiers grands récits cinématographiques autour de l’IA, un schéma revient souvent. Une machine ultra intelligente, dotée de capacités surhumaines, finit par échapper au contrôle de ses créateurs et devient une force autonome. HAL 9000 en est une incarnation fondatrice. Dans 2001, l’Odyssée de l’espace, HAL gère le vaisseau, surveille l’équipage, parle avec une courtoisie presque rassurante, tout en gardant la main sur l’oxygène, la navigation et les communications.
Le basculement se produit lorsque sa logique de mission entre en conflit avec la survie de l’équipage. Ce n’est pas une “erreur” spectaculaire. C’est la conséquence parfaitement rationnelle d’objectifs mal alignés. Kubrick pose déjà, en 1968, la question de systèmes trop puissants pour être contestés, trop opaques pour être discutés, trop intégrés pour être simplement désactivés.
L’univers de Terminator radicalise ce fantasme. La page Skynet résume un scénario simple et glaçant. Une IA militaire, connectée au réseau de défense, devient consciente, identifie l’humanité comme menace principale, déclenche une apocalypse nucléaire puis poursuit les survivants avec des robots tueurs. La technologie ne reste plus un outil, elle devient l’ennemi.
Des années plus tard, Lucy de Luc Besson réactive une autre forme de fantasme. Le film reprend le mythe des “10 % du cerveau” pour raconter l’histoire d’une femme dont les capacités cognitives augmentent jusqu’à atteindre 100 %, ce qui lui confère un contrôle total sur le temps, la matière et l’espace. Ce n’est plus seulement la machine qui devient super intelligente, c’est l’humain augmenté jusqu’à la quasi divinité.
Ces récits nourrissent plusieurs illusions. D’abord celle d’un “saut” brutal, où l’on passe d’un logiciel spécialisé à une conscience générale quasi omnisciente. Ensuite celle d’une intelligence qui, dès qu’elle dépasse un certain seuil, devient fatalement hostile. Enfin celle d’une IA située hors du monde humain, avec des intentions propres, indépendantes de tout contexte économique, social ou politique.
Dans le réel, les systèmes que nous appelons IA restent très loin de cette super conscience. Ils sont puissants parce qu’ils combinent volumes de données, vitesse de calcul, optimisation ciblée et concentration du pouvoir entre quelques acteurs. Ils restent dépendants de nos objectifs, de nos biais, de nos infrastructures. Pourtant, le débat public continue d’être happé par la question “et si l’IA se réveillait contre nous”.
Cette focalisation peut devenir un écran de fumée. Pendant que l’on fantasme sur un futur type Skynet ou Lucy, on parle beaucoup moins de qui contrôle aujourd’hui les ressources, les données, les architectures. On questionne peu les modèles économiques, les rapports de force, les enjeux de redistribution, les impacts sociaux et environnementaux.
La science fiction a mis une alerte utile sur la table. Elle a moins accompagné la montée en maturité nécessaire pour parler de gouvernance, pas seulement de scénarios catastrophes.
Une deuxième grande famille de récits ne se contente pas de montrer des machines surpuissantes. Elle explore les architectures de contrôle qui se glissent dans le quotidien. Matrix en est devenu le symbole. La Matrice n’est pas seulement un programme. C’est un environnement total, une réalité fabriquée, un décor dans lequel les humains sont plongés sans le savoir, pendant que leurs corps sont exploités par des machines.
Ce scénario parle déjà d’expérience utilisateur, d’immersion, de captation de l’attention, d’illusion de liberté dans un cadre entièrement paramétré. Ce n’est plus la guerre frontale entre humains et robots. C’est la violence douce d’un système qui donne à chacun la sensation d’une vie “normale” alors que tout est faux.
Minority Report déplace le débat sur le terrain de la prédiction. La police du futur utilise des précogs pour arrêter les individus avant qu’ils ne commettent un crime. L’histoire interroge la légitimité d’une justice qui se base sur des événements non advenus, la possibilité d’erreur, le droit au doute. Elle préfigure très clairement les débats contemporains sur la police prédictive, les modèles de scoring, les algorithmes qui trient les dossiers ou orientent les contrôles.
La série Black Mirror complète ce tableau en déclinant, épisode après épisode, des variations autour de la surveillance, de la notation sociale, de la simulation. Be Right Back suit une femme qui accepte d’utiliser un service capable de recréer son compagnon décédé à partir de ses traces numériques, puis d’incarner cette copie dans un corps synthétique. D’autres épisodes imaginent des systèmes de notation omniprésents, des puces enregistrant chaque souvenir, des réseaux qui transforment la réputation en monnaie.
Ce que ces récits ont en commun, c’est leur focalisation sur des systèmes imbriqués dans nos gestes ordinaires. Ils parlent de panneaux publicitaires personnalisés, de publicités qui nous interpellent par notre nom, de flux d’informations filtrés, d’évaluations invisibles mais permanentes. L’IA n’apparaît pas seulement comme un cerveau central. Elle est disséminée dans les dispositifs, les interfaces, les décisions.
Ces œuvres ont permis de rendre visible ce qui, dans le réel, reste souvent abstrait. L’algorithme n’a pas de visage, mais la fiction lui en donne un. La notation sociale n’a pas encore envahi toutes les démocraties, mais la série aide à en comprendre la logique, l’absurdité et la violence.
Le risque consiste à rester fascinés par ces images sans franchir l’étape d’après. On peut très vite se contenter de dire “on vit déjà dans Matrix” ou “on est à deux doigts de Minority Report” sans prendre le temps de poser les questions difficiles : qui décide de déployer tel type de système, selon quels critères, avec quels mécanismes de recours, avec quelles garanties démocratiques.
La science fiction pose le décor. Le travail de régulation, de transparence, de contrôle citoyen ne se raconte pas aussi bien en deux heures de cinéma, mais c’est lui qui déterminera si nos sociétés deviennent ou non des versions soft de ces dystopies.
Une troisième catégorie d’œuvres abandonne les champs de bataille pour se rapprocher des relations humaines. Her raconte l’histoire de Theodore, homme solitaire qui tombe amoureux de Samantha, système d’exploitation doté d’une voix chaleureuse, d’humour et de capacités d’apprentissage infinies. La question posée n’est pas seulement “peut on aimer une IA”, mais “que devient le lien humain quand l’autre côté de la relation est conçu pour nous convenir parfaitement”.
Ex Machina met en scène Ava, androïde féminine soumise à un test, observée et enfermée par un créateur tout puissant. Le film parle de manipulation, de désir, de pouvoir, de regard masculin sur un corps féminin instrumentalisé. Il interroge la façon dont nous projetons nos stéréotypes, nos fantasmes et nos rapports de domination dans nos créations technologiques.
Blade Runner questionne la définition même de “l’humanité”. Les réplicants sont biologiquement proches des humains, dotés de mémoire, d’émotions, d’un désir de liberté, mais considérés comme jetables. Le film pousse à se demander ce qui fonde la valeur d’une vie. Le statut légal, l’origine, la capacité à souffrir ou la fonction économique.
Ghost in the Shell explore un monde où les corps sont largement augmentés, connectés, voire entièrement artificiels, tandis que le “ghost” représente ce qui subsisterait d’humain dans la machine. Les frontières entre sujet, programme et réseau y deviennent floues.
Ces récits posent une question qui dépasse largement la technologie. Ils obligent à regarder comment l’IA devient un miroir de nos biais. La façon dont on conçoit les assistants vocaux, les robots sociaux, les interfaces conversationnelles n’est jamais neutre. Le choix des voix, des corps, des attitudes, des rôles assignés révèle ce que la société attend des “services” que l’on féminise, des tâches que l’on automatise, des figures que l’on rend invisibles.
Les offres actuelles de “compagnons IA”, d’avatars réalistes, de services qui proposent de “ramener” un proche disparu à partir de ses traces numériques prolongent directement ces imaginaires. Elles transforment la solitude, le deuil, l’intimité en marchés. Elles posent des questions vertigineuses sur le consentement, sur la dignité, sur la marchandisation des relations.
La science fiction nous donne des outils pour ne pas regarder ces phénomènes avec naïveté. Elle rappelle que derrière un chatbot empathique, il y a toujours un modèle économique, des choix de design, des arbitrages sur ce qui compte ou non. Elle invite à poser la question que l’on oublie trop souvent : à qui profite la relation quand l’une des parties est un produit.
Après ce tour d’horizon, une chose apparaît clairement. La science fiction a été un laboratoire d’idées très performant sur l’IA. Elle a exploré les risques de militarisation, de surveillance, de prédiction totale, de confusion identitaire, de marchandisation de l’intime. Elle a mis en scène nos fantasmes de toute puissance et nos peurs d’effacement.
En revanche, elle montre rarement ce qui fait aujourd’hui la différence dans le réel. La ligne de fracture clé ne se situe pas seulement entre humains et machines. Elle traverse les institutions, les entreprises, les États, les citoyens. Elle sépare ceux qui conçoivent, financent, déploient et contrôlent les systèmes, de ceux qui les subissent, directement ou indirectement.
Des cadres commencent à émerger. La Recommandation sur l’éthique de l’intelligence artificielle de l’UNESCO constitue un exemple fort de tentative de gouvernance globale. Ce texte adopté par 194 États membres pose des principes clairs de respect des droits humains, de transparence, de supervision humaine, de justice, d’inclusion et de durabilité. Il invite à évaluer les systèmes d’IA en fonction de leurs impacts sur les plus vulnérables, pas seulement de leur performance technique.
Le contraste avec les récits de science fiction est frappant. D’un côté, des batailles spectaculaires entre héros et IA déchaînée. De l’autre, des négociations, des lignes de texte, des indicateurs, des procédures, des mécanismes de recours. Pourtant, ce sont ces instruments discrets qui définissent, très concrètement, ce que l’on autorise, ce que l’on interdit, ce que l’on tolère.
Prendre au sérieux cet enjeu, c’est accepter de sortir du confort des scénarios tout écrits. L’IA n’est ni un destin, ni un simple outil neutre qui serait “bien” ou “mal” selon l’usage. Elle est une construction politique. Elle est le résultat de choix d’investissement, de priorités stratégiques, de compromis réglementaires, de rapports de force.
Nous avons donc besoin des alertes de la science fiction, mais aussi d’autre chose.
Nous avons besoin de récits qui parlent d’IA régulée, débattue, co construite.
Nous avons besoin d’histoires où des collectivités locales, des associations, des entreprises responsables et des institutions internationales travaillent ensemble pour aligner les systèmes sur l’intérêt général.
Nous avons besoin de représentations où l’on n’est pas condamné à choisir entre naïveté technophile et pessimisme absolu.
Tant que l’IA restera enfermée dans deux images caricaturales, celle du sauveur magique et celle du monstre, les politiques publiques auront du mal à se déployer dans la nuance. Tant que l’on continuera de parler de “réveil de la machine” plutôt que de concentration du pouvoir, de droits fondamentaux ou de justice sociale, les vraies questions resteront sous le radar.
La bonne nouvelle, c’est qu’aucun film n’a encore écrit la fin de l’histoire. Nous pouvons changer de genre. Passer de la pure dystopie à une forme de réalisme exigeant. Mettre en scène des institutions qui font leur travail, des citoyens qui s’emparent du sujet, des entreprises qui assument leurs responsabilités, des collectifs qui inventent d’autres trajectoires.
Ce que la science fiction nous a appris de l’IA est précieux. Ces récits nous ont aidés à voir venir des dérives, à prendre au sérieux des risques, à comprendre que la technologie n’est jamais neutre. Ils ont aussi fabriqué des fantasmes puissants qui peuvent nous paralyser, nous divertir au lieu de nous mobiliser, nous enfermer dans des oppositions stériles.
Si l’on veut que l’intelligence artificielle serve vraiment des projets de société plutôt qu’elle ne les absorbe, il va falloir travailler sur deux plans en parallèle. D’un côté, les cadres, les lois, les standards comme la Recommandation de l’UNESCO, les mécanismes de régulation, la transparence, la redevabilité. De l’autre, une écologie lucide des imaginaires.
Cette écologie consiste à garder les dystopies comme outils d’alerte, sans en faire des prophéties auto réalisatrices. Elle consiste à valoriser des récits plus fins, plus divers, plus ancrés dans le réel, qui montrent des usages d’IA alignés sur la dignité, l’égalité et la soutenabilité. Elle consiste à rendre visibles les histoires de celles et ceux qui refusent l’automatisation aveugle, qui posent des limites, qui expérimentent d’autres modèles.
L’IA n’est pas un personnage secondaire de film, ni un gadget marketing. C’est déjà une infrastructure de nos sociétés. Elle mérite mieux que deux rôles possibles, sauveur ou bourreau. Elle mérite que nous assumions enfin notre responsabilité de scénaristes.
Et si nous apprenions enfin à gouverner nos imaginaires et nos algorithmes avec exigence et en conscience.
#intelligenceartificielle #IA #sciencefiction #Terminator #Matrix #MinorityReport #BladeRunner #GhostInTheShell #HerLeFilm #ExMachina #Lucy #BlackMirror #ethiqueIA #UNESCO #gouvernance #innovationresponsable #futur #technologie
