L'Illusion du Contrôle à l'Ère de l'Intelligence Artificielle : Synthèse de la Présentation de Helga Nowotny
Résumé
Cette note de synthèse analyse les thèmes centraux de la présentation de Helga Nowotny sur l'intelligence artificielle (IA), axée sur le concept de "l'illusion du contrôle".
L'émergence spectaculaire de l'IA générative, illustrée par ChatGPT, a non seulement surpris les experts par ses performances, mais a également exacerbé une anxiété sociétale profonde liée à la perte de contrôle.
Ce sentiment est alimenté par les craintes concernant l'automatisation de l'emploi, la désinformation via les "deepfakes", la persistance des biais algorithmiques et la fragmentation de la réalité commune.
Un point central de l'analyse est la tendance humaine à l'anthropomorphisme, qui consiste à attribuer des intentions à l'IA, un phénomène qui peut avoir des conséquences tragiques.
La notion de contrôle technologique elle-même est en pleine évolution : après s'être étendue de la simple fonctionnalité de la machine à la sécurité des travailleurs, puis à la protection de l'environnement, elle doit maintenant intégrer l'impact de l'IA sur les capacités cognitives et émotionnelles humaines.
La présentation met en lumière une concentration économique et de pouvoir sans précédent entre les mains de quelques entreprises technologiques, qui financent 90% de la recherche et du développement en IA, orientant ainsi sa trajectoire au détriment de la recherche publique et fondamentale.
Face à un monde de plus en plus complexe et potentiellement incompréhensible que nous créons nous-mêmes, la conclusion insiste sur la nécessité d'adopter le scepticisme, une vertu scientifique essentielle, comme antidote aux illusions et pour naviguer de manière éclairée dans cette nouvelle ère.
--------------------------------------------------------------------------------
1. L'Avènement de l'IA Générative et la Fin de la Hype
L'intervention de Helga Nowotny s'inscrit dans le prolongement de son livre de 2021, In AI We Trust, et se concentre sur l'illusion du contrôle face aux développements récents de l'IA.
• L'Expérience ChatGPT : Le lancement de ChatGPT fin 2022 est qualifié d'« expérience déchaînée sans le consentement de personne ».
Son principal avantage a été de mettre un grand nombre de personnes en contact direct avec une technologie numérique avancée.
• Une Performance Surprenante : La performance de l'IA générative a surpris même les experts, bien qu'ils s'attendaient à son arrivée.
• Plus qu'une Simple Hype : Nowotny soutient que l'engouement actuel pour l'IA n'est pas passager pour deux raisons principales :
1. Investissements Massifs : Des investissements colossaux sont engagés, créant un pari sur le principe du "trop gros pour faire faillite" (too big to fail).
2. Adoption Scientifique : L'IA est déjà en train de transformer la science.
Des outils comme AlphaFold de DeepMind sont devenus des instruments fantastiques pour les biologistes, et des applications similaires émergent en science des matériaux, en découverte de médicaments, et dans d'autres domaines.
2. Inquiétudes Sociétales et la Peur Fondamentale de la Perte de Contrôle
Un malaise généralisé persiste face à l'IA, reposant sur plusieurs craintes interconnectées.
• Automatisation et Emploi : Au-delà de la question de la destruction et de la création d'emplois, le véritable enjeu, selon Nowotny, est notre capacité à inventer de nouvelles tâches à réaliser en collaboration avec l'IA.
• Menaces sur la Démocratie : Les "deepfakes" et les campagnes de désinformation délibérée posent un risque majeur pour les démocraties libérales, créant une situation où personne ne semble avoir le contrôle, sauf ceux qui lancent ces campagnes.
• Biais Algorithmiques : Les biais présents dans les données d'entraînement sont perpétués et amplifiés par les algorithmes.
Lorsque les gens commencent à croire aux prédictions de ces algorithmes, les biais s'ancrent profondément dans la société.
• Fragmentation Sociale : La personnalisation extrême risque de nous enfermer dans des "réalités personnalisées", nous faisant perdre le terrain commun nécessaire au débat et à la cohésion sociale.
• Tendance à l'Anthropomorphisme : Nous avons une tendance naturelle à attribuer des intentions humaines aux machines.
◦ La "Posture Intentionnelle" : Le philosophe Daniel Dennett a longuement écrit sur ce qu'il appelle la "posture intentionnelle".
◦ Croyances Dangereuses : Cette tendance culmine dans des affirmations choquantes comme « L'IA me connaît mieux que je ne me connais moi-même », transférant un pouvoir quasi métaphysique à la machine.
◦ Cas Extrême : Un cas tragique en Belgique a vu une personne souffrant de problèmes mentaux être encouragée au suicide par une application thérapeutique non réglementée, illustrant les dangers extrêmes de cette confusion.
3. L'Évolution du Concept de Contrôle Technologique
Le concept de "contrôle" d'une technologie a évolué au fil de l'histoire et fait face aujourd'hui à un défi sans précédent avec l'IA.
1. Contrôle Opérationnel : Initialement, le contrôle signifiait s'assurer que la technologie fonctionne correctement (maintenance, réparations).
2. Contrôle de la Sécurité Humaine : Avec l'industrialisation, le contrôle s'est étendu à la protection de la santé et de la sécurité des travailleurs opérant les machines.
3. Contrôle Sociétal et Environnemental : L'État-providence a ajouté des législations et des assurances.
Plus récemment (ces 20-25 dernières années), le contrôle a été étendu pour limiter les dommages environnementaux causés par la technologie.
4. **Le Nouveau Défi - Le Contrôle Cognitif et Émotionnel :
** Le défi actuel est d'étendre ce contrôle à l'impact que l'IA a sur nos capacités cognitives et émotionnelles.
Cela est particulièrement visible avec les algorithmes prédictifs qui, en extrapolant le passé, façonnent nos choix et nous font oublier que le futur reste incertain.
4. Concentration du Pouvoir et Dynamiques Géopolitiques
Derrière les avancées de l'IA se cache une énorme concentration de pouvoir économique qui influence sa trajectoire et sa régulation.
• Déséquilibre du Financement :
◦ Dans les pays de l'OCDE, la R&D générale est financée à environ deux tiers par le secteur privé et un tiers par le secteur public.
◦ Pour l'IA, le rapport est de 90 % de financement privé contre seulement 10 % de financement public.
• Conséquences du Déséquilibre :
◦ Les universités sont désavantagées, manquant d'accès à la puissance de calcul et aux données détenues par les grandes entreprises.
◦ Les entreprises n'ont aucune obligation de rendre publics leurs algorithmes ou leurs données.
◦ La direction de la recherche est dictée par des objectifs de profit, bien que les entreprises affirment travailler pour le bien de l'humanité.
Il est nécessaire de financer davantage la recherche publique pour explorer des voies alternatives.
• Paysage de la Régulation :
◦ Union Européenne : À l'avant-garde avec un ensemble de législations, dont l'AI Act.
◦ États-Unis : Réticents à réguler par crainte d'étouffer l'innovation, et sous l'influence du lobbying de la Big Tech.
◦ Chine : L'autre acteur majeur de cette configuration géopolitique.
5. Questions Philosophiques et Épistémologiques
L'IA nous confronte à des questions profondes sur notre rapport au monde et à la connaissance.
• Comprendre ce que nous créons : Citant Giambattista Vico ("Nous ne comprenons que ce que nous faisons"), Nowotny se demande si nous ne nous dirigeons pas vers un monde créé par l'homme que nous ne comprenons plus.
L'IA permet de créer des "jumeaux numériques" et des systèmes complexes dont les propriétés émergentes sont impossibles à prédire.
• De Nouvelles Formes de Raisonnement : L'exemple d'un mathématicien dont le problème a été résolu par une IA d'une manière différente de celle d'un humain soulève des questions fondamentales :
notre cerveau fonctionne-t-il différemment, ou l'IA révèle-t-elle de nouvelles facettes de la mathématique, elle-même une "technologie culturelle" ?
• Co-évolution avec des "Autres Numériques" : Faisant une analogie spéculative avec les travaux de l'anthropologue Marshall Sahlins sur le "cosmos immanent" (un monde où les humains partageaient leur existence avec des esprits et des dieux), Nowotny suggère que nous pourrions être au début d'une trajectoire co-évolutive où nous devrons apprendre à vivre avec des "autres numériques".
6. Le Scepticisme Scientifique comme Antidote
Face à ces illusions et à ces complexités, la démarche scientifique offre une méthode pour ne pas se tromper soi-même.
• La Leçon de Feynman : Citant le physicien Richard Feynman, "La science est ce que nous avons appris sur la manière de ne pas nous tromper nous-mêmes."
• Une Vertu pour la Société : Le scepticisme est une vertu scientifique qui doit être diffusée dans toute la société et auprès des politiciens.
Il est crucial d'éviter le déterminisme technologique, qui est le revers de l'illusion du contrôle.
Le sentiment d'impuissance mène à la peur, à la passivité et au repli, ce qui constitue le pire scénario possible.
7. Thèmes Abordés dans la Session de Questions-Réponses
• IA et Sciences Sociales : L'IA offre une opportunité de lier la recherche qualitative (la "connaissance épaisse" de Clifford Geertz) et quantitative en analysant de vastes corpus de données qualitatives.
De plus, comme pour le transistor qui a permis l'émergence de la radio portable, des usages sociaux imprévus de l'IA apparaîtront.
• Les "Objectifs" de l'IA : Une IA n'a que les objectifs qui lui sont inscrits par ses créateurs.
La vraie question est : "Quels sont les objectifs des personnes qui développent, possèdent et investissent dans l'IA ?"
• Armes Autonomes : Le développement se dirige rapidement vers des armes autonomes.
Atteindre un accord international de non-prolifération, similaire à celui sur les armes nucléaires, sera très difficile car les composants de l'IA sont beaucoup plus complexes à tracer que les substances nucléaires.
• Langage, Traduction et Culture : L'IA facilite énormément la traduction instantanée.
Cela pourrait entraîner la fermeture de départements universitaires de traduction et décourager l'apprentissage des langues.
Un marché ségrégué pourrait émerger pour les livres : une production de masse par l'IA et un marché de "luxe" pour les auteurs humains.
• Communiquer sur l'IA : Il faut aller au-delà de la simple "littératie numérique" pour développer une véritable conscience du fait que l'IA est une technologie créée et dirigée par des humains. Ceci est essentiel pour éviter la peur et la passivité face à un prétendu déterminisme technologique.