Les Algorithmes Contre la Société : Synthèse des Analyses d'Hubert Guillaud
Résumé Exécutif
Ce document de synthèse expose les arguments principaux développés par Hubert Guillaud, journaliste et essayiste, concernant l'impact sociétal des systèmes algorithmiques.
L'analyse révèle que loin d'être des outils neutres, les algorithmes constituent une nouvelle logique systémique qui transforme en profondeur les services publics et les rapports sociaux.
Leur fonction première est de calculer, trier et appareiller, traduisant le fait social en une simple "combinaison de chiffres".
Les points critiques à retenir sont les suivants :
• La discrimination comme fonctionnalité : Par nature, le calcul est une machine à différencier.
Des systèmes comme Parcoursup ou le "score de risque" de la Caisse d'Allocations Familiales (CAF) génèrent des distinctions souvent aberrantes et fictionnelles pour classer les individus, ce qui institutionnalise la discrimination sous couvert d'objectivité mathématique.
• Ciblage des populations précaires : L'automatisation des services publics cible et surveille de manière disproportionnée les populations les plus vulnérables.
La CAF, par exemple, ne chasse pas tant la fraude que les "indus" (trop-perçus), affectant principalement les personnes aux revenus morcelés et complexes comme les mères isolées.
• Menace sur les principes démocratiques :
L'interconnexion croissante des données entre les administrations (CAF, Impôts, France Travail, Police) menace la séparation des pouvoirs en créant un système de surveillance généralisée où les faiblesses d'un individu dans un domaine peuvent avoir des répercussions dans tous les autres.
• La massification déguisée : Contrairement à l'idée d'une personnalisation poussée, les algorithmes opèrent une massification des individus.
Ils ne ciblent pas des personnes uniques mais les regroupent en permanence dans des catégories larges et standardisées à des fins de contrôle ou de publicité.
• Un risque de dérive fasciste : En systématisant la discrimination et en la rendant opaque et invisible, ces technologies créent un terrain propice à des dérives autoritaires, un risque qualifié par Hubert Guillaud de "fasciste".
En conclusion, bien que ces technologies posent une menace sérieuse, Hubert Guillaud les replace dans un contexte plus large, arguant que les enjeux primordiaux demeurent le réchauffement climatique et les logiques du capitalisme financier, dont les algorithmes ne sont qu'un outil d'amplification.
--------------------------------------------------------------------------------
1. Introduction : La Logique Algorithmique et ses Enjeux Sociétaux
La discussion, introduite par Marine Placa, doctorante en droit public, s'articule autour de l'ouvrage d'Hubert Guillaud, Les algorithmes contre la société.
L'enjeu central est "l'immixtion d'une nouvelle logique algorithmique plus insidieuse et plus systémique à la délivrance des prestations de services publics".
Cette logique, qui "traduit le fait social comme une combinaison de chiffres", gouverne de plus en plus l'environnement des individus avec des conséquences tangibles.
Plusieurs critiques majeures sont soulevées dès l'introduction :
• Opacité et injustice : Les systèmes d'IA sont souvent trop opaques, discriminants et il est impossible d'expliciter les décisions qui en résultent.
• Déconnexion des réalités : Alors que les investissements massifs se poursuivent (109 milliards d'euros débloqués par le gouvernement français), les retours d'expérience alertent sur les "dégâts sociaux, démocratiques et écologiques".
• Technologie privée : La technologie est privée, développée par des capitaux privés et dictée par les "mastodontes économiques de la Silicon Valley".
Son usage est ainsi largement influencé par des intérêts de profit plutôt que par le bien commun.
• L'IA n'est pas autonome : L'IA "ne décide de rien.
Elle ne raisonne pas." Elle est le résultat d'une conception humaine, et son impact dépend moins de son essence que de son usage.
2. Définition et Fonctionnement des Algorithmes
Selon Hubert Guillaud, les systèmes algorithmiques, de l'algorithme simple à l'IA complexe, doivent être compris comme une "continuité technologique" de systèmes de calcul appliqués à la société. Leur fonctionnement repose sur trois fonctions fondamentales :
| Fonction | Description | Exemple | | --- | --- | --- | | 1\. Produire des scores | Transformer des informations qualitatives (mots, comportements) en données quantitatives (chiffres, notes). | Un profil sur une application de rencontre est "scoré", une demande d'aide sociale reçoit une note de risque. |
| 2\. Trier | Classer les individus ou les informations en fonction des scores produits. | Les candidats sur Parcoursup sont classés du premier au dernier. |
| 3\. Apparier (Le "mariage") | Faire correspondre une demande à une offre sur la base du tri effectué. | Un étudiant est appareillé à une formation, un demandeur d'emploi à un poste, un bénéficiaire à l'obtention (ou non) d'une aide sociale. |
Cette mécanique simple est au cœur de tous les systèmes, des réseaux sociaux aux plateformes de services publics, avec pour enjeu principal de classer, trier et faire correspondre.
3. La Modification des Rapports de Force Sociétaux
3.1. Le Calcul comme Machine à Discriminer : l'Exemple de Parcoursup
Hubert Guillaud utilise l'exemple de Parcoursup pour illustrer comment le calcul génère une discrimination systémique.
• Contexte : Une plateforme nationale orientant 900 000 élèves de terminale vers plus de 25 000 formations.
• Mécanisme : Chaque formation doit classer tous ses candidats du premier au dernier, sans aucun ex-æquo.
• Le critère principal : les notes. Le système se base quasi exclusivement sur les bulletins scolaires, ignorant des critères essentiels comme la motivation, qui est pourtant un facteur clé de la réussite dans le supérieur.
• La création de distinctions aberrantes : Pour départager la masse d'élèves aux dossiers homogènes (par exemple, avec une moyenne de 14/20), le système génère des calculs complexes pour créer des micro-différences.
Les scores finaux sont calculés à trois chiffres après la virgule (ex: 14,001 contre 14,003). Guillaud souligne l'absurdité de cette distinction :
"Je ne peux pas faire de différence académique même entre eux. [...] Mais en fait pour le calcul par le calcul on va générer en fait des différences entre ces élèves."
• Équivalence au tirage au sort : Pour 80 % des candidats, ce système d'attribution basé sur des différences insignifiantes est "pleinement équivalent au tirage au sort", mais il est camouflé par l'apparence scientifique des chiffres.
3.2. La Normalisation d'une Sélection Élitaire
Contrairement à un simple tirage au sort, Parcoursup n'introduit pas d'aléa.
Au contraire, il diffuse et normalise les méthodes de sélection des formations d'élite (grandes écoles, Sciences Po) à l'ensemble du système éducatif, y compris à des formations techniques (BTS) où ce type de sélection est inadapté.
Cette standardisation interdit les méthodes d'évaluation alternatives (entretiens, projets) et renforce les biais sociaux.
Le résultat est un taux d'insatisfaction élevé :
• 2 % des candidats ne reçoivent aucune proposition.
• 20 % reçoivent une seule proposition qu'ils refusent.
• 20 % retentent leur chance l'année suivante.
Au total, environ 45-46 % des élèves sont insatisfaits chaque année par la plateforme.
4. L'Automatisation de la Vie et la Neutralité Illusoire de la Technologie
4.1. Le "Score de Risque" de la CAF : Surveillance des Plus Précaires
Hubert Guillaud réfute l'idée que la technologie est neutre. L'exemple de la Caisse d'Allocations Familiales (CAF) est emblématique de cette non-neutralité.
• Objectif affiché : Détecter le risque de fraude chez les allocataires grâce à l'IA.
• Réalité : Le système ne mesure pas la fraude (souvent liée aux déclarations des employeurs) mais ce que l'on nomme "l'indu", c'est-à-dire le trop-perçu d'un mois qui doit être remboursé le suivant.
• Ciblage : Ce système pénalise les personnes aux situations complexes et aux revenus non-linéaires : mères isolées, veuves, travailleurs précaires.
Le calcul de leurs droits est difficile, générant mécaniquement des "indus".
• Critères de calcul absurdes : Des données comportementales sont utilisées.
Par exemple, se connecter à son espace CAF plus d'un certain nombre de fois par mois augmente le score de risque, alors que ce comportement reflète simplement l'anxiété de personnes en situation de besoin.
• Conséquences : Des populations déjà précaires, représentant moins de 20 % des bénéficiaires, subissent la majorité des contrôles.
Certaines mères isolées sont contrôlées "quatre à cinq fois dans la même année".
4.2. Menace sur la Séparation des Pouvoirs
L'interconnexion des données entre les administrations, sous couvert de "fluidifier l'information", constitue une menace pour le principe démocratique de la séparation des pouvoirs.
• La CAF a accès aux données des impôts, de France Travail, et aux fichiers des comptes bancaires (FICOBA).
• Le niveau d'accès est opaque : certains agents peuvent voir les soldes, voire le détail des dépenses sur six mois.
• Cette collusion crée des formes de surveillance étendues et problématiques.
Exemple : la police qui dénoncerait des individus à la CAF (environ 3000 cas par an), instaurant un "échange de bons procédés" en dehors de tout cadre légal clair.
• Cela crée ce qu'un sociologue nomme un "lumpen scorariat" : des individus constamment mal évalués et pénalisés par le croisement des systèmes.
4.3. Le Risque d'une Dérive Fasciste
La discussion met en avant une phrase choc tirée du livre de Guillaud : "Déni de démocratie un principe, la discrimination une fonctionnalité, le fascisme une possibilité."
Le risque fasciste réside dans le fait que ces systèmes permettent de mettre en place des discriminations massives, objectives en apparence, mais basées sur des choix politiques et des biais invisibles.
• Exemple du recrutement : Les logiciels de tri de CV analysent les mots pour produire des scores.
Ils préfèrent des profils "moyens partout" plutôt que des profils avec des failles et des points forts.
• Discrimination géographique et ethnique :
Ces systèmes permettent très facilement aux employeurs d'exclure des candidats sur la base de critères non-dits, comme leur localisation géographique (via l'adresse IP) ou leur origine (via des termes associés à certains pays).
5. Implications Psychosociales : La Massification Déguisée en Personnalisation
L'idée que les algorithmes nous offrent une expérience "personnalisée" (les "bulles de filtre") est un leurre. En réalité, ils opèrent une massification.
• Logique publicitaire : L'objectif n'est pas de comprendre un individu, mais de le faire rentrer dans des catégories préexistantes pour lui vendre de la publicité de masse.
• Exemple concret : Si un utilisateur "like" une publication critiquant le football où le mot "PSG" apparaît, l'algorithme ne retient que le mot-clé "PSG".
L'utilisateur est alors associé à la masse de tous les autres profils liés au "PSG" et recevra de la publicité ciblée pour les fans de football, même si son intention initiale était opposée.
• L'individu est ainsi constamment regroupé "d'une masse à l'autre", pris dans des profils de données qui le dépassent.
6. Conclusion : Mise en Perspective des Menaces Technologiques
Interrogé sur une citation du journal Le Postillon affirmant que le "grand refroidissement technologique" est la plus grande menace de notre époque, Hubert Guillaud exprime son désaccord.
• Il considère que cette vision est trop "techno-centrée".
• Selon lui, des enjeux plus fondamentaux et urgents priment :
1. Le réchauffement climatique. 2. La concentration financière et les logiques du capitalisme.
• La technologie et ses dérives ne sont pas la cause première des problèmes sociaux (isolement, repli sur soi), mais plutôt un amplificateur des dynamiques déjà à l'œuvre, comme la "dissolution des rapports engendrés par le capitalisme".
• Il conclut en affirmant qu'il faut "savoir raison garder".
L'enjeu n'est pas seulement de réformer un système comme Parcoursup, mais de s'attaquer au problème de fond : "comment est-ce qu'on crée des places dans l'enseignement supérieur public".
La technologie n'est pas une fatalité, mais un prisme à travers lequel des forces sociales, politiques et économiques plus vastes s'expriment.