24 Matching Annotations
  1. May 2026
    1. Pour que des véritables ECIA puissent se développer, il est alors nécessaire de repenser nos formations et nos compétences en sciences humaines, d’augmenter nos connaissances dans d’autres disciplines – et notamment en mathématiques – et d’aller au delà des oppositions arides entre sciences mathématiques et sciences humaines. La recherche du futur est une recherche de polymathes, de curieux, de bricoleurs et de démonteurs de carburateurs

      Oui !

    2. Le modèle aura, donc, un comportement inattendu, ou, plus précisement, un comportement qui constitue une déviation de la moyenne normale.

      Votre analyse du paramètres "temperature" est intéressante, en effet. Mais je ne sais pas si on peut associer celui-ci à de la créativité au sens strict. Il s'agit plutôt, comme vous le dite, d'écart au comportement standard. Est-ce cela la créativité ?

    3. devient de la moyenne statistique tout en continuant à avoir du sens ?

      Ici il faudrait une mesure. Malgré leur très bonne "connaissance du monde", même les modèles SOTA sont aujourd'hui loin de pouvoir créer des associations à la fois très significatives et très originales. La difficulté n'est sans doute pas dans la masse des "données" (déjà énorme), mais dans l'architecture algorithmiques - qui produit un plafond de verre.

    4. Se rendre compte de telle équivalence ontologique devant la production de valeur symbolique est le point de départ pour un questionnement radical des structures hiérarchiques de nos sociétés. C’est le point de départ pour questionner la séparation entre élites et subalternes.

      Toute cette discussion politique est, selon nous, le point le plus fort de l'article.

    5. Où se situe l’intelligence, dans ce dernier cas ? On pourrait s’interroger sur les notions de créativité et d’originalité, et sur la valeur symbolique et politique que nous leur accordons, et comprendre la manière dont nous produisons des stratégies pour différencier une élite (des personnes considérées comme des auteurices, par exemple) d’un groupe de subalternes.

      Précisément : rédiger une lettre de recommandation n'a jamais été une tâche intelligente. Cela nécessite une maîtrise de codes, des compétences linguistiques, une assurance sociale et culturelle... mais pas de l'intelligence au sens créatrice. Ce que les LLM ne peuvent pas faire, c'est inventer au sens fort.

    6. Inversement, une activité dont on considère qu’elle a une haute valeur symbolique ne peut et surtout ne doit pas être automatisée, et, si jamais elle l’est, il faudra trouver des manières pour la trivialiser.

      C'est un point vraiment important, et même central. Les LLM effacent le coût d'entrée pour certaines tâches à haute valeur symbolique : lettres, rhétorique, analyse de textes, etc. Le langage a (presque) toujours été réservé aux dominants. En abolir le coût, en particulier pour des fonctions prétendument réflexives (en fait totalement rhétoriques), c'est briser un monopole.

    7. “Si l’intelligence consiste en la capacité de saisir le sens et si le sens est la relation entre un élément linguistique et un élément extralinguistique, alors un modèle qui n’a aucun rapport avec des éléments extralinguistiques ne pourra pas être intelligent”.

      Cela ne résout rien : il ne s'agit pas de dire si le modèle est intelligent a priori. Les résultats montrent que ses sorties sont intelligibles.

    8. “Comprendre le sens”, dans le texte de Bender, est donc la capacité de créer une relation entre un élément linguistique et un élément extralinguistique.

      Il faudrait définir "extralinguistique". En effet, la linguistique structurale a montré que le "jeu" entre les représentations et les structures linguistiques était relativement faibles. Et comme l'histoire montre de même une corrélation forte entre les représentations et les structures sociales...

    9. à des algorithmes concrets, qu’il faut être capable de bien saisir.

      Certes, mais dans ce cas une certaine technicité est nécessaire (compréhension + description de l'algorithme, et ses implications pseudo-cognitives).

    10. C’est typiquement le cas des critiques de John Searle qui, dans son texte de 1980, Minds, brains, and programs (Searle 1980), semble se servir volontairement de la confusion entre affirmation de l’intelligence et affirmation conditionnelle de l’intelligence pour “démontrer” que Turing a tort et qu’une machine ne peut pas penser.

      C'est intéressant. Cependant, on pourrait aussi renverser la question : non pas "est-ce que la machine pense", mais dans quelle mesure "nous pensons" ? Toute la psychologie (sociale et clinique) repose sur l'idée qu'il existe des patterns qui échappent aux individus... La marge de manœuvre est souvent limitée. Le fait que la machine imite de manière bluffant la "pensée" humaine montre que cette dernière repose sur des structures à la fois linguistiques, mentales et sociales (cf. Ernst Cassirer).

    11. Ce qui me semble intéressant, dans les discours qui “évaluent” l’“intelligence” des différentes applications, est de voir à quel point on oublie presque systématiquement la structure conditionnelle qui était pourtant au centre de l’argument de Turing : si l’intelligence est ceci et si une machine est cela, alors la machine X est intelligente

      Il me semble que c'est une condition minimale, mais pas suffisante. Comme le Cogito de Descartes.

    12. Finalement, après ces digressions, la définition de « machine » proposée par Turing est plus sérieuse : c’est ce qu’on appelle une « Machine à États Discrets » (MED). Il s’agit d’un dispositif capable de manipuler des symboles discrets et d’appliquer des instructions fournies avec d’autres symboles discrets. Une machine de ce type est capable de changer d’état en suivant ces instructions et a la propriété que ces états sont tous déterminés et donc prévisibles. Cette définition de machine est très restrictive. Nos ordinateurs et appareils mobiles ne rentrent pas dans cette définition

      L'architecture de von Neumann et les circuits logiques de nos processeurs sont l'incarnation physique des machines à états discrets. Dire que nos smartphones n'en sont pas est un contresens. Ils sont infiniment plus complexes, mais leur principe de base reste la manipulation d'états discrets (0 et 1).

    13. Une farce de Turing

      C'est une lecture très orientée "Cultural Studies". Si Turing utilise en effet une forme d'humour, réduire le test de Turing à une boutade occulte la portée opérationnelle du test. Pour Turing, il s'agissait de remplacer une question insoluble ("La machine pense-t-elle ?") par une question testable.

    14. Il n’y a donc finalement aucune différence entre “IA” et “numérique”.

      Il y a une forme de simplification très forte ici, un réductionnisme. Confondre l'indexation (recherche de mots-clés) et l'inférence dans un espace vectoriel à haute dimension (LLM) est un saut conceptuel risqué. Si l'on suit cette logique, il n'y a aucune différence entre un dictionnaire et un traducteur humain puisque les deux "manipulent des mots". L'auteur nie ici la propriété émergente des modèles de langage. Par ailleurs, "numérique" désigne une propriété générale, tandis que "IA" désigne plutôt un outil.

    15. Il n’y a rien de plus “génératif” dans une application qui calcule une distribution de probabilités de mots.

      Certes, mais une calculette n'est pas probabiliste. La différence heuristique est radicale.

    16. En ce qui concerne l’idée de “génératif”, cet adjectif est encore plus ambigu. En effet : toute fonction est par définition “générative”. Une fonction prend une valeur en entrée et genère une valeur de sortie. Concrètement, une application qui produit du texte – comme un chatbot – n’est pas plus “générative” qu’une calculette.

      C'est une position minimaliste, qui ne tient pas compte de la complexité sémantique très différente des deux tâches. Une calculette est déterministe. Un LLM est probabiliste... et il travaille dans un espace beaucoup plus complexe.

    17. Cet usage vague et imprécis ne peut être naïvement accepté. Il cache un danger : car on parle d’IA à la fois pour se référer à notre société – et donc “IA” a une signification très large, qui ne se limite ni à une série d’approches computationnelles ni à une série d’applications, mais sert uniquement à nommer les changements à la fois culturels et sociaux, techniques et politiques d’une époque – et, dans le même temps, pour se référer à une poignée d’applications très précises. Le syntagme implique une réduction et une uniformisation des visions du monde : il réduit une culture à ce que nous propose un petit groupe d’entreprises. Ainsi “IA” devient synonyme de chatGPT ou de la dernière application de chat à la mode. On réduit la complexité d’un sujet à l’impact publicitaire d’une compagnie privée qui lance son propre outil bon à tout faire

      Là encore, l'affirmation est forte, mais on pourrait se demander d'où on parle ? De quel(s) groupe(s) social/sociaux il est question ? En outre, je ne vois pas en quoi IA et société se confondent.

    18. Il y a une vingtaine d’années, le mot “numérique” avait un succès comparable3. Le mot “virtuel” l’avait précédé4.

      Une recherche sur Gallicagram montre que cette affirmation est trop rapide. "Virtuel" ne précède pas "numérique". Surtout, il est toujours beaucoup moins fréquent. Par ailleurs, le "pic" (actuel) pour "numérique" dans un corpus comme celui du Monde est situé autour des années 2020.