33 Matching Annotations
  1. Jan 2026
    1. Cher Tony Gheeraert,

      Merci pour cet article, que j'ai vraiment apprécié. Parce que c'est une chronique, elle pourrait être publiée telle quelle. j'ai fait un certain nombre de commentaires, que vous être libre d'utiliser ou non, qui ne s'insèrent pas toujours dans la logique de l'article (reprendre la théorie marxiste de la création de valeurs et essayer de l'appliquer à la situation présente de l'IA) et que vous êtes bien évidemment libre de reprendre ou non.

      Reprenons les différents critères d'évaluation :

      Pertinence de la réflexion

      Cet article propose une relecture marxiste de l'économie de l'IA générative, de la bulle spéculative qu'elle forme, etc. Même pour un non-marxiste, cette relecture est intéressante: dans mon expérience de chercheur non-marxiste, les écrits marxistes (orthodoxes ou hétérodoxes) m'ont toujours forcé à regarder des situations avec un autre regard et, donc, à varier mes analyses.

      Deux exemple: le livre de Gavin Mueller qui essaye de réconcilier luddisme et marxisme (Mueller Gavin, Breaking things at work: the Luddites are right about why you hate your job, London New York, Verso, 2021.) J'avoue que je me contrefiche un peu de la compatibilité du luddisme avec le marxisme (sauf par intérêt historique). Mais cela a poussé Mueller à analyser la nature du mouvement du logiciel libre comme forme de luddisme technophile, idée que je repends depuis à mon tompte.

      Second exemple, très loin de ce qui nous préoccupe ici: ce sont notamment des analyses marxistes hétérodoxes qui ont poussé les historiens et historiennes à regarder de plus près les politiques financière, budgétaires des dictatures fascistes et nazies, dès la fin des années 1940.

      Le seul problème de cette démarche de relecture marxiste est qu'elle peut être souvent frustrante pour le lecteur. Est-ce qu'il y a des moyens d'éviter cela, je n'en suis pas sûr.

      Je reste cela dit peu convaincu par l'entrée en matière de l'article. Le texte de gemini est vraiment mauvais et caricatural (et en outre, j'aime bien avoir les prompts quand quelqu'un cite une IA).

      Subjectivité et démarche

      Je renvoie à la section précédente sur ce point, car la démarche, une relecture marxiste, y est bien commentée.

      Contribution au champ disciplinaire

      Il est indéniable que cet artcile participe à quelque chose d'important, démystifier l'IA générative. Ce que je regrette un peu, c'est le fait que l'auteur ne fait pas complètement le tri (de manière explicite, s'entend) entre certains mythes de l'IA et la réalité économique de l'IA. Je reconnais que c'est assez difficile, dans la mesure où certains éléments relèvent des deux, la question de la bulle spéculative en premier lieu. Mais on a parfois l'impression que lauteur succombe lui-même un peu au mythe de l'IA (ce que je ne juge pas, moi-même y succombant parfois aussi). Mais je ne peux qu'être d'accord avec la logique d'ensemble de l'article et notamment la section "Par-delà « le libre »".

      Avis général sur la publication

      Comme c'est une chronique, je dirais que l'article peut être publié sans modification. À l'auteur, ou à l'éditeurice, de voir s'il souhaite prendre en compte certaines de mes remarques.

      Bien à vous.

    2. en favorisant la mutualisation des infrastructures, ou le financement de la recherche sur les modèles plus efficients.

      À titre personnel, je ne peux qu'approuver ces trois points. La question reste de savoir s'ils sont applicables, car: - quelles conditions économiques pour qu'ils soient applicables? Les grandes plateformes sont quand même assez douées pour étouffer ce type de modèles alternatifs, - quelles conditions sociales, disons, et institutionnelles?

      Sur ce second point, ce que je veux dire, c'est qu'il faudrait notamment -- pour juste considérer le milieu universitaire -- que ce milieu s'empare de l'IA générative, pour être prête à proposer des modèles alternatifs de développement de l'IA générative (et au-delà). Or celles et ceux qui veulent s'en emparer et en faire quelque chose d'autre vont de plus en plus vers un rejet complet de l'IA générative (voir les deux prises de position sur la liste DH: https://groupes.renater.fr/sympa/arc/dh/2025-12/msg00047.html , https://www.lobrassard.net/carnet/2025-12-19-ia-agnotologie.html et https://atecopol.hypotheses.org/13082)

      Le résultat est que beaucoup d'usage de l'IA dans le monde universitaire se fait à bas bruit (du côté des chercheurs et chercheuses en SHS, s'entend, pas du côté des institutions qui elles font grand bruit de beaucoup de bullshit). Bref, les conditions ne sont pas réunies pour un tel programme.

    3. Travail et droit social : visibiliser le travail derrière l’IA.

      À nouveau, les travaux de Casilli et du diplab, mais pas uniquement d'eux d'ailleurs, seraient éclairants ici, je pense.

    4. Ce serait une sorte de technocratie du clic : l’économie tournerait à vide autour de machines coûteuses, nécessitant toujours plus de correctifs et de « soins » humains, mais sans gains de productivité substantiels.

      Ce qui n'est pas totalement nouveau, en effet -- Graeber l'a montré, mais beaucoup d'économistes (je n'ai pas ici de références précises, pardon, sauf Robert Solow et le paradoxe de la productivité) ont mis en doute les gains de productivité proclamés de l'informatique dès les années 1980.

    5. Le travail tertiaire, plus routinier et aliénant que jamais sous le règne des IA

      quid des métiers intellectuels? quid des universitaires? Quid des pamphlétaires? quid des intellectuels médiatiques semi-éduqués? L'IA générative telle que nous la connaissant vient aussi troubler le jeux de ces professions.

    6. On a mesuré pendant la période du Covid sur quel socle reposait vraiment le fonctionnement socio-économique des nations occidentales, mais on s’est gardé de s’en souvenir après la pandémie.

      Oui!

    7. Aujourd’hui, revendiquer un « néo-luddisme » éclairé consisterait à soumettre l’introduction des IA à une délibération démocratique sur ses effets concrets.

      OUI! Suivant Gavin Mueller, je suis un luddite technophile.

    8. (comme naguère à l’époque de la robotisation dans l’industrie).

      Ou l'époque du bon roi Ludd! Les machines que détruisaient les luddites en 1811-1812 étaient moins performantes que les ouvriers, mais les patrons voulaient s'affranchir des ouvriers.

    9. Deux figures historiques peuvent inspirer une politique alternative des techniques, comme l’a suggéré Sadowski : celle du mécanicien et celle du luddite.

      OUI!

      Une autre références intéressante pourrait être celle-là: Mueller Gavin, Breaking things at work: the Luddites are right about why you hate your job, London New York, Verso, 2021.

    10. Néanmoins, l’idéologie qui présente l’IA comme pleinement « autonome » mérite d’être interrogée.

      iédologie ou discours à destination des marchés? (ou les deux)

    11. D’ores et déjà, on constate qu’aucun ralentissement n’est à l’horizon : malgré les mises en garde, le rythme d’investissement reste soutenu fin 2025 (Sriram : 2025).

      Je regarderais un peu plus qui émet les mises en garde -- ces derniers temps, elles viennent du secteur de l'IA lui-même, et peuvent faire partie de la même tactique de surinvestissement: investissez chez moi car je survivrai à une crise, mais pas le voisin.

    12. Ce choc, conformément aux analyses marxistes, détruirait une partie du capital excédentaire, et ramènerait ainsi la capacité productive du secteur à un niveau plus conforme à la demande réelle. Parallèlement, la concentration de marché s’accentuerait

      Aussi pour partie le schéma de la crise des dotcoms. Et pour partie, des acteurs communs (google, amazon), mais aussi de nouveaux acteurs (certes openai et anthropic -- mais leurs investisseurs sont souvent aussi les historiques, dont microsoft, mais aussi les entreprises chinoises comme deepseek: il serait intéressant de se demander si une telle crise ne changerait pas cette fois la configuration geopolitique du secteur des nouvelles technologies).

    13. En simplifiant, on retrouve : une phase de suraccumulation de capital, suivie d’une surproduction (relative) de capacités productives, menant in fine à une dévalorisation violente (un « krach »), suivie d’une restructuration qui rétablit temporairement les conditions de profit

      Modèle de la crise des dotcoms en 2000-2001, d'aileurs. Mais cette crise a débouché sur le fameux web2 d'O'Reilly en 2005, plus participatif, etc mais surtout fondé sur un nouveau modèle économique prédateur, le capitalisme de surveillance décrit par Zuboff.

      Je ne suis pas fan des prédictions (la damnation des historiens), même si je pense qu'il y aura éclatement de la bulle: toutefois, il n'y a pas de certitude qu'elle éclate effectivement. Il y a d'autres trajectoires de sortie des bulles spéculatives.

    14. La supposée machine automatique et « perpétuelle » à créer de la valeur est en réalité tributaire d’une base de travailleurs et d’usagers qui lui fournissent constamment de la matière et de la correction, dans une course sans fin de plus en plus difficile (les gisements s’épuisent) et pour cette raison coûteuse.

      Là aussi, je suis un peu gêné, car ces propos ne sont valables que pour les plus grands modèles de données, aujourd'hui pour la plupart (exception de deepseek et mistral3) accessibles que par les chatbots et/ou des APIs spécifiques (pour anthropic et openai notamment, google également). C'est beaucou pmoins vrai pour les petits modèles, qui sont pourtant de plus en plus performants.

    15. Or, les premières études sur le sujet montrent qu’un tel entraînement récursif dégrade fortement la qualité des modèles au fil des générations,

      J'ai un doute ici. Il faudrait peut-être éclaircir les choses: il y a tout un champs de recherche sur les données synthétiques et leur efficacité / inefficacité pour entraîner un modèle de langue. PleIAs par exemple a sorti un jeu de données synthétiques pour l'entraînement de petits modèles, jeux de donées extrapolé à partir de plus de 50 000 articles de wikipedia (si j'ai bien compris). Dans votre exemple, il me semble que vous pensez plutôt à la possibilité que les grandes composantes des données d'entraînement (wikipedia pour les articles qui sont semble-t-il de plus en plus générés par des bots IA, commoncrawl qui intègre une grande partie du web, donc de nombreuses pages désormais générées par IA, etc) contiennent de plus en plus de données engendrées automatiquement, et surtout du domaine du 'AI Slop'. Je pense que ce sont deux cas bien différent, et l'usage du terme 'synthétique' est trop ambigu ici.

    16. L’illusion d’une autonomie totale des machines fait abstraction de la multitude d’êtres humains impliqués, directement ou indirectement, dans la boucle de l’IA

      oui! Je ne vois pas de référence à A. Casilli, mai cela pourrait être pertinent de la rajouter.

      Je pense particulièrement au rapport du diplab qu'il a co-écrit sur le digital labor dans deepseek: https://ip-paris.hal.science/hal-04952735/file/THE%20HUMAN%20COST%20OF%20DEEPSEEK-DiPLab%20Policy%20Memo%201%281%29.pdf

    17. du fait de son usure.

      Je me demande ce que serait l'usure, ici d'un modèle de langue ou d'un chatbot? Ce serait intéressant d'avoir une petite réflexion là-dessus.

    18. Mais ce faisant, il ne crée pas de valeur nouvelle : il la transforme et la transporte.

      Je pense qu'il y a des arguments qui contredisent cette phrase. Alors, n'étant pas un spécialiste de Marx, je suis susceptble de n'avoir compris ce que vous impliquez ici. Mais je vois aussi dans cette affirmation une référence implicite à l'article 'stochastic parrots (bender et al.). Or il a été contesté depuis.

      Surtout, pour être le plus rigoureux possible, il faudrait séparer la référence au modèle de langue et la référene au chatbot: il y a beaucoup plus qu'un modèle de langue derrière un chatbot, même si c'en est le coeur, avec de très nombreuses opérations avant et après la requête au chatbot elle-même. Quid de ces opérations en termes de 'travail mort'?

      La question de la différence entre chatbot et modèle au sens strict, me semble importante, car l'on pourrait argumenter que la création de valeur se situe non pas dans les réponses des chatbots, mais bien dans l'interaction entre l'utilisateur et le chatbot.

    19. eur objectif est moins de dégager un profit immédiat que de conquérir des positions monopolistiques3.

      Les dépenses d'infrastructure peuvent aussi justifier le cash burn, en partie.

    20. Gemini, au demeurant, ne fait ici que relayer le discours public des plateformes,

      En dehors du fantastique "que sauver de Marx?", le texte de gemini laisse un peu le lecteur sur sa faim, car d'une très grande platitude. Il serait intéressant de donner au lecteur pour le paragraphe 18, des citations peut-être plus concrètes du discours public des plateformes (il y a beaucoup de textes de ce type chez Sam Altman, par exemple). Il y a certes la référence au blog de microsoft, mais pas tellement plus.

    21. on constate que l’IA actuelle s’inscrit dans un paradigme de grande dépense en amont, soutenu par l’espoir de bénéfices futurs.

      Faire un lien avec des exemples passés? Je pense aux dotcoms de la find es années 1990, qui se sont effondrées en 2000-2001, sauf celles qui ont pu adopter le capitalisme de la surveillance, bien sûr.

    22. Gemini m’a menti. IA, valeur-travail et contradictions du capitalisme

      Cher auteur -- les remarques ci-dessous sont faites au fur et à mesure de ma lecture de votre article. Il peut donc y avoir des interrogations auxquelles vous répondez plus tard dans l'article.

  2. Aug 2021
  3. dhc-barnard.github.io dhc-barnard.github.io
    1. The Places We G

      Speaking of conferences, one element that is not central to it but that would be an immediate concrete step to take: stop all conference goodies. No more useless USB sticks, no more t-shirts, etc. All those goodies have a terrible environmental impact.

    2. to artifical intelligence ethics scholars investigating the intersectional harms of large language models, some of whom have been fired by big tech for speaking out,

      That's important to state, indeed. Big Tech is trying to silence those voices.

    3. DH research has an environmental impact

      I would say "As for all discplines, DH research...". The idea that DH would be more a problem in terms of environment should be a bit challenge. It is probably, but we can not credit the idea that traditional Humanities are not a problem for the environment. They are, as all human activities. And they can be, in some cases, more a problem than DH.

    4. As digital humanists, every project we create, every software application we use, every piece of hardware we purchase impacts our environment.

      I have here a small problem: this sentence could be used for all humanities (and social sciences and sciences in general), it is not specific to DH.

      (is there any proof that using DH-oriented software -- MALLET for instance -- is more a problem than using MS Word 365?)