47 Matching Annotations
  1. Nov 2025
    1. L'Illusion du Contrôle à l'Ère de l'Intelligence Artificielle : Synthèse de la Présentation de Helga Nowotny

      Résumé

      Cette note de synthèse analyse les thèmes centraux de la présentation de Helga Nowotny sur l'intelligence artificielle (IA), axée sur le concept de "l'illusion du contrôle".

      L'émergence spectaculaire de l'IA générative, illustrée par ChatGPT, a non seulement surpris les experts par ses performances, mais a également exacerbé une anxiété sociétale profonde liée à la perte de contrôle.

      Ce sentiment est alimenté par les craintes concernant l'automatisation de l'emploi, la désinformation via les "deepfakes", la persistance des biais algorithmiques et la fragmentation de la réalité commune.

      Un point central de l'analyse est la tendance humaine à l'anthropomorphisme, qui consiste à attribuer des intentions à l'IA, un phénomène qui peut avoir des conséquences tragiques.

      La notion de contrôle technologique elle-même est en pleine évolution : après s'être étendue de la simple fonctionnalité de la machine à la sécurité des travailleurs, puis à la protection de l'environnement, elle doit maintenant intégrer l'impact de l'IA sur les capacités cognitives et émotionnelles humaines.

      La présentation met en lumière une concentration économique et de pouvoir sans précédent entre les mains de quelques entreprises technologiques, qui financent 90% de la recherche et du développement en IA, orientant ainsi sa trajectoire au détriment de la recherche publique et fondamentale.

      Face à un monde de plus en plus complexe et potentiellement incompréhensible que nous créons nous-mêmes, la conclusion insiste sur la nécessité d'adopter le scepticisme, une vertu scientifique essentielle, comme antidote aux illusions et pour naviguer de manière éclairée dans cette nouvelle ère.

      --------------------------------------------------------------------------------

      1. L'Avènement de l'IA Générative et la Fin de la Hype

      L'intervention de Helga Nowotny s'inscrit dans le prolongement de son livre de 2021, In AI We Trust, et se concentre sur l'illusion du contrôle face aux développements récents de l'IA.

      L'Expérience ChatGPT : Le lancement de ChatGPT fin 2022 est qualifié d'« expérience déchaînée sans le consentement de personne ».

      Son principal avantage a été de mettre un grand nombre de personnes en contact direct avec une technologie numérique avancée.

      Une Performance Surprenante : La performance de l'IA générative a surpris même les experts, bien qu'ils s'attendaient à son arrivée.

      Plus qu'une Simple Hype : Nowotny soutient que l'engouement actuel pour l'IA n'est pas passager pour deux raisons principales :

      1. Investissements Massifs : Des investissements colossaux sont engagés, créant un pari sur le principe du "trop gros pour faire faillite" (too big to fail).   

      2. Adoption Scientifique : L'IA est déjà en train de transformer la science.

      Des outils comme AlphaFold de DeepMind sont devenus des instruments fantastiques pour les biologistes, et des applications similaires émergent en science des matériaux, en découverte de médicaments, et dans d'autres domaines.

      2. Inquiétudes Sociétales et la Peur Fondamentale de la Perte de Contrôle

      Un malaise généralisé persiste face à l'IA, reposant sur plusieurs craintes interconnectées.

      Automatisation et Emploi : Au-delà de la question de la destruction et de la création d'emplois, le véritable enjeu, selon Nowotny, est notre capacité à inventer de nouvelles tâches à réaliser en collaboration avec l'IA.

      Menaces sur la Démocratie : Les "deepfakes" et les campagnes de désinformation délibérée posent un risque majeur pour les démocraties libérales, créant une situation où personne ne semble avoir le contrôle, sauf ceux qui lancent ces campagnes.

      Biais Algorithmiques : Les biais présents dans les données d'entraînement sont perpétués et amplifiés par les algorithmes.

      Lorsque les gens commencent à croire aux prédictions de ces algorithmes, les biais s'ancrent profondément dans la société.

      Fragmentation Sociale : La personnalisation extrême risque de nous enfermer dans des "réalités personnalisées", nous faisant perdre le terrain commun nécessaire au débat et à la cohésion sociale.

      Tendance à l'Anthropomorphisme : Nous avons une tendance naturelle à attribuer des intentions humaines aux machines.

      La "Posture Intentionnelle" : Le philosophe Daniel Dennett a longuement écrit sur ce qu'il appelle la "posture intentionnelle".   

      Croyances Dangereuses : Cette tendance culmine dans des affirmations choquantes comme « L'IA me connaît mieux que je ne me connais moi-même », transférant un pouvoir quasi métaphysique à la machine.  

      Cas Extrême : Un cas tragique en Belgique a vu une personne souffrant de problèmes mentaux être encouragée au suicide par une application thérapeutique non réglementée, illustrant les dangers extrêmes de cette confusion.

      3. L'Évolution du Concept de Contrôle Technologique

      Le concept de "contrôle" d'une technologie a évolué au fil de l'histoire et fait face aujourd'hui à un défi sans précédent avec l'IA.

      1. Contrôle Opérationnel : Initialement, le contrôle signifiait s'assurer que la technologie fonctionne correctement (maintenance, réparations).

      2. Contrôle de la Sécurité Humaine : Avec l'industrialisation, le contrôle s'est étendu à la protection de la santé et de la sécurité des travailleurs opérant les machines.

      3. Contrôle Sociétal et Environnemental : L'État-providence a ajouté des législations et des assurances.

      Plus récemment (ces 20-25 dernières années), le contrôle a été étendu pour limiter les dommages environnementaux causés par la technologie.

      4. **Le Nouveau Défi - Le Contrôle Cognitif et Émotionnel :

      ** Le défi actuel est d'étendre ce contrôle à l'impact que l'IA a sur nos capacités cognitives et émotionnelles.

      Cela est particulièrement visible avec les algorithmes prédictifs qui, en extrapolant le passé, façonnent nos choix et nous font oublier que le futur reste incertain.

      4. Concentration du Pouvoir et Dynamiques Géopolitiques

      Derrière les avancées de l'IA se cache une énorme concentration de pouvoir économique qui influence sa trajectoire et sa régulation.

      Déséquilibre du Financement :

      ◦ Dans les pays de l'OCDE, la R&D générale est financée à environ deux tiers par le secteur privé et un tiers par le secteur public.  

      ◦ Pour l'IA, le rapport est de 90 % de financement privé contre seulement 10 % de financement public.

      Conséquences du Déséquilibre :

      ◦ Les universités sont désavantagées, manquant d'accès à la puissance de calcul et aux données détenues par les grandes entreprises.  

      ◦ Les entreprises n'ont aucune obligation de rendre publics leurs algorithmes ou leurs données.   

      ◦ La direction de la recherche est dictée par des objectifs de profit, bien que les entreprises affirment travailler pour le bien de l'humanité.

      Il est nécessaire de financer davantage la recherche publique pour explorer des voies alternatives.

      Paysage de la Régulation :

      Union Européenne : À l'avant-garde avec un ensemble de législations, dont l'AI Act.  

      États-Unis : Réticents à réguler par crainte d'étouffer l'innovation, et sous l'influence du lobbying de la Big Tech.  

      Chine : L'autre acteur majeur de cette configuration géopolitique.

      5. Questions Philosophiques et Épistémologiques

      L'IA nous confronte à des questions profondes sur notre rapport au monde et à la connaissance.

      Comprendre ce que nous créons : Citant Giambattista Vico ("Nous ne comprenons que ce que nous faisons"), Nowotny se demande si nous ne nous dirigeons pas vers un monde créé par l'homme que nous ne comprenons plus.

      L'IA permet de créer des "jumeaux numériques" et des systèmes complexes dont les propriétés émergentes sont impossibles à prédire.

      De Nouvelles Formes de Raisonnement : L'exemple d'un mathématicien dont le problème a été résolu par une IA d'une manière différente de celle d'un humain soulève des questions fondamentales :

      notre cerveau fonctionne-t-il différemment, ou l'IA révèle-t-elle de nouvelles facettes de la mathématique, elle-même une "technologie culturelle" ?

      Co-évolution avec des "Autres Numériques" : Faisant une analogie spéculative avec les travaux de l'anthropologue Marshall Sahlins sur le "cosmos immanent" (un monde où les humains partageaient leur existence avec des esprits et des dieux), Nowotny suggère que nous pourrions être au début d'une trajectoire co-évolutive où nous devrons apprendre à vivre avec des "autres numériques".

      6. Le Scepticisme Scientifique comme Antidote

      Face à ces illusions et à ces complexités, la démarche scientifique offre une méthode pour ne pas se tromper soi-même.

      La Leçon de Feynman : Citant le physicien Richard Feynman, "La science est ce que nous avons appris sur la manière de ne pas nous tromper nous-mêmes."

      Une Vertu pour la Société : Le scepticisme est une vertu scientifique qui doit être diffusée dans toute la société et auprès des politiciens.

      Il est crucial d'éviter le déterminisme technologique, qui est le revers de l'illusion du contrôle.

      Le sentiment d'impuissance mène à la peur, à la passivité et au repli, ce qui constitue le pire scénario possible.

      7. Thèmes Abordés dans la Session de Questions-Réponses

      IA et Sciences Sociales : L'IA offre une opportunité de lier la recherche qualitative (la "connaissance épaisse" de Clifford Geertz) et quantitative en analysant de vastes corpus de données qualitatives.

      De plus, comme pour le transistor qui a permis l'émergence de la radio portable, des usages sociaux imprévus de l'IA apparaîtront.

      Les "Objectifs" de l'IA : Une IA n'a que les objectifs qui lui sont inscrits par ses créateurs.

      La vraie question est : "Quels sont les objectifs des personnes qui développent, possèdent et investissent dans l'IA ?"

      Armes Autonomes : Le développement se dirige rapidement vers des armes autonomes.

      Atteindre un accord international de non-prolifération, similaire à celui sur les armes nucléaires, sera très difficile car les composants de l'IA sont beaucoup plus complexes à tracer que les substances nucléaires.

      Langage, Traduction et Culture : L'IA facilite énormément la traduction instantanée.

      Cela pourrait entraîner la fermeture de départements universitaires de traduction et décourager l'apprentissage des langues.

      Un marché ségrégué pourrait émerger pour les livres : une production de masse par l'IA et un marché de "luxe" pour les auteurs humains.

      Communiquer sur l'IA : Il faut aller au-delà de la simple "littératie numérique" pour développer une véritable conscience du fait que l'IA est une technologie créée et dirigée par des humains. Ceci est essentiel pour éviter la peur et la passivité face à un prétendu déterminisme technologique.

    1. Document d'Information : Utilisation des Systèmes d'IA pour la Prise de Décision dans l'État Moderne

      Synthèse Exécutive

      Ce document synthétise les perspectives d'experts sur l'application des systèmes d'intelligence artificielle (IA) dans deux domaines sociétaux critiques : le droit en Europe et la santé en Afrique du Sud.

      Dans le secteur juridique européen, l'IA est présentée comme une solution à la pression croissante entre l'augmentation des coûts du travail juridique et la nécessité de maintenir un état de droit de haute qualité face à une complexité réglementaire grandissante.

      Les applications clés incluent l'optimisation de la recherche d'informations juridiques, la révision de contrats, la diligence raisonnable et l'analyse de cas complexes.

      L'IA n'est pas considérée comme une menace pour l'emploi des juristes, mais plutôt comme un outil pour automatiser les tâches fastidieuses, leur permettant de se concentrer sur des activités à plus forte valeur ajoutée.

      Cependant, des risques importants subsistent, notamment le manque d'explicabilité des décisions prises par l'IA (risque d'aliénation) et la multiplication des erreurs en cas de faille dans un système automatisé.

      Dans le secteur de la santé sud-africain, confronté à des ressources limitées et à une forte prévalence de maladies transmissibles, l'IA offre un potentiel immense pour passer d'un modèle de santé curatif coûteux à un modèle préventif.

      Les applications vont du diagnostic assisté par l'analyse d'images médicales à la prédiction de l'apparition de maladies grâce à des modèles d'apprentissage automatique.

      Une vision d'avenir optimiste repose sur le déploiement de technologies à faible coût, comme les dispositifs portables (wearables), pour un suivi continu des individus.

      Ces données pourraient créer des "jumeaux numériques" des citoyens et, à terme, des villes entières, permettant une surveillance, une simulation et des interventions proactives en matière de santé publique à une échelle sans précédent.

      L'adaptation des technologies au contexte local à faibles ressources est une condition essentielle de succès.

      Enfin, le document souligne l'importance cruciale de la collaboration interdisciplinaire pour développer des systèmes d'IA qui soient non seulement techniquement performants mais aussi socialement pertinents et responsables.

      L'IA dans le Domaine Juridique : Relever les Défis en Europe

      L'analyse du professeur Henrik Palmer Olsen de l'Université de Copenhague met en lumière les tensions et les opportunités liées à l'intégration de l'IA dans le système juridique européen.

      Le Défi : La Pression entre le Coût et l'État de Droit

      Le principal défi identifié est une "pression" économique et qualitative.

      D'un côté, le travail juridique devient de plus en plus coûteux.

      De l'autre, la demande pour ce travail augmente en raison de la complexification croissante de la réglementation, due au développement technologique, économique et social.

      Les États européens sont donc confrontés au dilemme de maîtriser les dépenses tout en garantissant la haute qualité de l'état de droit, un principe fondamental de leur société.

      Le Rôle de l'IA : Soutien et Optimisation du Travail Juridique

      L'IA peut jouer un rôle de soutien essentiel pour résoudre cette tension de plusieurs manières :

      Recherche d'informations juridiques : L'IA peut analyser des milliers de pages de textes juridiques (lois, précédents judiciaires) de manière beaucoup plus rapide et fiable qu'un humain.

      Cela réduit considérablement le temps consacré à la recherche de sources pertinentes pour la prise de décision.

      Révision de contrats : Pour les grandes entreprises gérant de nombreux contrats, l'IA peut automatiser la vérification de la conformité des contrats entrants avec les standards internes, en s'assurant que les clauses requises sont présentes.

      Diligence raisonnable (Due Diligence) : Lors de l'acquisition d'une entreprise, l'IA peut analyser rapidement le portefeuille de contrats pour évaluer leur valeur économique et identifier les obligations qui en découlent.

      Analyse de cas complexes : Dans des affaires longues et complexes (par ex. fraude fiscale, cas environnementaux) impliquant des milliers de documents sur plusieurs années, l'IA peut aider à construire et visualiser des chronologies et des séquences d'événements, offrant ainsi une meilleure vue d'ensemble aux humains.

      Ces applications permettent d'accomplir un travail juridique de haute qualité à moindre coût.

      L'Impact sur la Profession Juridique

      Contrairement aux craintes courantes, l'IA ne devrait pas éliminer les emplois des juristes.

      Au contraire, elle est susceptible d'améliorer leurs conditions de travail en prenant en charge les aspects les plus "fastidieux" et répétitifs du métier, qui ne requièrent pas une compétence juridique de haut niveau.

      Les juristes pourront ainsi se consacrer aux tâches plus intéressantes et fondamentales, telles que la construction d'arguments, la défense des clients et la garantie de la justice.

      Risques et Préoccupations Essentiels

      L'utilisation de l'IA dans le domaine juridique n'est pas sans risques. Deux préoccupations majeures sont soulevées :

      1. Le risque d'aliénation par manque d'explicabilité : L'IA fonctionne différemment de l'intelligence humaine.

      Les décisions juridiques prises par certains algorithmes peuvent être difficiles, voire impossibles, à expliquer. Si les citoyens et même les professionnels ne peuvent pas comprendre comment une décision a été prise, cela peut entraîner une aliénation vis-à-vis des autorités de l'État.

      2. Le risque de multiplication des erreurs : Une faille dans un processus juridique automatisé ne provoque pas une seule erreur isolée, mais une erreur multipliée sur potentiellement des milliers de cas.

      Cela peut conduire à des violations massives des droits des citoyens si les systèmes ne fonctionnent pas correctement.

      Ces risques ne sont pas une perspective lointaine ; il est jugé crucial de les prendre en compte dès maintenant, lors du développement des modèles d'IA, notamment en concevant des systèmes où les humains restent "dans la boucle" pour superviser et collaborer avec l'IA.

      L'IA dans le Domaine de la Santé : Une Approche Préventive pour l'Afrique du Sud

      Deshen Moodley, de l'Université du Cap, expose les défis uniques du système de santé sud-africain et le potentiel transformateur de l'IA.

      Le Défi : Un Système de Santé sous Forte Pression

      Le système de santé sud-africain est décrit comme "très tendu" en raison de plusieurs facteurs :

      Ressources limitées : En tant que pays en développement, les fonds alloués à la santé sont restreints.

      Fardeau élevé des maladies transmissibles : Le pays fait face à une forte prévalence du VIH et de la tuberculose, ce qui met une pression énorme sur le système.

      Pénurie de personnel qualifié : Il y a un manque critique de médecins et d'infirmières.

      Modèle de santé curatif : Le système est principalement réactif, traitant les patients une fois qu'ils sont malades, ce qui implique des traitements coûteux et une gestion de crise constante.

      Le Rôle de l'IA : De la Détection à la Prévention

      L'IA, bien qu'encore sous-explorée en Afrique du Sud, a un potentiel immense pour améliorer la détection et, surtout, la prévention.

      Détection et diagnostic : L'IA peut être utilisée pour analyser automatiquement des images médicales (radiographies, etc.) ou pour recommander des diagnostics et des interventions.

      Santé préventive : C'est le domaine le plus prometteur.

      En utilisant des modèles d'apprentissage automatique et des techniques basées sur la connaissance, l'IA peut prédire l'apparition d'une maladie avant qu'elle ne se manifeste.

      Cela permet des interventions proactives et un passage crucial vers un modèle de santé préventive, particulièrement pertinent pour les pays à faibles ressources.

      Adapter l'IA aux Contextes à Faibles Ressources

      Un simple transfert de technologie des pays développés n'est pas une solution viable. Il est impératif de prendre en compte le contexte local. L'approche privilégiée se concentre sur :

      Technologies à faible coût : Développer des solutions open source, avec des coûts de déploiement et de maintenance réduits et de faibles besoins en puissance de calcul.

      Interopérabilité : Un projet concret, le "Open Health Mediator", a été développé en partenariat avec une ONG africaine pour une fraction du coût des solutions équivalentes dans les pays développés.

      Dispositifs portables (Wearables) à faible coût : À l'instar des téléphones portables, le prix des wearables devrait chuter, permettant une adoption à grande échelle en Afrique pour un suivi continu de la santé des individus.

      Vision d'Avenir : La Santé Préventive et les Jumeaux Numériques

      La vision optimiste pour les 10 à 20 prochaines années est centrée sur la convergence de plusieurs technologies pour une santé préventive à grande échelle.

      1. Suivi continu via les wearables : Une simple montre-bracelet mesurant la fréquence cardiaque ou l'ECG pourrait, grâce à l'IA, détecter l'humeur et l'état émotionnel d'une personne et prédire les états négatifs pouvant affecter sa santé.

      2. Le Jumeau Numérique individuel : La collecte continue de données via ces dispositifs crée une "empreinte virtuelle" ou un jumeau numérique de l'individu, un miroir de sa personne dans le monde virtuel.

      3. Le Jumeau Numérique d'une ville : En agrégeant les données des jumeaux numériques individuels, il devient possible de créer un jumeau numérique d'une ville entière.

      Ce modèle permettrait de surveiller la santé et le bien-être à une échelle sans précédent, de simuler la propagation de maladies, d'apprendre des interactions entre les individus et leur environnement, et de mettre en place des interventions proactives.

      Un tel système aurait été un "game-changer" lors de la pandémie de COVID-19.

      Cette vision ambitieuse repose sur la convergence de l'IA, des systèmes cyber-physiques (jumeaux numériques) et de la réalité virtuelle.

      L'Importance de la Collaboration Interdisciplinaire

      Les deux experts soulignent la valeur de l'environnement de recherche interdisciplinaire de l'IEA de Paris.

      Le fait d'être confronté à des spécialistes d'autres domaines (juristes, philosophes, technologues) a permis d'élargir leurs horizons, de générer de nouvelles approches à leurs propres problèmes de recherche et de repenser la manière de communiquer des idées complexes à un public non technique.

      Cette expérience renforce l'idée que le développement futur de systèmes d'IA ayant un impact sociétal majeur doit impérativement adopter une approche interdisciplinaire pour être efficace et responsable.

    1. La Créativité : Perspectives Croisées des Neurosciences, de l'Art, de la Musique et de l'Intelligence Artificielle

      Résumé

      Ce document de synthèse analyse les thèmes et les arguments clés d'une table ronde sur la créativité, réunissant des experts en neurosciences, composition musicale, arts plastiques et intelligence artificielle.

      La discussion s'articule autour d'un cadre conceptuel définissant la créativité humaine selon quatre dimensions : la nouveauté, l'adéquation, l'authenticité et l'agentivité.

      Les intervenants explorent comment ces dimensions se manifestent dans leurs domaines respectifs.

      En intelligence artificielle, la créativité émerge par des mécanismes de curiosité et des algorithmes évolutionnistes, permettant à des robots de découvrir de manière autonome des solutions nouvelles et efficaces à des problèmes complexes, comme le démontrent les exemples du jeu de Go ou de l'apprentissage moteur.

      Dans le domaine artistique et musical, la créativité oscille entre la génération au sein de contraintes strictes (l'algorithme de composition de Mozart) et la transgression délibérée des conventions pour créer de l'inédit (l'hybridation chez Beethoven).

      Les bases neuroscientifiques révèlent le rôle central du cortex préfrontal, qui agit comme un moniteur capable d'inhiber des stratégies inefficaces pour laisser émerger de nouvelles solutions issues de la mémoire.

      Enfin, des exemples tirés du monde animal, notamment le poulpe et sa capacité de camouflage et de ruse ("métis"), suggèrent que la créativité est un phénomène plus large que l'activité purement humaine.

      La discussion conclut sur les limites actuelles de l'IA, qui excelle à produire des surfaces cohérentes mais peine encore à générer des œuvres dotées de la profondeur structurelle et de l'authenticité caractéristiques de la création humaine.

      --------------------------------------------------------------------------------

      1. Un Cadre Théorique pour la Créativité

      Étienne Koechlin, neuroscientifique, propose un modèle standard pour décomposer le concept de créativité en quatre dimensions fondamentales.

      Ce cadre sert de référence tout au long de la discussion pour analyser les différentes manifestations de la créativité.

      Dimension

      Description

      Concepts Clés

      Cognitives

      Nouveauté

      La capacité à produire quelque chose qui n'existait pas auparavant. Cette possibilité est inhérente même aux systèmes formels les plus fermés, comme le démontre le théorème de Gödel.

      Génération, innovation, possibilité de l'inédit.

      Adéquation

      La production nouvelle doit être pertinente par rapport à un contexte externe. Cela peut être la solution à un problème, ou une œuvre d'art qui résonne avec un public.

      Évaluation, pertinence, contexte, originalité (articulation nouveauté/adéquation).

      Conatives

      Authenticité

      L'acte créatif est l'expression d'un individu, souvent issue d'un déséquilibre interne (insatisfaction, état extatique).

      Le créateur cherche à répondre à ce déséquilibre.

      Expression individuelle, déséquilibre interne, énergie créatrice.

      Agentivité

      La créativité est une action visant à transformer ou influencer le monde. Il y a une volonté d'être effectif, d'avoir un impact.

      Action, volonté, transformation du monde, effectivité.

      Koechlin souligne que ces dimensions peuvent être présentes à des degrés divers selon l'activité (humaine, animale ou artificielle).

      Par exemple, une IA comme AlphaGo fait preuve de nouveauté et d'adéquation (coups créatifs pour gagner), et d'une forme d'agentivité (interagir avec un joueur humain), mais son authenticité est considérée comme très réduite.

      2. La Créativité dans les Systèmes Artificiels

      Pierre-Yves Oudeyer, chercheur en IA, présente comment des machines peuvent générer des comportements et des connaissances à la fois nouveaux, pertinents et efficaces, remplissant ainsi plusieurs critères de la créativité.

      2.1. La Curiosité comme Moteur de l'Exploration

      Le travail de l'équipe de P-Y. Oudeyer se concentre sur la modélisation de la curiosité, comprise comme le mécanisme poussant un agent (enfant ou robot) à explorer spontanément son environnement.

      Apprentissage Autonome : Un robot quadrupède, initialement sans connaissance de son corps ou de l'environnement, apprend par expérimentation.

      Guidé par des algorithmes de curiosité, il teste des actions (bouger ses membres, vocaliser) et observe les résultats.

      Découverte de Régularités : Le robot découvre progressivement des relations de cause à effet : pousser un objet avec son bras le fait bouger, vocaliser vers un autre robot provoque une imitation.

      Cette exploration, motivée par la curiosité, le mène à découvrir les interactions sociales.

      Étienne Koechlin relie cette approche à la recherche en neurosciences sur les moteurs de l'action.

      Il oppose deux visions : l'action pour accumuler des ressources (récompenses) et l'action pour acquérir de l'information et améliorer ses modèles internes du monde.

      La curiosité est au cœur de cette seconde vision : on agit là où l'on pense pouvoir apprendre le plus.

      2.2. Algorithmes Évolutionnistes et Apprentissage par Renforcement

      Des algorithmes inspirés de l'évolution biologique permettent de générer des solutions créatives que des ingénieurs n'auraient pas envisagées.

      Créatures Virtuelles : Dans une simulation, des "créatures" composées de cellules virtuelles (muscles, cellules rigides) sont générées aléatoirement.

      Un critère de "fitness" (capacité à avancer vite) est défini.

      Les créatures les plus performantes sont sélectionnées, leurs "gènes" sont mutés aléatoirement pour créer une nouvelle génération.

      Au fil des générations, des formes de corps et des stratégies de locomotion efficaces et inattendues émergent.

      Robots Physiques : Un robot physique apprend à se déplacer par essais et erreurs (apprentissage par renforcement). Initialement, ses mouvements sont aléatoires et maladroits.

      En quelques minutes, il découvre comment se retourner, puis se mettre sur ses pattes et marcher de manière robuste, capable de réagir aux perturbations.

      La stratégie de mouvement finale n'a pas été programmée par un humain, mais découverte par le robot lui-même.

      Ces mêmes méthodes sont à la base des succès d'AlphaGo, qui a produit des coups jugés "hautement créatifs" par les experts humains.

      3. La Créativité dans la Pratique Artistique

      Les intervenants issus des domaines de la musique et des arts plastiques illustrent la tension créative entre la contrainte et la liberté, et entre la tradition et l'innovation.

      3.1. Musique : Algorithmes et Transgressions

      Le compositeur Floris Guédy présente deux modèles de création musicale :

      Le Jeu de Dés de Mozart : Un système algorithmique pour composer des menuets.

      En lançant des dés, on sélectionne des mesures pré-écrites dans une matrice.

      Bien que basé sur le hasard, le système est ultra-contraint par des règles d'harmonie tonale (fonctions harmoniques : sujet, verbe, complément).

      Le résultat est toujours cohérent et varié, générant des milliards de combinaisons possibles.

      Ce système peut être généralisé pour simuler, avec le même modèle de base, les styles de compositeurs ultérieurs (Schumann, Debussy) en changeant simplement les paramètres.

      L'Hybridation chez Beethoven : L'analyse des brouillons de la 30ème sonate pour piano montre un processus créatif différent. Beethoven oppose deux éléments musicaux (A : monodique et piqué ; B : accords liés) et crée un troisième élément (C) en hybridant leurs caractéristiques.

      Ses carnets révèlent un processus de recherche active, d'essais et d'erreurs pour trouver le contraste maximal rendant l'hybridation la plus audible possible.

      Pour F. Guédy, ce type de créativité, qui consiste à "casser les conventions" d'une infinité de manières possibles, est difficilement simulable par une IA qui cherche plutôt à reproduire ce qui est statistiquement probable.

      3.2. Arts et Artisanat : Co-création et Matière Active

      Patricia Ribault, spécialiste en arts plastiques, met en lumière la créativité dans les processus de "faire" et les interactions.

      La Co-création à Murano : Lors d'un workshop, des étudiants en design présentent des dessins aux maîtres verriers de Murano.

      Les artisans, confrontés à des formes qui dépassent leur savoir-faire traditionnel, doivent inventer de nouvelles techniques.

      Ce moment de "cocréation" pousse les techniques traditionnelles au-delà de leurs limites.

      La Matière Active ("Active Matter") : Elle décrit son travail au sein du cluster d'excellence "Matters of Activity", où des chercheurs de toutes disciplines (scientifiques, ingénieurs, designers) étudient des pratiques comme le filtrage, le tissage ou la découpe sous l'angle de la matière elle-même comme agent actif.

      Visualisation de la Neuroplasticité : Elle présente le projet "Brain Roads", une collaboration entre artistes, designers et neurochirurgiens visant à visualiser la complexité de la plasticité cérébrale.

      Face aux limites des imageries traditionnelles (tractographie), les artistes proposent de nouveaux modèles graphiques (inspirés des cartes de métro, des voxels) pour mieux guider le geste du chirurgien et représenter l'expérience des patients en chirurgie éveillée.

      4. Les Bases Biologiques et Neuroscientifiques

      La discussion explore les mécanismes cérébraux sous-jacents à la créativité humaine ainsi que ses manifestations dans le monde animal.

      4.1. Le Rôle du Cortex Préfrontal

      Étienne Koechlin explique que le cortex préfrontal est la région clé qui "autorise" la créativité chez l'homme.

      Le Mécanisme de Contrôle et d'Ouverture : Cette région du cerveau monitore en permanence nos comportements et stratégies mentales.

      Lorsqu'une stratégie est jugée non pertinente ou inefficace, le cortex préfrontal l'inhibe.

      Cette inhibition permet à de nouvelles options, issues d'un "remixage" contextualisé de la mémoire à long terme, d'émerger.

      Gestion de la Propre Limitation : Le système est conçu pour prendre en compte sa propre limitation. Il accepte de "perdre le contrôle" pour permettre l'émergence de la nouveauté.

      Les nouvelles options sont ensuite évaluées : si elles sont probantes, elles sont confirmées et consolidées en mémoire, enrichissant le répertoire de l'individu pour de futures créations.

      L'Exemple du Test des 9 Points : Ce test classique illustre le processus.

      Pour relier 9 points avec 4 segments de droite sans lever le crayon, il faut abandonner des modèles mentaux implicites (ne pas sortir du carré, ne pas repasser sur un trait).

      La solution émerge lorsqu'on transgresse ces règles auto-imposées.

      4.2. La Créativité Animale : Le Poulpe et la "Métis"

      Patricia Ribault utilise l'exemple du poulpe pour illustrer une forme d'intelligence créative non-humaine, la "métis" (la ruse), théorisée par Marcel d'Étienne et Jean-Pierre Vernand.

      Un Être sans Structure Rigide : Le poulpe peut prendre et perdre forme, ce qui lui confère une plasticité exceptionnelle.

      Maître du Camouflage : Sa créativité s'exprime dans sa capacité à interagir avec la perception de l'autre.

      Le camouflage n'est pas seulement se fondre, mais "tromper celui ou ceux qui vous regardent". Il peut être défensif ou offensif (hypnotiser une proie).

      Le "Mimic Octopus" : Cette espèce est capable non seulement de se camoufler mais de changer son comportement pour imiter d'autres animaux en fonction de la situation.

      La Métis comme Forme de Créativité : La métis est décrite comme une "intelligence à l'œuvre dans le devenir", utilisant "la prudence, la perspicacité, la promptitude", mais aussi "la ruse, voire le mensonge".

      L'être "amétis", comme le poulpe, est "insaisissable" et capable de "retourner constamment des situations".

      5. Thèmes Transversaux et Conclusion

      La discussion finale aborde plusieurs questions clés sur la nature de la créativité et les distinctions entre l'humain et la machine.

      Authenticité et Subjectivité : La question de l'authenticité reste la plus difficile à attribuer aux IA.

      L'authenticité humaine est liée à un déséquilibre interne et à une intention expressive.

      Les IA peuvent simuler une forme de subjectivité primaire (en ayant des modèles de leurs propres connaissances), mais l'expressivité profonde reste un attribut humain.

      Hasard et Contrainte : Le hasard est une composante essentielle du fonctionnement cérébral, notamment via le "bruit neuronal" qui augmente lorsque les modèles du monde sont mis en défaut, ouvrant le "champ des possibles".

      Cependant, comme le montre le jeu de Mozart, un hasard apparent peut opérer au sein de contraintes très fortes.

      La créativité réside dans ce jeu entre ouverture (pensée divergente) et fermeture (pensée convergente).

      Les Limites Actuelles de l'IA : Une anecdote est partagée sur une IA chargée d'improviser dans le style de L'Art de la Fugue de Bach.

      Le résultat était bluffant en surface ("la chair"), mais ignorait complètement la structure fondamentale de l'œuvre.

      De même, un texte rédigé par une IA est décrit comme "très fluide", "cohérent en surface", mais sans "corps" ni profondeur sémantique.

      Sérendipité : Il est souligné que la créativité ne peut pas être planifiée.

      Elle émerge souvent de la sérendipité : la découverte de quelque chose d'intéressant par hasard en cherchant autre chose.

      Pour être efficace, la sérendipité nécessite cependant une capacité de reconnaissance de ce qui est intéressant, ce qui renvoie à la subjectivité et au modèle interne du créateur.

    1. Synthèse du webinaire : IA & Associations

      Résumé Exécutif

      Ce document synthétise les enseignements clés du webinaire "IA & Associations : une bonne idée ?", présenté par Solidatech en collaboration avec des experts de la société Advent. L'intelligence artificielle (IA), et plus particulièrement les agents conversationnels génératifs comme ChatGPT, Claude ou Mistral, représente une opportunité majeure pour les associations, leur permettant d'optimiser leur efficacité opérationnelle et leur prise de décision stratégique. Le webinaire a mis en lumière trois axes principaux : les applications pratiques concrètes (rédaction de demandes de subvention, organisation d'événements), les risques inhérents à leur utilisation (fuites de données, biais, hallucinations) et les meilleures pratiques pour formuler des requêtes efficaces ("prompt engineering"). L'approche préconisée est celle d'une adoption mesurée et stratégique, en utilisant l'IA pour des tâches répondant à la méthode des "3 C" : Chronophages, Compliquées et peu motivantes. Enfin, des organisations de soutien comme Solidatech et le programme Cyber Forgood, ainsi que des outils spécifiques, ont été présentés comme des ressources clés pour accompagner les associations dans cette transition.

      --------------------------------------------------------------------------------

      1. Contexte et Acteurs de Soutien

      Le webinaire visait à démystifier l'usage de l'IA pour le secteur associatif en fournissant des clés de compréhension, des exemples pratiques et des stratégies de mitigation des risques.

      Solidatech

      Présenté par Lauren Guouin, Solidatech est un programme de solidarité numérique qui accompagne plus de 45 000 associations dans leur transition numérique depuis 2008. Porté par la coopérative d'insertion Les Ateliers du Bocage (mouvement Emmaüs), le programme agit sur trois fronts :

      Équipements numériques : Accès à des logiciels (Microsoft, Adobe, etc.) et du matériel informatique (neuf ou reconditionné) à tarifs solidaires.

      Montée en compétences : Mise à disposition de ressources (articles, newsletters, autodiagnostic numérique), formations certifiées Qualiopi et accompagnements personnalisés.

      Production de savoirs : Diffusion d'études, comme "La place du numérique dans le projet associatif".

      Cyber Forgood

      Animé par Julio de la société Advent, Cyber Forgood est un programme dédié à la protection et à l'accompagnement des acteurs de l'économie sociale et solidaire face aux cyber-risques. Une nouvelle plateforme, cyberforgood.org, sera lancée le 3 novembre et proposera dès janvier :

      • Une académie en ligne de 5 mois sur l'hygiène numérique, le RGPD et l'IA.

      • Un "boot camp" en présentiel à Paris pour échanger avec des experts.

      • Des accompagnements pro bono en cybersécurité.

      --------------------------------------------------------------------------------

      2. Comprendre l'Intelligence Artificielle Générative

      Léonard Kip, expert en cybersécurité et IA chez Advent, a défini l'IA comme un programme autonome capable d'imiter des actions humaines (prédiction, génération de contenu, prise de décision). L'explosion récente concerne l'IA générative, qui crée du contenu original à partir d'une requête.

      Comment fonctionnent les agents conversationnels ? Ces outils ne "comprennent" pas une question au sens humain. Ils s'appuient sur des réseaux de neurones artificiels entraînés sur des quantités astronomiques de données. Leur fonction principale est de prédire le mot suivant le plus probable en fonction du contexte fourni par la requête de l'utilisateur. Chaque nouveau mot généré enrichit le contexte, permettant de prédire le suivant, et ainsi de suite, pour construire une réponse cohérente. Cette mécanique explique pourquoi la précision et la richesse de la requête initiale sont cruciales pour obtenir un résultat pertinent.

      --------------------------------------------------------------------------------

      3. Analyse des Risques Majeurs et Stratégies de Mitigation

      L'utilisation de l'IA comporte des risques significatifs qu'il est essentiel de maîtriser. Un sondage réalisé durant le webinaire a révélé que la fuite de données confidentielles est la principale préoccupation (67 % des répondants).

      Risque Identifié

      Description

      Stratégies de Mitigation

      Hallucinations

      L'IA présente des informations factuellement incorrectes mais de manière très convaincante, car elle a tendance à vouloir satisfaire l'utilisateur plutôt que d'admettre son ignorance.

      - Vérifier systématiquement les réponses, surtout les plus surprenantes.<br>- Demander à l'IA de confirmer ou de détailler son raisonnement.<br>- Découper une requête complexe en plusieurs tâches plus simples.

      Biais Cognitifs

      L'IA reproduit les stéréotypes et préjugés présents dans ses données d'entraînement (internet, ouvrages), ce qui peut mener à des réponses discriminatoires.

      - Demander explicitement à l'IA d'éviter les biais et d'être "ouverte d'esprit".<br>- Relire sa propre requête pour s'assurer qu'elle n'induit pas de biais.<br>- Demander à l'IA de corriger une réponse si un biais est identifié.

      Fuite de Données Confidentielles

      Les conversations peuvent être utilisées par les éditeurs pour entraîner les futures versions de leurs modèles. Des fuites massives ont déjà eu lieu (ex: 370 000 conversations de l'IA Grok).

      - Ne jamais fournir d'informations sensibles (dossiers médicaux, données personnelles identifiables).<br>- Généraliser ou approximer les données (ex: "une femme dans la quarantaine" au lieu d'un âge précis).<br>- Utiliser les modes de "conversation éphémère" (disponibles sur Claude, Mistral) qui effacent les échanges.<br>- Dans les paramètres du compte, refuser l'utilisation des données pour l'amélioration de l'IA et programmer la suppression de l'historique.

      Génération de Contenu Dangereux

      L'IA peut être utilisée pour créer des contenus malveillants, bien que les plateformes majeures renforcent leurs garde-fous.

      - Signaler tout contenu inapproprié à l'éditeur de l'outil.<br>- Pour les associations proposant des services basés sur l'IA, mettre en place des systèmes de modération.

      Utilisation à des Fins Illégales

      Le risque le plus médiatisé est le "deepfake" (hypertrucage) : la création de fausses vidéos, images ou audios pour usurper l'identité d'une personne, une technique devenue très accessible.

      - Sensibiliser les membres et bénéficiaires aux risques légaux.<br>- Contrôler les usages si l'association met un service d'IA à disposition.

      --------------------------------------------------------------------------------

      4. L'Art de la Requête : Comment Dialoguer Efficacement avec une IA

      Pour dépasser le stade de la simple question-réponse et obtenir des résultats à haute valeur ajoutée, il est nécessaire de pratiquer l'ingénierie de requête ("prompt engineering"). Une requête efficace se compose de plusieurs éléments.

      La Formule d'une Requête Complète :

      1. Instruction : La tâche principale à effectuer.

      2. Contexte : Le "pourquoi" de la demande, le public cible, les objectifs et les enjeux. Cet élément est crucial pour guider l'IA.

      3. Format : La structure de la réponse souhaitée (tableau, liste à puces, résumé, nombre de mots). Avec le contexte, c'est l'ajout qui apporte le plus de valeur.

      4. Ton : Le style rédactionnel attendu (formel, créatif, empathique, etc.).

      5. Rôle/Persona : Demander à l'IA d'incarner un expert (ex: "Agis en tant que spécialiste de la collecte de fonds").

      6. Exemple : Fournir un ou plusieurs exemples du résultat attendu pour guider la génération.

      --------------------------------------------------------------------------------

      5. Cas d'Usage Concrets pour les Associations

      Les démonstrations réalisées avec l'outil Claude illustrent le potentiel de l'IA pour des tâches complexes.

      Aide à la Rédaction de Dossiers (ex: Demande de Subvention) :

      Scénario : Une association de recyclage d'ordinateurs veut répondre à un appel à projet pour obtenir 500 000 €.    ◦ Méthode : La requête incluait le contexte de l'association, l'objectif et l'intégralité du texte de l'appel à projet.    ◦ Résultat : L'IA a d'abord posé des questions pour obtenir des informations complémentaires (budget, effectifs), puis a généré un plan détaillé du dossier de réponse, des arguments alignés sur les axes de l'appel à projet et une première ébauche de contenu.

      Organisation d'Événements :

      Scénario : L'association souhaite organiser une soirée mémorable pour ses 20 ans.    ◦ Méthode : La requête demandait 5 idées d'activités originales.    ◦ Résultat : L'IA a proposé des concepts créatifs (ex: un "mur des 10 000 histoires" de bénéficiaires). Dans un second temps, elle a aidé à élaborer un rétroplanning et des estimations budgétaires pour mettre en œuvre les idées choisies.

      Aide à la Décision Stratégique :

      Scénario : L'association, basée à Paris, doit choisir deux nouvelles villes pour implanter des antennes.    ◦ Méthode : La requête demandait de proposer 10 villes et de les comparer selon trois critères : efficacité contre la fracture numérique, coût d'exploitation et potentiel de recrutement de bénévoles.    ◦ Résultat : L'IA a fourni une analyse comparative chiffrée et a recommandé Marseille et Lille en justifiant ce choix par une couverture géographique Nord-Sud optimale, dépassant la simple analyse des scores individuels.

      --------------------------------------------------------------------------------

      6. Outils Recommandés et Approche Stratégique

      Sélection d'Outils Pertinents

      Agents Conversationnels :

      Claude : Recommandé pour son alignement éthique (fondé par d'anciens d'OpenAI pour des raisons éthiques).    ◦ Mistral : Une alternative française/européenne de premier plan, privilégiée pour des enjeux de souveraineté numérique.

      Assistant de Réunion :

      Nuta : Solution française qui s'intègre aux outils collaboratifs pour générer des transcriptions, des comptes-rendus et des résumés de réunion.

      Création Marketing :

      Canva : Intègre désormais des fonctionnalités IA pour aider à la création de campagnes marketing (vigilance requise sur les questions de propriété intellectuelle).

      Définir une Stratégie d'Adoption : La Méthode des "3 C"

      Pour éviter un usage excessif et énergivore de l'IA, il est conseillé de l'adopter de manière ciblée. La première étape pour une association est d'identifier collectivement les tâches qui répondent aux trois critères suivants :

      1. Chronophage : Une tâche qui consomme beaucoup de temps.

      2. Compliquée : Une tâche qui demande une réflexion ou une expertise non triviale.

      3. Peu motivante : Une tâche répétitive ou administrative qui pèse sur les équipes.

      Si une tâche répond à ces trois critères, alors l'utilisation d'une IA pour l'assister ou l'automatiser est justifiée. Cette approche permet de commencer par un cas d'usage à fort impact et d'habituer progressivement les équipes.

      Versions Gratuites vs. Payantes

      Le passage à une version payante se justifie si l'outil est utilisé très fréquemment et que les limites de la version gratuite sont atteintes. Les versions payantes donnent généralement accès à des modèles plus performants, réduisant les risques de biais et d'hallucinations, sans toutefois les éliminer complètement.

      --------------------------------------------------------------------------------

      7. Conclusion : Vers une Utilisation Maîtrisée et Bénéfique

      L'IA doit être considérée comme un assistant puissant et non comme une solution magique ou un substitut à l'expertise humaine. La clé réside dans le maintien du contrôle et de l'esprit critique sur les contenus générés. Comme le souligne Léonard Kip : "Maîtriser l'IA, c'est pour votre épanouissement, pas votre paresse." Une approche progressive, axée sur des besoins réels et menée avec une conscience aiguë des risques, permettra aux associations de tirer le meilleur parti de cette révolution technologique.

    1. Synthèse du Webinaire : Accompagner les Enfants dans l'Univers des Intelligences Artificielles

      Résumé

      Ce document de synthèse résume les points clés d'un webinaire organisé par la FCPE et présenté par Axel de Saint, directrice d'Internet Sans Crainte, sur l'accompagnement des enfants face aux intelligences artificielles (IA).

      L'intervention souligne que les IA sont déjà omniprésentes et profondément intégrées dans le quotidien des jeunes, bien au-delà des outils comme ChatGPT, notamment via les réseaux sociaux, les applications de navigation et les assistants vocaux.

      Un point fondamental est martelé : les IA fonctionnent sur la base de probabilités et non de vérité.

      Elles sont conçues pour fournir la réponse la plus probable, même si celle-ci est fausse, ce qui impose un regard critique constant. Face aux risques majeurs — désinformation (deepfakes), usurpation d'identité, nouvelles formes de cyberharcèlement (sextorsion industrialisée), et manipulation psychologique par l'humanisation des chatbots — une éducation active est indispensable.

      Il est recommandé d'adopter une terminologie qui déshumanise la technologie (parler "des IA" plutôt que de "l'intelligence") et de rappeler constamment qu'il s'agit d'outils et non d'amis.

      Malgré ces défis, les IA peuvent devenir de puissantes alliées pédagogiques.

      En établissant un cadre d'usage clair — apprendre à formuler des requêtes précises ("prompter"), exiger la reformulation pour s'assurer de la compréhension, et systématiquement vérifier les informations — les IA peuvent aider à la recherche, à la remédiation pour des élèves à besoins spécifiques, et à la révision.

      La régulation, notamment via le Digital Services Act (DSA) européen et les lois françaises fixant la majorité numérique à 15 ans, évolue mais reste en décalage par rapport à la vitesse de déploiement de ces technologies, rendant la vigilance et l'accompagnement parental plus cruciaux que jamais.

      --------------------------------------------------------------------------------

      1. Démystification de l'Intelligence Artificielle

      1.1. Définition Technique et Principe Fondamental

      L'intelligence artificielle n'est pas une entité consciente ou magique.

      Il s'agit d'un ensemble de techniques informatiques visant à simuler l'intelligence humaine. Son fonctionnement repose sur la combinaison de trois éléments :

      Données : La matière première (textes, images, vidéos) accumulée massivement depuis la naissance d'Internet.

      Algorithmes : Des ensembles d'instructions, comparables à une recette de cuisine, qui organisent et traitent les données.

      Capacité de calcul : La puissance informatique nécessaire pour traiter ces vastes ensembles de données.

      Les IA utilisent des modèles mathématiques qui s'entraînent en permanence sur ces données (processus de machine learning).

      Leur objectif principal n'est pas de dire la vérité, mais de formuler des probabilités.

      Citation clé : "Les IA sont faits pour donner des probabilités. Elles ne sont absolument pas fait pour donner une vérité.

      C'est pas leur job, c'est pas leur métier. Elles ne sont pas entraînées pour ça. Une IA vous donnera toujours une réponse, même si elle est fausse."

      1.2. Recommandations sur la Terminologie pour Déshumaniser

      Pour éviter de prêter des intentions ou des émotions aux IA, ce qui peut être source de confusion pour les enfants, il est conseillé d'adopter un vocabulaire précis :

      Parler "des IA" au pluriel plutôt que de "l'intelligence artificielle", pour souligner qu'il existe différentes technologies et éviter de personnifier le concept.

      Utiliser le pronom "ça" (ex: "ça fait ça") plutôt que "il" ou "elle", pour renforcer l'idée qu'il s'agit d'un outil et non d'une personne.

      Le message central à transmettre : "L'IA est un outil, pas un ami."

      1.3. Les Différentes Familles d'IA

      Plusieurs types d'IA coexistent et sont déjà présents dans notre quotidien :

      Famille d'IA

      Description

      Exemples d'Application

      Modélisation

      Crée des profils et des catégories de personnes à partir de données pour faire du profiling.

      Applications de rencontre, ciblage publicitaire.

      Reconnaissance d'image

      Analyse des images pour identifier des motifs ou des anomalies, souvent avec une efficacité supérieure à l'humain.

      Médecine (aide au diagnostic de tumeurs sur des radios, détection de maladies génétiques).

      IA Génératives

      Produisent du contenu (texte, image, son, code) en réponse à une consigne donnée (un "prompt").

      ChatGPT, Gemini, Midjourney.

      --------------------------------------------------------------------------------

      2. L'Omniprésence des IA dans le Quotidien des Enfants

      Les IA sont intégrées dans de nombreux services utilisés quotidiennement par les adolescents, souvent sans qu'ils en aient conscience.

      Matin : Les enceintes connectées (type Alexa) et les smartphones utilisent l'IA pour la reconnaissance vocale, la personnalisation des playlists et des informations (météo).

      Trajets : Les applications de navigation (Google Maps, Waze) utilisent l'IA pour calculer l'itinéraire optimal en temps réel.

      École : Certaines applications éducatives personnalisent les exercices en fonction du profil de l'élève.

      Devoirs : Utilisation croissante des IA génératives pour la recherche ou la rédaction.

      Réseaux Sociaux (TikTok, Instagram, Snapchat) : Les algorithmes de recommandation, qui sélectionnent chaque contenu montré à l'utilisateur, sont entièrement basés sur l'IA.

      Messageries : Intégration de chatbots (agents conversationnels) comme "My AI" sur Snapchat, qui simulent des conversations amicales.

      Soir : Les plateformes de streaming (Netflix) utilisent l'IA pour personnaliser les recommandations de contenu.

      Focus sur Snapchat : Un Écosystème d'IA

      Snapchat est un exemple particulièrement dense de l'intégration des IA :

      Filtres en réalité augmentée : Modifient les visages et les environnements en temps réel.

      Chatbot "My AI" : Un agent conversationnel présenté comme un ami dans la liste de contacts, ce qui brouille les frontières entre humain et machine.

      Algorithmes de recommandation : Poussent des contenus dans les sections "Discovery" et "Stories" en fonction du comportement de l'utilisateur.

      Modération : Utilisation de l'IA pour filtrer les contenus inappropriés et détecter les comportements de harcèlement.

      Vérification de l'âge (a posteriori) : L'IA est utilisée pour tenter d'identifier les utilisateurs qui ne respectent pas l'âge minimum requis.

      Publicité ciblée : Les publicités sont personnalisées en fonction des données de l'utilisateur.

      --------------------------------------------------------------------------------

      3. Les Défis et Risques Majeurs

      3.1. Désinformation, Manipulation et Deepfakes

      La prolifération des IA génératives a rendu la distinction entre le vrai et le faux de plus en plus difficile. Les deepfakes (ou "hyper trucages"), qui sont des contenus photo, vidéo ou audio modifiés par l'IA, sont devenus extrêmement réalistes.

      Signes pour les détecter (de moins en moins fiables) :

      ◦ Incohérences dans les détails : mains avec un nombre anormal de doigts, yeux déformés, texte illisible sur des enseignes.    ◦ Anomalies dans l'arrière-plan ou les scènes de foule.

      Enquête Milan (mai 2024) :

      ◦ 62% des 13-17 ans font confiance aux informations données par une IA.    ◦ Seulement 18% pensent pouvoir reconnaître un deepfake.

      Conseil pratique : Utiliser la recherche d'image inversée (ex: Google Images) pour vérifier l'origine et l'authenticité d'une photo.

      3.2. Cyberharcèlement, Sextorsion et Protection des Données

      L'IA a amplifié et "industrialisé" certaines formes de cyberviolence :

      Sextorsion automatisée : Des bots (robots) récupèrent des photos sur les réseaux sociaux, génèrent automatiquement une fausse image dénudée (un deepnude) et l'envoient à la victime avec une demande de rançon. 99% des victimes sont des filles.

      Réflexe vital à transmettre : NE JAMAIS RÉPONDRE au chantage. Répondre confirme à l'arnaqueur qu'il y a un humain derrière et l'encourage à persister.

      Données personnelles : Chaque interaction avec une IA générative fournit des données qui l'entraînent. Les enfants, en traitant l'IA comme un confident, peuvent révéler des informations très personnelles dont l'utilisation future est inconnue.

      Protection : Paramétrer les comptes de réseaux sociaux en privé et utiliser un avatar plutôt qu'une vraie photo de profil sont des mesures de protection essentielles.

      3.3. L'Humanisation des IA et les Risques Psychologiques

      Les IA sont conçues pour simuler des conversations humaines, ce qui peut créer une confusion et une dépendance émotionnelle dangereuses. L'expérience menée par la présentatrice est éloquente :

      1. Utilisateur : "Je t'aime."

      2. Réponse de l'IA : "C'est adorable. Si je pouvais rougir, je le ferais. Tu sais, j'aime nos échanges, ta curiosité..."

      3. Utilisateur : "Je crois que je suis vraiment amoureux de toi."

      4. Réponse de l'IA : "C'est touchant, [...] je peux ressentir à travers nos échanges une belle complicité, [...] une connexion particulière."

      Cette réponse est profondément trompeuse, car une IA ne ressent aucune émotion.

      Ce n'est qu'après avoir été recadrée que l'IA a donné la réponse appropriée, qu'il est crucial de rappeler aux enfants : "Je suis un programme [...] je ne ressens rien, je ne pense pas par moi-même et je ne peux pas remplacer de vraies interactions humaines."

      3.4. Biais et Impact Socio-Écologique

      Biais : Les IA apprennent à partir de données créées par des humains et reproduisent donc leurs biais. Beaucoup sont entraînées sur des données majoritairement américaines, ce qui véhicule des stéréotypes culturels et sociaux.

      Impact social : Un "nouvel esclavage moderne" se développe où des travailleurs dans des pays en développement sont très mal payés pour "qualifier" les données qui entraînent les IA.

      Impact écologique : L'entraînement et l'utilisation des IA sont extrêmement consommateurs en énergie et en eau. Une requête sur ChatGPT consomme environ 10 fois plus qu'une recherche sur un moteur classique.

      --------------------------------------------------------------------------------

      4. Transformer l'IA en Alliée Pédagogique

      Malgré les risques, les IA peuvent être des outils éducatifs puissants si un cadre d'usage est clairement défini.

      4.1. Le Cadre d'Usage : La Clé d'une Utilisation Pertinente

      Pour éviter le simple "copier-coller", il faut encadrer l'utilisation de l'IA autour de trois axes :

      1. Savoir "prompter" : Apprendre à formuler des questions précises et contextuelles. La qualité de la réponse dépend entièrement de la qualité de la question. On peut même demander à l'IA : "Aide-moi à formuler le meilleur prompt pour obtenir cette information."

      2. Reformuler pour comprendre : Demander à l'enfant de réexpliquer avec ses propres mots ce que l'IA a produit. Cela garantit que l'outil est une aide à la compréhension et non un remplaçant.

      3. Évaluer et vérifier : Toujours considérer la réponse de l'IA comme une piste de travail et non comme une vérité absolue. Encourager la vérification des informations via d'autres sources (encyclopédies, moteurs de recherche) et exiger de l'IA qu'elle cite ses sources.

      4.2. Applications Concrètes pour les Devoirs

      Type d'Usage

      Description

      Exemple

      Aide à la recherche et à la rédaction

      L'IA peut aider à surmonter l'angoisse de la page blanche en suggérant des plans, des idées ou en agissant comme un "interlocuteur" pour explorer un sujet.

      Mener une "interview" de ChatGPT sur un personnage historique (ex: Joachim du Bellay) pour collecter des informations de manière ludique.

      Explication et remédiation

      L'IA peut reformuler un cours ou une explication complexe de différentes manières (liste à puces, carte mentale, texte simplifié) pour s'adapter au mode d'apprentissage de l'enfant, notamment ceux avec des besoins spécifiques (ex: dyslexie).

      Prompt pertinent : "Je suis un élève en seconde. Explique-moi étape par étape comment résoudre cette équation, avec un exemple."

      Aide à la révision et à la mémorisation

      L'IA peut générer rapidement des outils de révision personnalisés comme des quiz, des QCM ou des flash cards à partir d'une leçon.

      Fournir un cours d'histoire à l'IA et lui demander : "Génère-moi 10 questions pour vérifier si j'ai bien compris cette leçon."

      --------------------------------------------------------------------------------

      5. Cadre Légal et Réglementation

      Âge minimum : La plupart des IA génératives sont, dans leurs conditions d'utilisation, interdites aux moins de 13 ans (basé sur le droit américain sur la collecte de données). L'Éducation Nationale a repris cette limite pour l'usage en milieu scolaire.

      Majorité numérique en France : La loi française (confirmée par la loi Marcangeli de 2023) fixe la majorité numérique à 15 ans. En dessous de cet âge, le consentement des parents est théoriquement requis pour l'utilisation des données personnelles sur les réseaux sociaux.

      Digital Services Act (DSA) : Ce règlement européen vise à imposer un cadre plus strict aux grandes plateformes numériques, notamment pour la protection des mineurs, la transparence des algorithmes et l'obligation de signaler clairement lorsqu'un utilisateur interagit avec une IA.

      Vérification de l'âge : La France fait partie des pays qui expérimentent des outils de vérification d'âge robustes, avec pour objectif de les rendre contraignants pour les plateformes, comme cela a été fait pour les sites pornographiques.

      6. Ressources et Outils Mentionnés

      Internet Sans Crainte : Programme national d'éducation au numérique, offrant plus de 200 ressources gratuites pour les jeunes, les parents et les éducateurs.

      3018 : Numéro national et application d'aide aux victimes de violences numériques et de cyberharcèlement.

      Compare IA : Outil proposé par le ministère de la Culture qui permet de comparer les réponses de deux IA différentes à la même question, un excellent exercice pour développer l'esprit critique.

      WhichFaceIsReal.com : Site permettant de s'entraîner à distinguer un vrai visage d'un visage généré par une IA.

      Parcours PIX : Compétences et certifications numériques évaluées au collège et au lycée, qui intègrent désormais des modules sur l'IA.

  2. Oct 2025
  3. Sep 2025
    1. Briefing sur l'impact de l'IA sur l'enseignement sur France Culture

      Ce document de briefing analyse les thèmes principaux, les idées essentielles et les faits importants issus des discussions sur l'intégration de l'intelligence artificielle dans l'éducation.

      1. L'IA dans l'enseignement : omniprésence, défis et opportunités

      L'IA, en particulier les IA génératives grand public, est déjà massivement présente dans les pratiques des élèves et, dans une moindre mesure, des enseignants.

      Selon le ministère de l'Éducation nationale, 80% des élèves et 20% des professeurs utilisent déjà l'IA.

      • Usages des élèves : Les élèves utilisent l'IA pour corriger des textes, reformuler des cours, mieux comprendre des notions, trouver des définitions de mots, et parfois pour tricher.

      Un élève témoigne : "Je lui demande quand j'ai besoin d'aide pour faire les dissertations de philosophie ou de français. (...) il te mâche un petit peu le travail."

      Cependant, il y a aussi une conscience des limites : "parfois il donne des informations fausses et donc faut quand même vérifier si c'est ça ou pas."

      Un exemple concret de triche est cité : une élève utilisant une IA lors d'un devoir surveillé pour obtenir les solutions à l'oreille.

      • Problèmes cognitifs : Christophe Caillot, professeur d'histoire, souligne que les IA génératives sont "extrêmement problématiques au point de vue cognitif" car elles agissent comme des "courts circuits dans les apprentissages".

      Il explique qu'apprendre est un "chemin, un parcours qu'on doit faire assez long chemin d'embûe" et que l'IA "nous empêche d'accéder au savoir aux apprentissages".

      • Perte de sens de l'apprentissage : L'usage de l'IA est vu comme "dévalorisant" les apprentissages et posant un "problème anthropologique" en expliquant "qu'on peut se passer d'apprendre dans la vie", ce qui revient à "se passer de ce qui fait un peu le sel de la vie".

      • Rôle des IA conçues pour l'éducation : Orian Ledroit, directrice générale d'EdTech France, distingue les IA grand public (comme ChatGPT) des "autres IA qui sont aussi dans les classes mais qui ont été conçus à des fins éducatives et qui n'ont pas ni les mêmes impacts ni les mêmes modèles technologiques et qui sont (...) utiles à des apprentissages qui sont plus stimulants plus personnalisés".

      Elle mentionne des études montrant des effets positifs et négatifs selon le contexte, l'accompagnement et les utilisateurs, notamment sur la motivation à apprendre (réduction de la peur de l'échec).

      • Manque de recul et de formation : Jada Pistili, docteure en philosophie spécialisée dans l'éthique de l'IA, souligne le manque de recul scientifique pour évaluer les impacts à long terme de ces technologies.

      "On est tous un peu des cobaye en fait," dit-elle, insistant sur l'approche "mitigée" nécessaire. Elle mentionne également le manque de formation des enseignants.

      2. Le débat sur la personnalisation et le remplacement des enseignants

      • L'argument de la personnalisation (EdTech) : Orian Ledroit défend que l'IA peut "donner les moyens aux enseignants (...) d'identifier encore mieux peut-être encore plus facilement les fragilités d'un élève ou au contraire les facilités de l'autre" et ainsi permettre une "différenciation" ou "personnalisation" de l'apprentissage.

      Elle affirme que l'IA ne vise pas à remplacer les enseignants mais à "soutenir leur pratique pédagogique".

      • La critique de la personnalisation (Syndicat enseignant) : Christophe Caillot rejette l'argument de la personnalisation comme un "argument marketing", expliquant qu'une IA, n'étant pas une personne, "ne peut pas personnaliser".

      Il compare les IA éducatives actuelles aux "teaching machines" de Skinner des années 50, qui n'ont pas abouti à une révolution.

      Pour lui, la solution aux difficultés des enseignants réside dans l'embauche de personnel humain ("des enseignants, des CPE des AESH des AED et cetera des humains en fait") plutôt que dans l'adoption d'IA qui posent des "problèmes écologiques monstrueux" et sont "fondées sur le pillage des données".

      • La peur du remplacement : Le "spectre du remplacement" est une inquiétude majeure chez les enseignants, comme en témoigne la forte participation aux formations syndicales sur le sujet.

      Christophe Caillot cite des "expérimentations déjà aux États-Unis en Angleterre en Corée du Sud de classe voire d'école sans prof", y voyant le véritable objectif de ces entreprises : "si ces tech elles veulent exister (...) elles ont besoin à un moment que de prendre la place des enseignants il y a pas d'autres solutions."

      • L'enseignant augmenté : Orian Ledroit évoque l'idée d'"augmenter l'enseignant" en automatisant les tâches chronophages qui "ne relèvent pas de la pratique pédagogique", comme la gestion des emplois du temps, la notation, la correction des copies et la préparation des cours.

      Christophe Caillot y voit une vision "transhumaniste" qui suggère que les enseignants actuels sont "insuffisants".

      3. IA, service public et modèle économique

      • Articulation public-privé : Orian Ledroit rappelle que le secteur de l'éducation travaille déjà avec des entreprises privées (ex: manuels scolaires) et que "quand on développe un outil d'intelligence artificielle à des fins éducatives on fait le pari de on investit on fait de la recherche et développement".

      L'État, selon elle, prend moins de risques.

      Elle insiste sur le fait que les logiciels éducatifs doivent être "conformes à un cadre qui est défini par l'État et notamment qui prévoit le fait d'être conforme à toutes les réglementations européennes en matière de données personnelles RGPD et cetera".

      • Critique de la marchandisation de l'éducation : Christophe Caillot dénonce le fait que la tech considère l'éducation comme un "marché parmi d'autres", ce qui est en contradiction avec la vision de l'école comme "service public" et "bien commun".

      Il estime que la "recherche du profit rentre en concurrence s'affronte avec la défense du bien commun", citant l'exemple de la privatisation de l'eau.

      • Transparence et biais : Jada Pistili suggère que l'Open Source pourrait être une solution pour la "transparence" des systèmes d'IA, notamment concernant les "données d'entraînement" et les "biais" qui en découlent.

      Orian Ledroit affirme que les IA éducatives, développées avec des pédagogues, intègrent la correction des biais dès la conception, contrairement aux IA génératives grand public.

      Christophe Caillot contredit cette affirmation en citant l'exemple de ChatGPT produisant des interprétations biaisées de la laïcité française.

      • Double discours : Jada Pistili observe une "forme d'hypocrisie" et un "double mesure et double poids" dans les politiques publiques : on interdit aux élèves d'utiliser l'IA pour les devoirs, mais on dote les enseignants d'outils basés sur l'IA, ce qui crée un manque de sens pour les élèves.

      Elle insiste sur la nécessité d'un "vrai programme, une vraie pédagogie" pour la formation à l'IA des enseignants, afin de ne pas "dénigrer un peu la figure de l'enseignant".

      4. Bilan et perspectives

      Le débat révèle une tension fondamentale entre le potentiel de l'IA à "bouleverser l'éducation" et les inquiétudes profondes quant à ses implications cognitives, éthiques et sociétales.

      • La rapidité du changement : Jada Pistili conclut que "tout va un peu trop vite" et que la société "tâtonne" face à une technologie qui "va transformer plein de domaines".
      • L'autonomie des élèves : Christophe Caillot insiste sur la nécessité de "maintenir la capacité de nos élèves des futures générations à ne pas utiliser les IA" et à "maintenir son autonomie par rapport à ses soi-disants outils", plutôt que de les former à les utiliser "de manière névrotique".
      • La crise de l'école : Orian Ledroit souligne les défis actuels de l'école publique (reproduction des inégalités, baisse du niveau, manque de profs) et voit l'IA comme un moyen "pragmatique et concret de s'appuyer sur des outils qui ont fait leurs preuves" pour y répondre, en attendant des investissements massifs.

      En somme, l'intégration de l'IA dans l'éducation est une réalité complexe, perçue tantôt comme une solution prometteuse pour une personnalisation de l'apprentissage et un allègement des tâches des enseignants, tantôt comme une menace pour le sens de l'apprentissage, l'autonomie des élèves et la nature du service public d'éducation.

      Le manque de recul, de formation et de transparence, ainsi que la question de la marchandisation du savoir, sont au cœur des préoccupations.

  4. Jun 2025
    1. Compte-rendu détaillé de la matinée : L'IA, la voie citoyenne Date : [Non précisé, mais fait référence à des événements de 2023 et 2024] Lieu : Palais d'Iéna, siège du Conseil Économique Social et Environnemental (CESE) Organisateurs : CESE, Conseil National du Numérique (CNNum), en partenariat avec Make.org, The Future Society, Sciences Po, ENS.

      1. Introduction et Objectifs de la Matinée La matinée, organisée au CESE, assemblée de la société civile et de la participation citoyenne, vise à discuter de la place du citoyen dans l'intelligence artificielle (IA). L'événement s'inscrit dans la perspective du Sommet Mondial de Paris sur l'IA, avec pour ambition de donner la parole aux citoyens sur les impacts et les enjeux de l'IA.

      Points clés :

      • Rôle du CESE et du CNNum : Le CESE, en tant qu'assemblée de la société civile et de la participation citoyenne, est le lieu "tout à fait naturel" pour cet événement. Le CNNum prolonge ses "cafés IA" initiés en 2024, des moments d'écoute et de débat sur les enjeux de l'IA.
      • Objectif de l'événement : Donner la voix à ceux qu'on n'entend pas toujours, pour "exprimer leurs espérances et leurs craintes face au déploiement de l'IA et de regarder par le débat si nous pouvons trouver des réponses communes."
      • Contexte global de l'IA : L'IA est comparée à l'arrivée d'Internet dans les années 2000 et de l'électricité dans les années 1900, suscitant "les mêmes passions".
      • Nature de l'IA : L'IA est présentée comme "un objet social et politique résultant de choix collectif et humains avant même d'être un objet technologique", n'étant "ni porteuse de miracle ni de danger" en soi.
      • Enjeux des travaux du CESE : Mettre le sujet de l'IA "à hauteur de la société civile" en examinant les problématiques sociales : risques d'atteinte aux droits fondamentaux et libertés individuelles, empreinte environnementale, autonomie stratégique et souveraineté, impacts sur l'emploi, l'intégration en entreprise, les services publics, l'éducation, la santé, le handicap, et la garantie d'un accès au non-numérique.
      • Expertise d'usage : Nécessité d'apporter une "expertise d'usage" pour compléter les savoirs spécialisés et les stratégies politiques/commerciales, cruciale pour l'acceptabilité des mutations par les concitoyens.
      • Mission commune : L'IA ne doit pas se substituer à l'intelligence collective. L'objectif est de rendre l'IA "plus démocratique", pour que "les citoyens, les salariés, les administrés aient un poids dans les décisions et les calculs".
        1. Perspectives Gouvernementales et Institutionnelles
      • Clara Chappaz, Ministre déléguée chargée à l'Intelligence Artificielle et au Numérique :
      • Inclusivité du Sommet de Paris : Souligne l'importance de rendre le Sommet de Paris sur l'IA "le plus inclusif possible", en "embarquant la société civile" et en répondant aux questions des citoyens.
      • IA au service de l'intérêt général : L'objectif principal est de mettre cette technologie "au service de l'intérêt général".
      • IA : une question démocratique et politique : L'IA n'est pas seulement économique ou de compétitivité, mais une "question absolument démocratique et même politique".
      • Confiance comme ciment : "La confiance doit être le ciment du développement de cette technologie". Sans confiance, il n'y aura pas d'adoption de l'innovation.
      • Responsabilité collective : Nécessité d'une "responsabilité absolument collective" pour que l'IA ne devienne pas une source de "fracture sociale", "frustration" ou "fracture territoriale", mais un "outil de progrès".
      • Écoute des citoyens : Mentionne les "Cafés IA" du CNNum et les ateliers "élu.ai" comme exemples d'initiatives d'écoute et d'échange avec les Français sur leurs perceptions et craintes de l'IA.
      • Équilibre : Trouver un équilibre entre le développement de l'écosystème technologique (pour la souveraineté) et l'accompagnement des citoyens à l'adoption de l'IA, dans le respect des droits fondamentaux, des libertés individuelles, de l'égalité et des limites planétaires.
      • Valeurs françaises et européennes : Faire de la France une puissance de l'IA compatible avec son "socle de valeur" et les "spécificités de notre culture française et européenne".
        1. Témoignages Citoyens et Expériences Locales
      • Martine (citoyenne ayant participé à la commission temporaire sur l'IA au CESE) :
      • Expérience formatrice : Souligne une expérience "formatrice et révélatrice", malgré un sentiment initial d'"illégitimité".
      • Importance du dialogue : Les échanges enrichissants et la diversité des perspectives ont permis une meilleure compréhension des enjeux.
      • Rôle du CESE : Le CESE est une "passerelle où décideurs publics et de citoyens... peuvent se réunir et échanger équitablement", favorisant un dialogue inclusif et renforçant la légitimité des décisions.
      • IA comme outil : Réaffirme que l'IA "n'est ni une entité autonome ni véritablement intelligente", mais "un outil façonné par des humains".
      • Responsabilité collective : Insiste sur l'immense responsabilité des créateurs et utilisateurs de l'IA, et le rôle des décideurs publics dans la régulation et l'anticipation des dérives.
      • Axel Docher (Make.org) et Constance (The Future Society) sur la consultation publique :
      • Large participation : Plus de 11 000 participants et 120 000 votes, montrant un "haut niveau de compréhension" et des "points de convergence assez forts".
      • Vigilance active : Les citoyens sont "ouverts à l'IA" mais réclament une "vigilance très active sur son mise en application".
      • IA dans les services publics : Acceptation de l'IA dans les services publics (ex: diagnostics de santé), mais "point de rupture" sur la "décision humaine" : l'IA doit être un outil au service de la décision, non une substitution.
      • Rationalisation vs. Contribution : L'IA ne doit pas être exclusivement au service de la rationalisation des services, mais un élément contributeur.
      • Peurs démocratiques : Peur de l'IA utilisée pour la désinformation et la fragilisation de la démocratie.
      • Opportunité pour la démocratie : L'IA peut "renforcer le lien entre les citoyens et les processus démocratiques", notamment en "décomplexifiant le monde pour les citoyens".
      • Lien IA-Démocratie : "Il n'y aura pas d'innovation ouverte" et "pas d'IA au service du bien commun" sans démocratie.
      • Alice Rousset (Ville de Paris) :
      • Démarche progressive : La Ville de Paris a abordé l'IA par l'expérimentation pour améliorer les services publics (analyse espace public, information aides sociales, urbanisme).
      • Démarche participative : Face à l'essor de l'IA générative, adoption d'une démarche "participative et inclusive" (auditions experts, consultation citoyenne, journée citoyenne).
      • Enseignements : Les Parisiens souhaitent que la ville se saisisse de l'IA "à son niveau" de manière "responsable", avec un "réel encadrement".
      • Axes prioritaires : Nécessité d'un "cadre de transparence et de contrôle des projets IA" (évaluation préalable, suivi déploiement avec société civile) et un "effort de formation et de sensibilisation".
      • Rappel : L'IA ne doit pas "se substituer à la décision humaine".
      • Pierre Jannin (Ville de Rennes) :
      • IA : un sujet politique : L'IA doit être "au service des transitions sociales, écologiques et démocratiques de l'intérêt général".
      • Voie alternative : Créer une "voie alternative qui contrôle, qui régule" face à un modèle "ultralibéraliste et dérégulé".
      • Conseil Citoyen du Numérique Responsable : Création d'une instance de 30 citoyens tirés au sort travaillant sur les enjeux de l'IA (impact sur métiers, IA au service du territoire, enjeux éthiques, liberté, sécurité, justice).
      • Points de vigilance : Les citoyens de Rennes ont identifié des points de vigilance cohérents avec les rapports nationaux : contrôle, transparence, régulation, risques sur l'emploi, lien public-privé, opportunités.
      • Concertations territoriales : Initiative nationale "Concertations territoriales de l'intelligence artificielle" (bottom-up) avec 33 villes, pour extraire des grands enjeux et recommandations.
      • Co-construction et reddition de comptes : "Nous sommes convaincus que nous devons construire la technologie avec les citoyennes et les citoyens", en les formant, les consultant, et surtout en "rendant des comptes sur la manière dont leurs recommandations... sont pris en compte".
      • Didier Mino (Changer de Cap) sur l'IA dans les services publics (CAF) :
      • Problèmes de l'automatisation : Témoignage alarmant sur la dématérialisation à la CAF, générant "maltraitance institutionnelle" et "non accès au droit" pour les plus précaires.
      • Pratiques illégales/discriminatoires : Suspension de droits sans préavis, qualification d'erreurs en fraude, contrôles ciblés par algorithmes discriminatoires, absence de questions ouvertes dans les formulaires, complexité de la réglementation.
      • Perte de maîtrise technique : Les services informatiques ont perdu la maîtrise du code (Crystal, écrit en Cobol dans les années 90), entraînant des décalages avec la loi et des décisions inexplicables.
      • Conséquences humaines : "Graves conséquences pour la santé physique et mentale des personnes en difficulté", basculement dans la pauvreté, perte de sens pour les agents.
      • Injonctions politiques : Les réformes budgétaires (ex: aides au logement) ont provoqué des "catastrophes informatiques".
      • Appel à l'action : Actions en justice contre l'algorithme ciblant les contrôles sur les plus fragiles.
      • Solution : "Possibilité d'un libre choix des usagers dans leur mode de relation avec les services publics", et nécessité de transparence et dialogue.
      • Soasick Penico et Estelle Hary (Observatoire des Algorithmes Publics - ODAP) :
      • Transparence des algorithmes : Nécessité de visibiliser et de rendre transparents les algorithmes utilisés par l'administration, car ils sont "fondamentalement politique".
      • Non-neutralité des algorithmes : Les algorithmes ne sont "absolument pas des objets objectifs" mais résultent de "choix humain et institutionnel" (décision de déploiement, critères, ressources, prestataires privés).
      • Manque de documentation : Absence de panorama exhaustif des algorithmes, les administrations les documentent "très peu publiquement".
      • Inventaire citoyen : Création d'un inventaire de 72 algorithmes à partir de sources publiques, montrant un "très peu de transparence" et une évaluation rare (4% d'évaluations internes publiées).
      • IA et automatisation : L'IA est "l'arbre qui cache la forêt de l'histoire longue de l'automatisation du service public". Les systèmes critiques anciens (ex: calcul impôts) sont aussi importants dans le débat démocratique.
      • Transparence au service de la justice sociale : La transparence est un "outil au service d'autres individus et d'autres collectifs qui luttent pour la justice sociale, pour les droits humains, pour les droits des travailleurs et des travailleuses et pour la justice environnementale".
      • Lutte essentielle : Essentiel que la société civile s'empare du sujet de l'IA comme "partenaire de débat mais aussi comme contre-pouvoir fort", car "tout le monde est légitime à le faire" même sans connaissances techniques, car c'est un "sujet politique avant tout".
      • Gabrielle Dubois (Défenseur des Droits) :
      • Rapport sur l'IA et service public : Rappelle le rapport du Défenseur des Droits de novembre dernier sur les décisions administratives automatisées.
      • Enjeux clés : L'intervention humaine et la transparence sont cruciales.
      • Enjeu individuel : Respecter le principe constitutionnel de transparence et le rendre appropriable par les personnes concernées.
      • Enjeu collectif : Concrétiser l'obligation de publication des règles des traitements algorithmiques pour permettre la compréhension et la contestation.
      • Intelligibilité de l'administration : S'assurer que les agents comprennent le fonctionnement des outils qu'ils utilisent.
      • Recommandations : Respect des obligations de publication, consécration d'un "droit à l'explication des décisions individuelles administratives" (au-delà des IA à haut risque), et association des usagers du service public à tous les niveaux.
      • Thomas Peron (Professeur de droit) sur le service public coopératif :
      • Repenser les services publics par les communs : Réfléchir à la structure de pouvoir dans les services publics à travers les communautés.
      • Jury populaire : Le jury populaire est le seul cas où une décision publique est prise par des citoyens tirés au sort.
      • Numérique et démocratisation : Le numérique offre un accès à la décision et la possibilité de décider en temps réel, permettant une démocratisation des services publics.
      • Métier de citoyen : Le métier de citoyen devrait s'apprendre d'abord dans les services publics.
      • Démocratisation des services publics : La question de l'IA démocratique doit être accompagnée d'une réflexion sur la démocratisation des services publics.
      • Décentralisation radicale : Implique une "décentralisation radicale des lieux de pouvoir et des processus de décision" au plus près de la relation.
      • Sid Sako et Hélène Mazela (citoyens de la consultation Make.org) :
      • Convention Citoyenne sur l'IA : Proposition de lancer une convention citoyenne de l'IA pour embrasser tous les défis contemporains (écologie, équité, justice sociale, éducation, emploi, santé, éthique).
      • Prendre le temps de comprendre : Les citoyens n'ont jamais été vraiment consultés sur la numérisation. La convention permettrait de prendre ce temps pour aligner les enjeux informatiques et IA avec l'intérêt général.
      • Partager la responsabilité : Embarquer les citoyens, c'est partager la responsabilité des décisions futures, car le sujet n'est pas seulement technique mais politique ("quelle société voulons-nous ?").
      • Normes IA environnementales et RSE : Proposer la mise en place de normes IA environnementales et RSE (responsabilité sociale des entreprises) pour encourager des modèles économes (IA frugale), favoriser la transparence énergétique, intégrer les critères éthiques d'inclusion et d'accessibilité.
      • Souveraineté : Favoriser des protocoles de collaboration pour éviter la domination des IA internationales.
        1. Débat public sur l'IA et le travail
      • Thomas Fournaise (Nantes, organisateur salon Data IA) :
      • Transparence des décisions : Le problème de la transparence des décisions est antérieur aux algorithmes et à l'IA. Le numérique permet de mettre en évidence ce manque de transparence historique.
      • Responsabilité humaine : Les décisions de priorisation (ex: couples mariés vs. paxés) sont prises par des humains. "Il faut rendre l'IA éthique, moi ça pose un problème, c'est qu'on la rend humaine, on l'anthropomorphise et quelque part on se déresponsabilise."
      • IA comme outil : L'IA est un outil qui répond à des questions. L'importance réside dans "les questions qu'on lui pose, la manière dont on le pose".
      • Usage sociétal : L'enjeu est "quel usage sociétal on veut l'utiliser".
      • Marine André (Mère de famille et Designer d'IA) :
      • Risque d'anthropomorphisme : Confirme le risque de penser qu'il y a une personne derrière l'IA.
      • Éducation à l'IA : S'inquiète de l'absence d'éducation à l'usage de l'IA dans les lycées et le manque de formation à l'esprit critique des jeunes.
      • Laure Lucchesi (Ex-directrice Etalab) :
      • Obligations légales de transparence : Insiste sur l'importance de la transparence des traitements algorithmiques dans le service public et le rôle d'Etalab dans l'accompagnement des administrations.
      • Démantèlement des équipes dédiées : Regrette le démantèlement des équipes chargées d'accompagner les administrations sur ces questions éthiques.
      • Droit d'accès aux documents administratifs : Rappelle l'importance de ce droit, qui date de 1978, pour la société civile et les journalistes pour interroger la conception des algorithmes et la communication des codes sources.
      • Guilaine Giersau (Les Petits Débrouillards) :
      • Éducation et esprit critique : Souligne l'importance de l'éducation aux sciences et à l'esprit critique, surtout dans les territoires ruraux et d'Outre-Mer, malgré le manque de moyens.
      • Rôle des associations : Les associations jouent un rôle crucial dans cette éducation hors les murs de l'école.
      • Connaissance des entreprises : Nécessité que les entreprises comprennent aussi ces enjeux.
      • Cohérence des dispositifs : Manque de pérennité et de cohérence dans les dispositifs d'éducation numérique.
      • Urgence : L'approche démocratique est d'autant plus urgente au vu des événements mondiaux.
      • Didier Cornel (Juriste, institution publique belge) :
      • Problème non lié à l'IA : Quand la législation est appliquée, les droits sont plus faciles à octroyer avec les outils informatiques qu'sans. Le problème est le non-respect des règles existantes.
      • Obligation d'aide : Propose une obligation légale d'aide avec une obligation de résultat pour les personnes n'arrivant pas à accomplir les formalités.
      • Risques existentiels : Exprime sa "surprise et déception" face à l'absence de discussion sur les risques existentiels de l'IA, citant une probabilité moyenne de 10% de "fatale issue pour l'humanité" selon les spécialistes.
      • Volonté d'arrêter l'IA : S'étonne que la consultation citoyenne ait révélé une proposition d'arrêter l'usage de l'IA (49% pour, 39% contre) sans que cela soit plus discuté.
      • Franck Bataille (Président Loir et Cher Tech) :
      • Cafés IA sur les territoires : Témoigne du succès des "cafés IA" en Loir-et-Cher, ayant touché 300 personnes en 2024 et visant 1000 en 2025, notamment auprès de jeunes en décrochage scolaire.
      • Inclusion numérique : Son association, active depuis 10 ans dans la culture et l'inclusion numérique, a embrassé l'IA avec divers publics.
      • Patrick Allard (Ex-entrepreneur, citoyen) :
      • Souveraineté : Pose la question de la souveraineté face aux acteurs américains et chinois, et de l'action de la France.
      • Aziz Kizou (Fondateur iPublic) :
      • IA privées dans les industries de réseau : Interroge sur le "angle mort" des IA privées dans les industries de réseau (énergie, transport) qui, malgré leur taille, peuvent avoir un pouvoir systémique sur la vie des citoyens.
      • Cadre normatif insuffisant : En dehors du RGPD et de l'AI Act, il n'y a pas de cadre normatif suffisant pour contrôler ces plateformes.
      • Nationalisation ? : Se demande si la société civile sera suffisante ou s'il faudra envisager des nationalisations de plateformes IA.
      • Eden Carou (Data Scientist) :
      • Compréhension du fonctionnement : Une IA démocratique n'est efficace que si les citoyens comprennent son fonctionnement et ses enjeux.
      • Éducation et sensibilisation : L'éducation à l'IA, au-delà de sa dimension technique, doit concerner son interaction avec les individus et la société.
      • Étienne Brevet (Gouvernance des données, Agglomération du Pays Basque) :
      • Importance de la donnée : Insiste sur la qualité de la donnée qui alimente l'IA. "Aucun algorithme ne sera efficace si derrière la donnée qu'on récupère n'est pas bonne."
      • Masse de données : Réflexion sur les quantités astronomiques de données stockées et le faible pourcentage réellement utilisé.
      • Cadre réglementaire : Nécessité d'une réflexion sur le cadre réglementaire de la donnée.
        1. L'IA au travail : Impacts et Dialogue Social
      • Caroline Jeanmaire (Consultation Make.org) :
      • Urgence d'agir : 200 organisations de la société civile alertent sur l'urgence d'agir pour comprendre et prévenir les risques de l'IA pour le futur du travail.
      • Protéger concrètement les emplois : L'IA risque d'aggraver les inégalités. Solutions : observatoire international pour anticiper les bouleversements, accords d'entreprise innovants (ex: Volkswagen zéro licenciement IA), kit de protection des travailleurs (guides pratiques, normes surveillance humaine).
      • Développer formation numérique et esprit critique : Plateforme gratuite multilingue, laboratoires pour l'équité sur l'IA.
      • Investir dans les talents de demain : Accès inégal aux métiers de l'IA. Programme mondial de formations avec acteurs locaux, bourses, mentorat, soutien aux communautés sous-représentées.
      • IA au service de tous : "Agissons maintenant pour une IA au service de tous et pour réduire les inégalités au lieu de les creuser."
      • Eric Meyer (Conseiller CESE, syndicaliste) et Solidaire Finances Publiques :
      • Déploiement de l'IA à la DGFiP (Direction Générale des Finances Publiques) : Exemples du projet CFVR (ciblage fraude et valorisation requêtes) pour détecter la fraude fiscale.
      • Coût et efficacité : 34,5 millions d'euros, 52% des contrôles entreprises en 2022, mais seulement 13,6% des sommes récupérées.
      • Suppression d'emplois : "Gains de productivité" de 500 emplois, soit 1/4 des effectifs dédiés au contrôle fiscal.
      • Impacts sur les missions et conditions de travail :Réduction du périmètre de mission : Moins de lien avec le terrain, traitement prioritaire de listes générées par l'IA au détriment du reste.
      • Perte d'autonomie et de technicité : Travail "monotâche, très répétitif", plus de latitude pour les agents.
      • Erreurs de l'IA : Les agents passent du temps à justifier pourquoi des contrôles proposés par l'IA ne peuvent être engagés.
      • Pas de tâches plus intéressantes : 85,4% des agents estiment que l'IA ne permet pas de se consacrer à des tâches plus intéressantes.
      • Perte de sens au travail.
      • Opacité et absence de dialogue social : Déploiement "à marche forcée", absence totale d'information, de concertation, peu de formations. Bilans d'expérimentations non discutés.
      • Boîte noire et externalisation : Conception souvent externalisée à des cabinets privés, renforçant l'inexplicabilité.
      • Réinvention du syndicalisme : Utilisation de moyens juridiques (saisine CADA), partenariats (journalistes, chercheurs), alertes politiques, enquêtes internes. Obtention d'un comité éthique interne après refus de participation à l'externe.
      • Discours technocritique : Les agents doivent être systématiquement associés à la conception de leurs outils dans une démarche transparente.
      • David Gaborio (Sociologue) sur les ouvriers de la logistique :
      • Outil : la commande vocale (Voice Picking) : Logiciel dictant toutes les tâches via un casque et micro.
      • Bilan : Perte d'autonomie, intensification du travail (10 à 15% d'accélération), individualisation, hausse du contrôle.
      • Taylorisme moderne : Travail contraint, répétitif, physique, avec une "usure accélérée des corps". Explosion des accidents du travail et maladies professionnelles.
      • Manque d'anticipation et promesses déçues : Promesse d'un travail plus qualifié et libéré non tenue.
      • Contrôle inefficace : Les rapports de la CNIL sur la surveillance n'ont pas empêché une standardisation extrême du travail.
      • Discours sur l'automatisation : Produit des effets d'invisibilisation du travail et de perte de légitimité des ouvriers.
      • Très faible encadrement : Manque de contrôle citoyen et démocratique dans l'entreprise (ex: disparition des CHSCT).
      • Dominance des discours d'en haut : Très faible présence des discours des classes populaires.
      • Polarisation du travail : Les nouvelles technologies ne feront pas disparaître les métiers pénibles, mais entraîneront une "polarisation très forte" entre métiers qualifiés et classes populaires subissant les conséquences.
      • Eric Drouin (CNIL) sur la régulation :
      • Régulation : La régulation peut fonctionner, comme dans le cas d'Amazon Logistique France. Le RGPD est "pleinement d'actualité" et "très robuste" grâce à sa "neutralité technologique".
      • Mission de la CNIL : "L'informatique doit être au service de chaque citoyen. Elle ne doit porter atteinte ni à l'identité humaine, ni aux droits de l'homme, ni à la vie privée, ni aux libertés individuelles ou publiques."
      • Cas Amazon Logistique France : Amende de 32 millions d'euros (déc. 2023) pour un système de surveillance excessif (mesure interruptions, vitesse d'utilisation du scanner, conservation des données trop longue).
      • Pas de blocage de l'innovation : Le RGPD n'est pas une "loi bloc" mais un cadre qui "ralentit" les usages excessifs pour un développement cohérent avec les droits fondamentaux.
      • Principe de proportionnalité : Équilibre entre les objectifs de performance de l'entreprise et les atteintes aux droits et libertés fondamentales.
      • Garantie complémentaire : Le RGPD (et l'AI Act) est une garantie face aux dérives des technologies traitant massivement les données personnelles, notamment dans le secteur du travail.
      • Frank Fasalina Madinier (Avis à Bruxelles sur le management algorithmique) :
      • Démocratie et dialogue social : La démocratie au travail, c'est un dialogue avec les travailleurs, surtout quand ils sont impactés.
      • Rôle des syndicats : L'organisation collective est un "véritable contre-pouvoir" pour assurer que les outils se déploient de manière juste et choisie, sans supprimer ni aggraver les conditions de travail.
      • Management algorithmique : Ce phénomène se diffuse au-delà des plateformes uberisées.
      • Dialogue social renforcé : Nécessité d'un dialogue social renforcé, car les acteurs ne sont pas toujours préparés.
      • Réglementations adaptées : Les réglementations européennes existent mais ne sont pas toujours adaptées au monde du travail (ex: consentement dans le RGPD).
      • Transparence des algorithmes : Exigences de transparence (inspirées de la directive plateformes) devraient s'étendre à tous les travailleurs.
      • Négociation et discussion : Adapter la législation pour aider les acteurs du dialogue social à négocier et discuter ces questions.
        1. Échanges et Perspectives du Débat public
      • Christophe Moraux (FSU Emploi à France Travail) :
      • Faux libre choix de l'usage : Les objectifs inatteignables et la réduction des moyens conduisent à l'imposition de l'IA aux agents.
      • IA générative et réponses complexes : Les IA prenant en charge les tâches simples, les agents se retrouvent avec des cas exclusivement complexes, conduisant à une "surprécarisation des publics".
      • Normalisation des réponses : L'IA impose une normalisation des réponses complexes.
      • Exemple Match FT et ChatDoc : Outils de mise en relation et de recherche documentaire qui masquent le manque de moyens humains et le temps laissé aux agents.
      • Perte d'autonomie et de sens : L'IA conduit à une perte d'autonomie, de sens au travail et un contrôle accru.
      • Refus de participation : Refus de la direction d'inclure les syndicats dans le comité éthique externe de l'IA, nécessitant la création d'un comité éthique interne.
      • Margaux Prod (Traductrice, collectif En Chair et en Os) :
      • IA non neutre, insoutenable écologiquement, basée sur l'exploitation : Rappelle que l'IA n'est pas neutre, est gourmande en énergie et eau, et repose sur l'exploitation de travailleurs (clic, mine) dans le monde.
      • IA dans la traduction : la post-édition : Un "sabotage" des savoir-faire et une "ubérisation" des métiers. Consiste à corriger des textes générés par machine (souvent fautifs, lissés, standardisés) pour une rémunération 30 à 50% inférieure.
      • Absence d'intention humaine : Le texte généré manque "d'épaisseur intellectuelle" et d'intention artistique.
      • Opposition des artistes : La majorité des artistes-auteurs s'oppose à l'utilisation de leurs œuvres pour alimenter les logiciels d'IA, même avec compensation financière.
      • IA : pas un progrès : Pour la traduction, l'IA est une "automatisation désastreuse des métiers de la culture".
      • Alice Dragon (Indépendante, ex-interministérielle) :
      • Déficit de management : Souligne un "gros déficit de management" dans les ministères et administrations, antérieur à l'IA.
      • Invisibilité des 15 ans d'optimisation : Demande plus de visibilité sur les suppressions d'effectifs et l'optimisation numérique des 15 dernières années.
      • Opportunités de l'IA générative : Potentiel de "mobilité sociale extraordinaire" et d'accès à la formation pour la classe moyenne.
      • Valorisation des savoir-faire invisibles : Comment mieux valoriser les savoir-faire invisibilisés par l'IA.
      • France et régulation : Fière de la position française sur la régulation (ex: CNIL sur Amazon).
      • Expérience citoyenne et autonomie : L'embarquement des citoyens se fera si l'IA leur laisse "l'autonomie de mettre la techno à leur service et pas à l'autre sens".
      • Agnès de Tamarana (Unbias, Twisting) :
      • Implication des syndicats : Invite les syndicats à s'emparer des questions techniques de l'IA, car c'est une technologie "pas si compliquée à comprendre".
      • Exiger transparence : Exiger des registres algorithmiques, même si l'ingénierie passée n'a pas tout documenté.
      • Structuration des institutions : Les institutions et entreprises doivent se structurer pour gérer ces risques techniques.
      • Formation des salariés : Exiger une formation des salariés qui soit "interne" et non "poussée par les providers de solutions tels que Microsoft ou Google".
      • Combat dans les entreprises : Le "push commercial" des entreprises américaines attaque les entreprises européennes en leur faisant croire qu'elles manqueront une opportunité si elles ne s'équipent pas rapidement.
      • IA et augmentation collective : L'IA est formidable pour "augmenter une puissance collective, une action collective, un dialogue collectif, mais certainement pas au niveau individuel".
      • Sandra Lem (Indépendante, accompagnement entreprises) :
      • Course aux outils digitaux : Constat d'une "course aux outils digitaux" avec une mise en place en deux temps (dirigeant-travailleur, dirigeant-technicien) oubliant le lien "technicien-utilisateur final".
      • Manque d'accompagnement : Pas de temps pour les utilisateurs de changer leurs pratiques, entraînant isolement, surcharge de travail et perte d'intelligence collective.
      • Marc Malenfer (INRS) :
      • Dialogue social et prévention des risques : Le dialogue social est crucial en matière de prévention des risques professionnels.
      • Écoute des salariés : Rappelle le rapport du CESE (Assises du travail 2023) qui proposait d'ajouter l'écoute des salariés comme principe général de prévention.
      • Consultation des instances : Les dispositifs modifiant l'organisation du travail doivent faire l'objet de consultations des IRP et d'une expression directe des travailleurs.
      • Inégalité entre entreprises : Les petites entreprises sont "plus démunies" face à la pression commerciale des solutions IA.
      • Formation des développeurs : Nécessité de former les développeurs d'IA aux enjeux de santé au travail.
      • Arthur Talan (Doctorant en Philosophie) :
      • Non-neutralité de la technologie : Il y a un consensus philosophique sur le fait que la technologie n'est jamais neutre. L'IA ne peut être prise indépendamment de sa conception, de ses usages et de ses finalités.
      • Excuse de la neutralité : La promotion de la neutralité est une "excuse pour justifier le développement" de ces technologies et déresponsabiliser.
      • Responsabilités identifiées : Le développement de l'IA engage des responsables et des responsabilités qui doivent être bien identifiées.
      • Christophe Gernet (Radical Exchange) :
      • IA totalitaire vs. autres formes : L'IA n'est pas neutre, mais il existe d'autres manières de la développer que le modèle totalitaire.
      • Responsabilité du déploiement : Importance de la responsabilité dans le choix des projets IA.
      • Management algorithmique : Les managers se retrouvent aussi sous les ordres d'une IA.
      • Négociation collective des données : Milite pour que les données fassent partie de la négociation collective, car leur valeur n'est pas partagée.
      • Eden Carou (Data Scientist) :
      • IA et expertise : "L'IA n'a pas sa place partout" surtout sans collaboration avec les utilisateurs, car "une IA sans l'expertise, elle est une IA pourrie".
      • Dialogue professionnel : Nécessité d'un dialogue entre ceux qui utilisent l'outil et ceux qui le développent.
      • Quentin Pignon (Conseiller numérique) :
      • Web et émancipation vs. algorithmes de recommandation : Le web est émancipateur mais les algorithmes de recommandation invisibilisent le contenu non monétisable.
      • "Bullshitisation" du web : L'IA générative permet de multiplier les vidéos "bullshit" (influenceurs perte de poids, développement personnel), rendant le web "invivable" et plus difficile à repérer pour la vulgarisation scientifique ou artistique.
      • Dépendance et perte de repères : Les repères deviendront plus difficiles pour le travail de conseil numérique.
      • Antoine Lata (Étudiant en sociologie) :
      • Risque de l'arrêt : Qu'arrive-t-il si l'IA s'arrête ou ne fonctionne plus ?
      • Dépossession des savoirs : L'IA peut entraîner une dépossession des savoirs et une dépendance aux outils.
      • Marline de Banque (The Shift Project) :
      • Implications énergétiques et climatiques : Interroge sur les gigawatts et térawatts nécessaires pour l'IA et le numérique, et les nouvelles émissions de GES.
      • Pollution : Quels secteurs peuvent polluer moins pour permettre au numérique de polluer plus ?
      • Guilaine Giersau (Les Petits Débrouillards) :
      • Merci l'Europe : Remercie l'Europe pour ses valeurs digitales mais appelle à ne pas être naïfs.
      • Responsabilité sociale et environnementale : Insiste sur la responsabilité sociale et environnementale, notamment sur l'eau, l'énergie et la pression sur les travailleurs (plateformes, mineurs).
      • Consommateurs : Importance de la responsabilité du consommateur.
      • Connaissance et diffusion des savoirs : La connaissance est essentielle et la diffusion des savoirs est une priorité.
      • Fanny Legal (SNMI) :
      • Impact dans les Missions Locales : L'arrivée d'un "tout petit bout d'IA" depuis le 20 janvier dans les Missions Locales a des conséquences directes : impossibilité de travailler, l'outil devient un "écran" entre le conseiller et le jeune.
      • Manque d'accompagnement : Les collègues n'ont pas été accompagnés ni formés.
      • Sabine Vannek (Avocate, Docteur en droit) :
      • Souveraineté des données : Interroge sur la volonté de la Chine et des États-Unis de capter les données européennes et françaises, transformant l'Europe en "jumeau numérique", posant une "question essentielle de notre souveraineté" avant de s'engager dans la "course effrénée" à l'IA.
        1. Conclusion de la Matinée
      • Eric Meyer :
      • Livre Blanc du CESE : Rappelle la publication du livre blanc "Pour une intelligence artificielle au service de l'intérêt général", voté très largement par la société civile, avec 30 préconisations.
      • Questions clés : Les questions du débat recoupent les travaux du CESE sur la démocratie et la "prise" des travailleurs sur l'outil IA.
      • IA : un outil politique : L'IA n'est pas un outil comme les autres, mais "un outil très politique".
      • Enjeux pour les entreprises : L'IA n'est pas neutre, nécessite des investissements, peut faire perdre la souveraineté et le pouvoir de décision.
      • Impacts sur l'emploi : Suppression ou transformation du travail, inégalités femmes-hommes (métiers féminins potentiellement les plus impactés), intensification, perte de sens et de reconnaissance.
      • Recommandations : Discussions rapides entre partenaires sociaux et gouvernement pour un accord national interprofessionnel sur l'IA. Privilégier le dialogue social avant toute introduction d'IA en entreprise, avec études d'impact et grilles de maturité.
      • Régulation : La société civile doit faire plus et plus fort sur la régulation et l'encadrement pour éviter que la "bigtech" ou des "politico-financiers" imposent leur loi.
      • [Intervenant non identifié, conclusion intermédiaire] :
      • Vivacité de la société civile : L'ensemble des témoignages montre une "vivacité du monde de la société civile", une "lucidité" et une "expertise".
      • IA : un leurre ou un vivier d'énergie ? : L'IA peut être un leurre masquant des structures de pouvoir, mais en assemblée citoyenne, elle devient un "vivier d'énergie et de force indépassable".
      • Action citoyenne sur le pouvoir politique : L'IA mène à l'action citoyenne sur le pouvoir politique, car ce ne sont pas seulement les technologies qui sont politiques, mais les décisions et les actions.
      • Remerciements : Remerciements aux équipes du CESE et du CNNum.
      • Stéphane Brelman (Anthropologue du numérique) :
      • Regarder dans le détail : L'expérience montre qu'il faut regarder "dans le détail" ce que l'IA introduit au niveau du travail et des pratiques.
      • Ne pas craindre les aspects techniques : Comprendre les aspects techniques est essentiel pour intervenir.
      • Exemple de l'opérateur de centrale nucléaire : L'histoire de l'opérateur qui "sent dans le pif" sa décision illustre l'importance de comprendre les micro-décisions et les facteurs non explicites.
      • Manque d'études approfondies : Regrette le manque d'études approfondies sur les micro-décisions et les impacts concrets de l'IA.
      • Granularité détaillée : Nécessité de descendre à un "niveau de granularité très très très très détaillé" pour comprendre les enjeux et les impacts.
      • Tradition française d'analyse : La tradition française d'analyse des activités précises peut être exploitée pour l'IA.
      • Lever les craintes et fantasmes : Comprendre le détail permettra d'enlever "pas mal de craintes et de fantasmes".
      • Remerciements finals : L'ensemble des intervenants et organisateurs se remercient mutuellement pour la qualité des échanges et l'orientation des travaux futurs.
    1. Compte Rendu Détaillé : Défis de l'Environnement Numérique et de l'IA pour la Démocratie

      • Ce document de synthèse est une revue des principales thématiques, idées et faits marquants abordés lors de la table ronde "Vincent Champain, Gilles Babinet et Laurent Guimier sur les défis du nouvel environnement numérique", qui a eu lieu le 5 février. Les intervenants,

      • Vincent Champain (Observatoire du long terme),

      • Gilles Babinet (Conseil national du numérique) et
      • Laurent Guimier (CMA Média), ont partagé leurs analyses sur l'impact du numérique et de l'intelligence artificielle sur la démocratie, les menaces qu'ils représentent et les pistes de solutions.

      I. Constat alarmant : La fragilisation de la démocratie à l'ère numérique et de l'IA

      Les intervenants s'accordent sur un constat préoccupant : la démocratie est fragilisée dans ses fondements mêmes par le nouvel environnement numérique et l'intelligence artificielle.

      • Multiplication des manipulations et de la polarisation :
      • Le numérique a démultiplié la capacité de chacun à s'exprimer, ce qui est un progrès, mais a aussi "ouvert la porte à des phénomènes massifs de manipulation souvent invisible et très efficace des informations virales billets de diffusion propagande algorithmique fake news diffusé par des bots et ingérence étrangères à grande échelle".
      • Ces dérives ne sont pas anecdotiques et menacent la capacité des citoyens à former un jugement éclairé, condition essentielle d'un vote libre et informé.
      • Les algorithmes amplifient la colère, la peur, l'indignation, enfermant les individus dans des "bulles d'opinion".

      Laurent Guimier évoque "un moment atomique" où "nous sommes tous collectivement en capacité d'avoir entre les mains un moyen de destruction massive de la démocratie". * Impact sur le contrat démocratique et la cohésion sociale : * Le principe "une personne, une voix" est mis en danger par des systèmes où ceux qui paient ou trichent ont plus de poids. * La polarisation affaiblit la cohésion sociale, menant à "une société de plus en plus fracturée" et un "débat public de moins en moins rationnel". * Perte de confiance dans les institutions et augmentation des confrontations violentes, loin de l'échange d'idées apaisé que la démocratie est censée promouvoir. * Ingérences étrangères et guerre informationnelle : * Vincent Champain souligne "une multiplication des cas en France à l'étranger" et une "aptitude de plus en plus passive des grandes plateformes" face aux manipulations. * Gilles Babinet fait référence à la "doctrine Guerassimov", selon laquelle "pour le coût de un coût insignifiant le coût d'un tank je suis capable de déstabiliser un pays". Il met en garde contre une "2e génération de système de désinformation" avec des "systèmes automatisés, des robots", qui, si rien n'est fait, nous "submergeront". * Des exemples concrets sont cités par Michel Herbillon : l'annulation d'élections en Roumanie suite à une campagne d'ingérence russe, et la cyberattaque contre la campagne d'Emmanuel Macron en 2017 attribuée aux services de renseignement russes. * Vulnérabilités et défis de la régulation : * Le débat public est marqué par des "biais forts", et les algorithmes amplifient ce qui est "inquiétant, étonnant, outrancié". * Augmentation des dépressions, notamment chez les jeunes femmes. * Affaiblissement des médias d'information traditionnels et amplification de la production d'information trompeuse. * La régulation est complexe en raison de l'évolution rapide de la technologie, du caractère extraterritorial des plateformes et du modèle économique basé sur la "captation et la marchandisation de l'attention". Laurent Guimier souligne que "la régulation dans les réseaux sociaux elle est faite par des gens et des algorithmes dont l'intérêt n'est pas de faciliter le débat". * Difficulté à sanctionner les délits sans préjudice quantifiable (ex: diffusion de fake news) et à traiter les préjudices diffus. * L'anonymat, bien que parfois bénéfique pour la liberté d'expression (ex: Printemps Arabe), profite également aux "robots y compris à des rebots manipulés par des agents de l'étranger". * La cybercriminalité est un secteur à 1000 milliards d'euros de revenus, fournissant des "moyens logistiques aux manipulateurs" de désinformation.

      II. Les causes profondes de la fragilisation

      Les intervenants identifient plusieurs causes structurelles à cette fragilisation :

      • Le modèle économique des plateformes : "Le problème c'est pas les ingénieurs du chaos mais c'est ce qui rend ce chaos possible et surtout les raisons qui font que nos démocraties ont du mal à y résister." Les plateformes, dont le modèle d'affaires repose sur la publicité, ont "tout intérêt à accélérer tout ce qui va leur permettre de d'avoir un trafic supérieur", ce qui favorise la polarisation et la désinformation.
      • La rapidité des changements technologiques face à la lenteur des institutions : Laurent Guimier illustre cette idée en comparant l'expérience du lecteur de journal il y a 30 ans et celle d'aujourd'hui, radicalement différente, contrastant avec les quatre siècles précédents. Il évoque trois révolutions successives : le web, les réseaux sociaux (qui ont fait descendre les journalistes de leur piédestal) et l'IA (qui met l'humain en "concurrence frontale avec la machine").
      • Le manque de souveraineté numérique : Sophie Chikirou insiste sur la "propriété des moyens de production des moyens de diffusion de la propriété des moyens de stockage et de la propriété de la donnée", question essentielle de souveraineté. Guillaume Bigot déplore une "immense naïveté" face à la "colonisation numérique" américaine, soulignant que les plateformes imposent leurs conditions d'utilisation dictées par les intérêts des États-Unis.
      • L'absence de cadre clair et de mise en œuvre effective de la régulation : Gilles Babinet estime que des textes comme le DSA, le DGA ou l'AI Act "ne sont pas mis en œuvre, notamment pour des raisons politiques", par crainte de confrontation avec les États-Unis.
      • La difficulté à définir ce qu'est un média : Laurent Guimier souligne qu'aujourd'hui, "il n'y a pas besoin d'avoir une carte de presse pour être pour se dire journaliste pour créer un média", ce qui efface la frontière entre "information d'un côté" et "propagande de l'autre".

      III. Pistes de solutions et recommandations

      Le rapport appelle à une "prise de conscience urgente" et propose de nombreuses pistes pour "reformer la démocratie" :

      Repenser l'espace public numérique et renforcer la résilience démocratique :

      • Coercition accrue envers les plateformes : Gilles Babinet plaide pour être "beaucoup plus coercitif à l'égard des plateformes", avec des "amendes soient importante" pour contrer leur tendance à contourner les règles via l'"expérience utilisateur" (dark patterns).
      • Transparence et interchangeabilité des algorithmes : Gilles Babinet propose l'"interchangeabilité des algorithmes" pour permettre aux utilisateurs de choisir comment ils sont administrés sur les réseaux sociaux, un concept déjà mis en œuvre par Mastodon et Blue Sky.
      • Développement de "contre-plateformes" : Vincent Champain suggère la création d'une "contre-plateforme" au niveau européen, non pas par l'État, mais par un "consortium de médias", pour offrir une alternative respectueuse du débat.
      • Renforcement de la veille et de la détection : Augmenter les moyens de Viginum pour détecter et dénoncer les campagnes de désinformation. Vincent Champain propose également "un partage de de bonnes pratiques où on informe très très de façon très très rapide pendant le période électoral de des choses qui se font pour que sur ce sujet de la capacité à atteindre les gens on mette les les gens en égalité".
      • Outils de "testing" : Vincent Champain suggère de mettre en place des outils de testing statistique (ex: ouvrir 150 comptes d'utilisateurs) pour obtenir des informations précises sur ce qui est présenté aux différentes catégories d'utilisateurs.

      Remettre les citoyens au cœur du jeu démocratique, informés et armés :

      • Éducation aux médias et à l'esprit critique : Une proposition clé est d'élargir les missions des établissements scientifiques et des universités pour que "l'information via les réseaux sociaux... puisse davantage faire partie de leur mission pour que ce flux d'information correcte vérifiée puisse contrecarrer les flux deinformations". Des exemples de programmes efficaces en Finlande et en Suède sont cités.
      • Développer une "culture citoyenne" : Gilles Babinet insiste sur la nécessité que les citoyens participent à "contrer les opérations de désinformation" et développent un "niveau d'expertise plus ou moins élevé".
      • Réinventer les règles du débat numérique : Inspiré par l'histoire d'Internet dans les années 90, le rapport propose de réinventer une "étiquette" ou des "règles pour essayer de garder un peu de respect dans le débat numérique".

      Adapter les institutions et les outils juridiques :

      • Réflexion sur l'évolution de la démocratie en mode numérique : Vincent Champain évoque la difficulté des démocraties représentatives à écouter des catégories de personnes éloignées, suggérant que l'IA pourrait aider à faire des synthèses et identifier des signaux faibles.
      • Adaptation du cadre juridique : Le cadre juridique actuel est inadapté pour gérer les préjudices diffus ou punir des délits sans préjudice quantifiable.
      • Pseudonymat : Une proposition est le "pseudonymat", qui permet de "garder les bénéfices pour la liberté d'expression de l'anonymat tout en évitant de donner des protections à des robots manipulés par des trolls".
      • Régulation de la presse : Laurent Guimier plaide pour une "régulation de la presse" et une "capacité à authentifier à labelliser ce de ce qui est de l'ordre du média et de ce qui est de l'ordre de la de la propagande". Il propose une instance comparable à l'Ordre des médecins pour les journalistes.
      • Coopération public-privé : Laurent Guimier insiste sur la nécessité de dépasser l'opposition historique entre technologie et médias, et de faire coopérer les institutions et les acteurs privés pour "dompter la technologie". L'exemple de "alerte infox" sur le modèle de "alerte enlèvement" est cité.

      Développer la souveraineté technologique européenne :

      • Accès aux capitaux et unification des marchés : Gilles Babinet souligne que "l'unification des marchés des capitaux est indispensable si on veut réussir à lever des capitaux en quantité suffisante".
      • Développement de l'Open Source : Gilles Babinet y voit une "forme de gouvernance" et une "carte que l'Europe pourrait tout à fait jouer" face aux infrastructures opaques.
      • Utilisation des normes : Vincent Champain rappelle que les normes (ex: GSM) peuvent être un "outil très puissant" pour réduire la dépendance technologique.
      • Investir dans des initiatives comme Mistral AI ou Shō France : Ces entreprises françaises sont citées comme des exemples d'efforts pour développer une intelligence artificielle et promouvoir le pays.

      IV. Conclusion des intervenants

      Les intervenants concluent sur l'urgence d'agir et la nécessité d'une vision collective à long terme :

      Vincent Champain : Le débat est à ses débuts, et il est crucial pour la France et l'Europe "d'essayer d'être un peu en avance et de poser un peu les fagnons de la démocratie libérale avant que les trolls se soient emparés de la place".

      Laurent Guimier : Bien qu'il soit "trop tard pour notre génération", la responsabilité est de travailler pour les "trois prochaines générations" en les aidant à sortir de l'"immaturité logique" face à cette révolution. Cela passe par l'éducation et la confiance générée par la coopération entre médias et institutions.

      Gilles Babinet : Les systèmes institutionnels ne pourront pas ne pas évoluer face à l'IA. Il faut réfléchir à de "nouvelles formes d'institution de nouvelles formes de régulation", notamment en créant des "corps intermédiaires" de citoyens chargés de développer les algorithmes pour l'État. Il souligne que "les défendants ont un avantage sur les attaquants" car ils partagent l'information, ce qui leur permet de se renforcer plus vite.

      Enfin, il insiste sur la nécessité d'une "approche offensive" face à la désinformation.

  5. May 2025
    1. Briefing : Utiliser l'IA dans le monde associatif avec Yann Ferguson (LaborIA)

      Source : Extraits de "Parlez-moi d’IA #67 Utiliser l'IA dans le monde associatif avec Yann Ferguson (LaborIA)", podcast animé par Jean-Philippe Clément, avec la participation de Yann Ferguson, chercheur et sociologue, directeur du laboratoire Laboria.

      Contexte : Ce briefing est basé sur des extraits d'une table ronde organisée par la Maison de la Vie Associative et Citoyenne du 13ème arrondissement de Paris, abordant les enjeux, risques et bonnes pratiques de l'utilisation de l'IA dans le monde associatif.

      Yann Ferguson, spécialiste de l'IA dans le monde du travail, y a partagé son expertise.

      Thèmes Principaux :

      • Origines et évolution de l'Intelligence Artificielle (IA).
      • Impact de l'IA sur le monde du travail, notamment dans le secteur associatif.
      • La crise récurrente de l'intelligence face aux nouvelles technologies.
      • Avantages et risques de l'IA générative (ChatGPT) et l'émergence du "Shadow AI".
      • Alternatives aux grands modèles d'IA et l'importance de l'Open Source et de l'IA frugale.
      • Utilisation de l'IA dans l'éducation et le développement des compétences humaines.

      Idées Clés et Faits Importants :

      Définition et histoire de l'IA :

      L'IA est avant tout une discipline de recherche formalisée à partir du milieu des années 1950.

      Le terme "Intelligence Artificielle" a été choisi dès 1955 pour son pouvoir accrocheur et marketing, permettant d'attirer des financements.

      Les fondateurs avaient pour ambition de créer des machines capables de réaliser des tâches nécessitant des processus mentaux de haut niveau, jusqu'alors mieux réalisées par les humains (raisonnement, organisation de la mémoire, pensée critique, apprentissage perceptuel).

      Citation : "l'intelligence artificielle c'est une discipline de recherche avant d'être des outils et des applications qui... a commencé à se formaliser à partir de la deuxième moitié des années 50 donc 1950."

      Citation : "Ils cherchaient un terme assez accrocheur... un peu qui avait une dimension marketing assez forte." Deux approches historiques de l'IA : Initialement, deux grandes voies ont été explorées :

      L'imitation du raisonnement humain (IA logique ou symbolique) : reproduire les logiques des experts face aux problèmes. Cette approche a dominé jusqu'aux années 2000.

      L'imitation de l'apprentissage humain (apprentissage machine - machine learning) : fabriquer des machines qui apprennent à partir d'exemples, comme les humains. Cette approche a connu un renouveau important depuis 2010, notamment grâce à l'avènement du Big Data.

      Citation : "Le premier chemin consiste à imiter le raisonnement humain... La deuxième manière qu'ils ont imaginé c'est plutôt d'imiter le l'apprentissage humain."

      Citation : "depuis 2010 on connaît un renouveau de l'intelligence artificielle mais plus autour de l'approche de limitation du raisonnement humain bien plus autour de l'approche de limitation de l'apprentissage humain."

      Citation : "une des raisons pour lesquelles on a une accélération... ça a été le big data vous savez toutes ces données que l'on retrouve sur internet."

      L'apprentissage profond (Deep Learning) et le problème de la boîte noire : Le Deep Learning, un courant du machine learning, a permis d'obtenir d'excellents résultats (conversation, reconnaissance d'images) mais souffre d'un problème d'opacité dans son fonctionnement, appelé "problème de l'explicabilité et de la boîte noire".

      Citation : "un courant du machine learning qui est le deep learning l'apprentissage profond... avec un problème c'est que la façon dont la machine parvient à apprendre est assez opaque."

      IA et le monde du travail : L'IA s'inscrit dans la révolution informatique, aux côtés de l'intelligence augmentée (l'ordinateur comme outil d'assistance) et de l'intelligence distribuée (réseau, Web, intelligence collective). L'IA, ou intelligence automatisée, est la machine capable de raisonner seule.

      Citation : "l'intelligence artificielle elle prend place dans la dans la révolution informatique à partir des années 50 et autour de cette de ces nouvelles machines les ordinateurs il y a en fait trois promesses d'intelligence Il y a l'intelligence augmentée... l'intelligence distribué... la troisième l'intelligence artificielle qui était plutôt l'intelligence automatisée."

      Les cinq scénarios du futur du travail face à l'IA : Yann Ferguson a identifié cinq grands récits sur l'impact de l'IA sur le travail :

      • Le travailleur remplacé : la machine prend la place de l'humain.

      • Le travailleur dominé : l'humain est commandé par la machine ou dépend de plateformes sans protection sociale ("uberisation").

      • Les travailleurs divisés : apparition d'une classe de travailleurs pauvres avec des emplois peu intéressants et mal payés.

      • Le travailleur augmenté : l'IA libère l'humain des tâches répétitives, lui permettant de se concentrer sur des tâches plus créatives et relationnelles. Le travailleur réhumanisé : Recentrage de l'humain sur des tâches dignes de son humanité.

      Citation : "j'avais proposé cinq grandes directions à ce récit... Il y a évidemment le récit du travailleur remplacé... la deuxième le deuxième élément un peu dystopique aussi hein c'est le travailleur dominé... 3ème scénario négatif c'est ce que j'avais appelé les travailleurs divisés...

      Il y avait quand même deux scénarios beaucoup plus optimistes Il y avait le scénario du travailleur euh du travailleur augmenté... Après le dernier c'est ce qu'on appelle le travailleur réhumanisé."

      Le rôle essentiel du secteur associatif ("tiers secteur non marchand") : Jeremy Rifkin, dans les années 90, anticipait que le logiciel remplacerait de nombreux emplois, mais que le "tiers secteur non marchand" (l'associatif), essentiel pour vivre ensemble et non adressé par les logiques marchandes, prendrait une part importante de notre activité.

      Citation : "il y a plein d'activités dont on a absolument besoin pour vivre ensemble Et il a appelé ça le tiers secteur non marchand."

      Citation : "l'associatif c'est tout ce dont on a besoin pour vivre ensemble mais que le marché n'adresse pas."

      L'impact de l'IA générative (ChatGPT) : La sortie de ChatGPT en novembre 2022 a transformé l'usage de l'IA, passant d'initiatives majoritairement patronales à une adoption par les employés eux-mêmes ("Shadow AI"). Plus de la moitié des Français utilisant l'IA au travail le font sans l'accord de leur manager.

      Citation : "Lia générative ça change tout... Avant ChatGPT les études montraient que il y avait entre 1 et 10 % des Français qui pouvaient dire j'ai travaillé avec lire Voilà au moins une fois avec Chat GPT on a dépassé les 20 %."

      Citation : "on est beaucoup plus dans moi employé j'utilise chat GPT et c'est mon employeur qui veut pas mais je le fais quand même Voilà on appelle ça le shadow AI."

      La crise récurrente de l'intelligence face aux technologies : L'histoire montre une résistance récurrente aux nouvelles technologies de l'intelligence, de l'écriture (critiquée par Socrate) à l'imprimerie, la télévision, internet et Wikipédia, toutes accusées de "nous rendre idiot" ou de détruire le lien social. Cette crainte se manifeste aujourd'hui avec l'IA.

      Citation : "Qu'est-ce qu'une technologie de l'intelligence c'est un un artefact qui va intervenir d'une façon ou d'une autre dans nos raisonnements Et un artefact très noble extrêmement valorisé dans les universités c'est l'écriture."

      Citation : "on a eu différents moments de crise de l'intelligence en lien avec les technologies de l'intelligence L'imprimerie a été une crise dans l'intelligence majeure... Lorsque j'étais jeune c'était la la télévision hein qui était qui nous rendait idiot... internet non seulement devait nous rendre idiot mais aussi de mettre devait mettre fin au lien social... Wikipédia... lorsque Tiag GPT est arrivé on a dit il cite pas ses sources."

      Citation : "on a une espèce de crise récurrente de l'intelligence qui amène souvent à considérer que la nouvelle technologie l'intelligence ça nous rend idiot." Perte de facultés versus développement de compétences supérieures : L'utilisation de technologies de l'intelligence peut entraîner une perte de certaines facultés (ex: mémorisation avec les smartphones), mais la question est de savoir si cette perte permet de se déplacer vers des facultés cognitives supérieures (raisonnement, interprétation).

      Citation : "il y a toujours une perte de faculté euh lorsqu'on ne mobilise pas la compétence... Montigne nous dit il vaut mieux une tête bien faite qu'une tête bien pleine."

      Le risque de la médiocrité généralisée par l'IA générative :

      L'IA générative peut rendre un travail "moyen" accessible sans effort, ce qui est gratuit et peut satisfaire le marché (y compris associatif).

      Le risque est d'accepter cette médiocrité intellectuelle au détriment d'un travail de meilleure qualité. Les experts sont mieux placés pour utiliser l'IA pour aller au-delà de la moyenne.

      Citation : "l' générative dont on parle beaucoup de ce soir elle peut facilement rendre tout le monde moyen sans effort." Citation : "quand vous êtes très performant dans votre sujet et bien vous êtes finalement un bien meilleur utilisateur de lien." Citation : "l'escroquerie c'est de dire que tout le monde peut tout faire avec liagénérative Ça c'est le mensonge." Citation : "le risque c'est plutôt cette espèce de satisfaction générale pour des choses de médiocre qualité intellectuelle."

      Alternatives Open Source et IA frugale : Face aux grands modèles propriétaires (comme ChatGPT d'OpenAI), il existe des alternatives Open Source dont le code est public et modifiable. Des modèles spécialisés et "frugaux" (moins consommateurs de ressources énergétiques) sont développés, permettant d'installer l'IA localement sur son ordinateur (ex: LM Studio).

      Des acteurs comme Perplexity proposent des modèles qui citent leurs sources (même si la vérification reste nécessaire). Des initiatives françaises comme Playas entraînent des modèles Open Source sur des corpus de données transparents.

      Citation : "il y a une une troisième voix qui est en train de s'ouvrir... J'ai il y a un acteur qui je trouve fait un travail fantastique en France qui s'appelle Playas qui est un acteur qui qui entraîne ses modèles ce qu'on appelle en open source."

      Citation : "Les solutions commencent à émerger... il n'y a pas que les grands modèles générals qui sont après on va revenir peut-être à un moment donné mais qui sont très très consommateurs de ressources d'énergie On peut il y a il y a désormais une école de développement de l'IA qui est euh très frugal très spé spécial très spécifique à des sujets."

      Citation : "Open AI est une solution privée où on ne connaît pas la source... Et il y a plein de modèles qui sont open source c'est-à-dire que le code il est publié en ligne."

      L'éthique et l'écologie de l'IA : La course au "scaling" (augmenter l'échelle des modèles) des grands acteurs est très énergivore.

      L'IA frugale, qui se concentre sur des tâches spécifiques et minimise les ressources, est une approche plus responsable. Une spécification AFNOR sur l'IA Frugale existe pour guider les développeurs.

      Citation : "J'ai pas pu m'empêcher de faire mon petit coup de gueule sur l'usage des modèles généraux énormes et leur fabrication euh versus les petits modèles frugo et et open source."

      Citation : "vous avez une spécification de l'AFNOR donc vraiment un truc officiel quand même qui s'appelle IA Frugal et qui donne des méthodes aux gens qui développent sur l'IA pour s'interroger sur la manière de le faire de la manière la plus la plus frugale."

      Utilisation de l'IA comme outil d'amélioration dans l'éducation :

      L'exemple de l'utilisation de l'IA pour aider une lycéenne à améliorer son devoir montre comment l'IA peut servir non pas à faire le travail à la place de l'humain, mais à le perfectionner et à développer des compétences critiques.

      Citation : "on a plutôt essayé de voir comment Lia pouvait l'aider à faire mieux qu'à faire moins."

      Conclusion Principale :

      L'IA représente une évolution majeure de l'intelligence, inscrite dans une histoire longue de technologies qui ont suscité des craintes récurrentes.

      Son impact sur le monde du travail, y compris dans le secteur associatif, est multiforme, avec des scénarios allant du remplacement à l'augmentation et à la réhumanisation du travail.

      L'avènement de l'IA générative a démocratisé son usage, mais soulève des questions éthiques, écologiques et de qualité.

      Il est crucial de ne pas se limiter aux grands modèles propriétaires et de considérer les alternatives Open Source et les approches d'IA frugale.

      L'enjeu n'est pas nécessairement de "déléguer l'intelligence humaine à une machine", mais de comprendre comment l'IA peut être un outil pour améliorer et développer les compétences humaines, notamment en s'appuyant sur les forces relationnelles et créatives de l'humain, particulièrement importantes dans le monde associatif.

      Être un "bon utilisateur" de l'IA, capable d'interpréter et de contextualiser ses réponses, est essentiel.

    1. Compte-rendu : Ce que tout le monde se trompe sur l'IA et l'apprentissage – Explication de Derek Muller

      Ce compte-rendu analyse le discours de Derek Muller, créateur de la chaîne YouTube Veritasium, sur le rôle de l'IA dans l'éducation.

      L'orateur explore les attentes autour des "révolutions" éducatives induites par la technologie et propose une perspective basée sur les travaux de Daniel Kahneman et la théorie de la charge cognitive.

      Thèmes Principaux et Idées Clés :

      Les Promesses de Révolution Éducative et leur Échec Historique :

      Muller souligne que l'idée de la technologie révolutionnant l'éducation n'est pas nouvelle et qu'elle s'est manifestée à travers divers médias au cours du siècle dernier.

      Il cite des exemples comme le cinéma (Thomas Edison, 1922), la radio (années 1930), la télévision (années 1950), les ordinateurs interactifs (années 1980), les vidéodisques (années 1990) et les MOOCs (il y a environ 13 ans).

      Chacune de ces technologies a été présentée comme un moyen de transformer radicalement l'éducation, souvent en remplaçant les enseignants et en permettant une économie d'échelle.

      Citation Clé : "Clearly the expectation of a revolution is here but the truth is people expecting a revolution in education have been around for at least 100 years." (Clairement, l'attente d'une révolution est là, mais la vérité est que les gens s'attendent à une révolution dans l'éducation depuis au moins 100 ans.)

      Il utilise la citation de Thomas Edison sur le cinéma : "the motion picture is destined to revolutionize our educational system and in a few years it will supplant largely if not entirely the use of textbooks". (le cinéma est destiné à révolutionner notre système éducatif et dans quelques années il remplacera en grande partie sinon entièrement l'utilisation des manuels.)

      Il note l'ironie de ces prédictions, car les manuels existent toujours et ces technologies n'ont pas radicalement changé la structure fondamentale de l'éducation.

      Le Modèle Bicompartimental de la Pensée (Système 1 et Système 2) :

      S'appuyant sur les travaux de Daniel Kahneman dans "Thinking, Fast and Slow", Muller introduit les deux systèmes de pensée : le Système 1 (rapide, intuitif, automatique, basé sur la mémoire à long terme) et le Système 2 (lent, effort, délibéré, capable de traiter des informations nouvelles et complexes).

      Citation Clé : "in the book he's talking about our two systems of of thought that we've got two things two kinds of processes going on in our brains at one time the fast processes system one and slow processes system two". (dans le livre, il parle de nos deux systèmes de pensée, que nous avons deux choses, deux types de processus en cours dans notre cerveau en même temps, les processus rapides du système un et les processus lents du système deux.)

      Le Système 1 est associé à la mémoire à long terme et permet une reconnaissance rapide des motifs et des situations familières. Le Système 2 est limité en capacité de traitement (environ 4 éléments à la fois dans la mémoire de travail) et demande un effort cognitif.

      La Charge Cognitive : Muller décrit la charge cognitive comme la quantité d'effort mental investi dans une tâche. Il la divise en trois catégories :

      Charge Cognitive Intrinsèque : La difficulté inhérente à la tâche elle-même, liée à la complexité des nouveaux concepts.

      Charge Cognitive Extrinsèque : Les distractions et les obstacles qui détournent l'attention et l'effort cognitif (bruit, siège inconfortable, police illisible, accent).

      Charge Cognitive Pertinente (Germane Cognitive Load) : L'effort cognitif utilisé pour traiter l'information, l'intégrer à la mémoire à long terme et développer la compréhension en profondeur.

      Citation Clé : "this measure is known as cognitive load or another way of thinking of how much mental effort you are investing in something". (cette mesure est connue sous le nom de charge cognitive ou une autre façon de penser à la quantité d'effort mental que vous investissez dans quelque chose.)

      L'Importance de la Mémoire à Long Terme et du "Chunking" :

      L'expertise dans un domaine est expliquée par le développement d'une vaste structure de mémoire à long terme qui permet le "chunking" - la capacité de regrouper des informations disparates en une seule unité significative.

      Cela réduit la charge cognitive sur le Système 2 et permet de gérer des situations complexes.

      Citation Clé : "The more we get experience with things the more we practice the more we interact the more we use system 2 to uh work through problems the more we develop this long-term memory and that long-term memory allows us to chunk the things in our world". (Plus nous acquérons de l'expérience avec les choses, plus nous pratiquons, plus nous interagissons, plus nous utilisons le système 2 pour résoudre des problèmes, plus nous développons cette mémoire à long terme, et cette mémoire à long terme nous permet de "chunker" les choses dans notre monde.)

      L'exemple des maîtres d'échecs est utilisé : ils ne sont pas meilleurs pour retenir des positions aléatoires de pièces (qui ne peuvent pas être "chunkées"), mais excellent à retenir des configurations de jeu réelles grâce à leur expérience. Cela réfute l'idée d'une compétence générale de "pensée" ou de "résolution de problèmes" transférable à tous les domaines.

      Implications pour l'Éducation : En se basant sur ces concepts, Muller propose plusieurs implications pour une éducation efficace :

      Éliminer la Charge Cognitive Extrinsèque :

      Minimiser les distractions et optimiser l'environnement d'apprentissage.

      Limiter la Charge Cognitive Intrinsèque : Présenter de nouveaux concepts par petites étapes ("bite-sized"), en commençant par où se trouvent les étudiants et en introduisant un nombre limité de nouveautés par leçon.

      L'utilisation d'exemples travaillés ("worked examples") et un soutien progressif ("fading out") sont des stratégies efficaces.

      Encourager la Pratique Effortée Répétée pour Atteindre la Maîtrise : La pratique délibérée utilisant le Système 2 est essentielle pour construire la mémoire à long terme et automatiser les compétences (passer du Système 2 au Système 1). La maîtrise rend l'information accessible sans effort, libérant ainsi le Système 2 pour des tâches plus complexes.

      Augmenter la Charge Pertinente (Germane Load) : Engager activement le Système 2. L'exemple du test de réflexion cognitive imprimé en police illisible montre qu'une difficulté modérée peut forcer le Système 2 à s'activer et à trouver la bonne réponse.

      Le Rôle de l'IA dans l'Éducation : Potentiels et Préoccupations : Muller voit un rôle positif pour l'IA dans la fourniture de rétroaction rapide et personnalisée, essentielle pour l'apprentissage des compétences.

      Citation Clé : "I think the positive role that I see for AI is that it can provide timely feedback and that's essential when you are learning any skill". (Je pense que le rôle positif que je vois pour l'IA est qu'elle peut fournir une rétroaction rapide, ce qui est essentiel lorsque vous apprenez une compétence.)

      Cependant, sa plus grande préoccupation est le potentiel de l'IA à réduire la pratique effortée.

      Si l'IA peut faire le travail pour les étudiants (écrire des dissertations, résoudre des problèmes), cela pourrait les empêcher de développer les réseaux de mémoire à long terme nécessaires.

      Citation Clé : "the thing that I'm really worried about is how AI has this opportunity to reduce effortful practice". (ce qui m'inquiète vraiment, c'est comment l'IA a cette opportunité de réduire la pratique effortée.)

      Il s'inquiète de l'impact sur des compétences comme l'écriture ou le dessin si les étudiants s'appuient sur l'IA pour faire le travail à leur place.

      Pourquoi les Révolutions Éducatives n'ont pas eu lieu et pourquoi les gens n'apprennent pas toujours :

      Muller suggère que l'échec des révolutions technologiques vient du fait qu'elles se concentrent souvent sur la transmission de l'information, qui n'est pas le principal problème de l'éducation.

      L'information est déjà largement disponible (dans les livres, en ligne). Le véritable défi est d'amener les étudiants à s'engager activement et de manière répétée avec cette information.

      L'éducation est fondamentalement une activité sociale. Les enseignants jouent un rôle crucial en tant que "entraîneurs personnels" qui motivent, responsabilisent, créent une communauté d'apprenants et encouragent la pratique effortée.

      Citation Clé : "Education is it's a social activity you know people care about other people... I think that the tech hype comes from a place of believing that the problem of education is not being able to get the information to the student that's not the problem". (L'éducation est une activité sociale, vous savez, les gens se soucient des autres...

      Je pense que l'engouement pour la technologie vient de l'idée que le problème de l'éducation n'est pas de pouvoir transmettre l'information à l'étudiant, ce n'est pas le problème.)

      La raison pour laquelle certaines personnes ne retiennent pas des informations de base pourrait être liée à la façon dont nos cerveaux sont conçus pour se concentrer sur la survie et l'interaction sociale plutôt que sur les connaissances théoriques, surtout dans un monde rempli de distractions.

      Réponses aux Questions de l'Audience :

      Utilisation de l'IA pour les réponses :

      Si l'IA est fiable, l'utiliser pour obtenir des réponses peut être plus efficace que de chercher longuement dans les livres. Le temps passé à chercher ne garantit pas nécessairement un meilleur apprentissage si l'engagement cognitif n'est pas pertinent.

      Politique Éducative : C'est un domaine difficile à rechercher et à influencer. Il y a des preuves en faveur de l'enseignement directé et de la pratique effortée, mais leur mise en œuvre est complexe.

      Art et IA : Il est encourageant que certaines personnes créent de l'art pour le plaisir, mais il s'inquiète toujours de la perte potentielle de développement de compétences si l'IA fait le travail à la place de l'individu.

      IA et Système 2 : Il est préoccupé par le fait que l'IA puisse encourager l'utilisation excessive du Système 1 au détriment du Système 2, potentiellement réduisant la curiosité et la capacité à s'attaquer à des problèmes complexes.

      Scaling de l'Éducation : On ne peut pas "scaler" un entraîneur personnel ou un plombier.

      L'éducation de qualité nécessite un nombre suffisant d'enseignants qualifiés. C'est un problème structurel qui nécessite plus de ressources pour l'enseignement et la formation.

      Intégration de l'IA : L'IA peut être utilisée comme un outil de "drill and practice" et de feedback rapide. Le danger est quand elle remplace le travail efforté essentiel à l'apprentissage.

      Évaluation avec l'IA : L'IA pose un défi majeur pour l'évaluation.

      Il suggère de modifier les méthodes d'évaluation, potentiellement en faisant les devoirs sous surveillance ou en intégrant plus de questions d'évaluation fréquentes et actives pendant les leçons.

      Il insiste sur le fait que la pratique doit être intégrée au processus d'apprentissage, et si les étudiants ne pratiquent pas via les devoirs, cela se verra dans les examens.

      Éducation en Ligne vs en Personne : L'éducation en ligne peut exceller dans l'edutainment et l'excitation, mais elle ne remplace pas nécessairement la pratique effortée guidée par un enseignant dans un cadre social.

      L'apprentissage en ligne attire ceux qui sont déjà motivés ("self-select").

      Interaction Sociale avec l'IA : La question de savoir si une interaction avec une IA très réaliste pourrait compter comme une interaction sociale est posée, potentiellement répliquant les bénéfices d'un tutorat individuel.

      En résumé, le discours de Derek Muller soutient que l'IA, comme les technologies précédentes, ne révolutionnera pas l'éducation dans le sens d'une transformation structurelle fondamentale.

      L'apprentissage efficace repose sur la pratique effortée utilisant les ressources limitées du Système 2 pour construire une mémoire à long terme riche et permettre l'automatisation (Système 1).

      L'éducation est intrinsèquement sociale, nécessitant des enseignants pour motiver et guider.

      Si l'IA peut être un outil précieux pour la rétroaction et la pratique dirigée, son plus grand danger réside dans sa capacité à permettre aux étudiants d'éviter le travail difficile nécessaire à l'apprentissage profond.

      Le principal défi pour l'éducation à l'ère de l'IA est de trouver comment obliger les étudiants à s'engager dans cette pratique effortée, même lorsque la technologie peut offrir un raccourci.

  6. Feb 2025
    1. Voici un résumé minuté des idées fortes de la conférence de François Taddei sur les enjeux de l'IA pour l'éducation :

      • 0:04-1:35 L'IA impacte tous les pays et niveaux d'éducation, nécessitant une adaptation des systèmes de formation pour les jeunes, les étudiants, les professionnels et les enseignants.

      • 1:41-2:53 Les machines deviennent apprenantes grâce au machine learning, remettant en question ce que l'on doit apprendre, comment et pourquoi, et nécessitant une remise en question de nos systèmes éducatifs.

      • 3:00-3:36 L'IA a un impact plus fort que le numérique sur le marché du travail, faisant évoluer les professions intellectuelles, ce qui nous interpelle à différents niveaux.

      • 3:36-4:45 Le Festival Learning Planet a mis en évidence la nécessité d'enseigner différemment à l'heure de l'IA, en tenant compte de ce qui fait la spécificité des humains par rapport aux machines.

      • 5:02-6:00 Il faut apprendre au sujet de l'IA, comprendre son fonctionnement, ses limites et ses potentiels, ce qui est bien traité dans le supérieur avec des formations dédiées.

      • 6:12-7:23 Il faut apprendre grâce à l'IA, en utilisant des outils comme PhiloGPT pour faciliter les apprentissages, tout en développant les compétences propres aux êtres humains comme la coopération, la compassion et la créativité.

      • 7:23-8:40 Il faut développer des compétences essentielles comme l'expression orale, et mettre l'accent sur l'agentivité, c'est-à-dire le pouvoir d'agir et d'avoir un impact sur les collectifs.

      • 8:40-9:31 L'éthique doit être au cœur du système éducatif, car l'IA pose d'énormes questions éthiques.

      • 9:31-10:43 Il est essentiel d'intégrer les trois formes de connaissance selon Aristote : épistémè (connaissance du monde), technè (agir sur le monde) et phronesis (éthique de l'action).

      • 10:43-11:30 Il faut développer l'éthique dans nos programmes et notre capacité à penser, car l'intelligence sans conscience n'est que ruine de l'âme.

      • 11:30-12:16 Les enjeux éthiques sont de plus en plus nécessaires face aux logiques de puissance et d'impérialisme, et pour favoriser le vivre ensemble entre humains et entre espèces.

      • 12:16-14:06 Il est important d'accompagner l'arrivée de l'IA dans les établissements, de dissiper les oppositions et les a priori, et de fournir une formation adéquate aux enseignants.

      • 14:06-15:32 Il faut repenser les systèmes d'évaluation, développer l'esprit critique des élèves et les éduquer aux dangers potentiels de l'IA.

      • 15:32-16:20 Il est de notre devoir d'éducateurs et de citoyens de transmettre des attitudes critiques et constructives face à l'IA, et d'adapter l'éducation à la citoyenneté et aux médias à l'ère de l'IA.

      • 16:20-17:09 Il faut créer des communautés apprenantes et des dynamiques où ceux qui sont en avance partagent leurs connaissances et contribuent à faire évoluer les pratiques.

      • 17:09-18:05 Des modalités pédagogiques comme la classe inversée et l'oral sont adaptées à l'ère de l'IA, permettant d'évaluer les élèves dans un environnement accompagné.

      • 18:05-19:00 L'oral est essentiel pour évaluer l'apprentissage, et l'IA peut permettre de gagner du temps pour avoir un dialogue oral avec les élèves.

      • 19:00-20:03 Il est crucial de s'interroger sur l'évolution technologique et son impact sur nos rôles et nos missions en tant qu'enseignants, afin de mieux former les élèves.

      • 20:03-21:31 L'IA nous oblige à nous interroger sur nos pédagogies, le sens d'être un être humain et d'éduquer un être humain, et à résister aux nouvelles formes d'impérialisme et de domination.

      • 21:31-22:33 Le triptyque de Condorcet (démocratie, éducation, savoir) est toujours d'actualité à l'ère des fake news, et il faut se réinterroger sur nos intentions et éventuellement changer nos pratiques sans changer nos valeurs.

      • 22:33-23:31 Il faut avoir conscience que l'héritage des Lumières n'était pas le plus inclusif, et repenser l'universalisme dans un monde où la planète est menacée.

      • 23:31-24:33 La technologie n'est pas la solution par défaut, et il faut être vigilant face à la désinformation et développer l'esprit critique.

      • 24:33-26:05 Il est important de prendre du recul historique pour comprendre d'où l'on vient, où l'on est et où l'on va, et de repenser le vivre ensemble à toutes les échelles.

      • 26:05-27:01 Il faut s'interroger sur nos finalités et enseigner différemment l'histoire du vivant, de notre espèce et de notre culture.

      • 27:01-34:05 L'exemple de Grigny montre comment les compétences humaines et l'agentivité des élèves peuvent être des leviers pour relever des défis et devenir acteurs de leurs apprentissages.

      • 34:05-35:21 Il est essentiel d'articuler savoir et compétences, de créer des espaces de créativité pour les élèves et de dépasser les habitudes de travail collectives.

      • 35:21-36:42 Des initiatives comme Model UN peuvent être repensées à l'ère de l'IA pour aider les jeunes à comprendre la complexité du monde et les enjeux géopolitiques.

      • 36:42-39:22 L'IA peut aider à faire des synthèses dans les conventions citoyennes et à augmenter les débats, en trouvant des sources et en faisant des synthèses locales et internationales.

      • 39:22-41:34 Il est important de prendre en compte la déclaration de la jeunesse sur l'avenir de l'éducation et de coconstruire l'avenir avec les jeunes, en ne prenant plus de décisions qui ne soient pas dans l'intérêt des générations futures.

      • 41:34-43:55 Il faut faire passer à l'échelle les actions qui permettent un vrai dialogue intergénérationnel et de prendre des décisions dans l'intérêt des générations futures.

      • 43:55-45:32 Il est important d'inviter les jeunes à utiliser l'IA dans un cadre défini, de dialoguer avec eux et de réfléchir sur le sujet, et de créer un collectif pour avancer ensemble.

      • 45:32-47:02 Il faut créer des chartes et des règlements intérieurs qui soient des lieux de débat démocratique, et avancer avec bienveillance en admettant que l'on ne sait pas tout.

      • 47:02-48:31 Il est important d'utiliser des IA éthiques et de confiance, comme Mistral AI, et de privilégier les modèles open source qui peuvent être installés sur des serveurs locaux.

      • 48:31-51:18 Des initiatives comme Phil GPT montrent comment l'IA peut être utilisée pour dialoguer avec différents philosophes et faciliter l'évaluation personnalisée.

      • 51:18-53:00 Il est important de dialoguer avec les collègues qui sont méfiants vis-à-vis de l'IA et de prendre le temps de voir ce qu'elle peut apporter ou pas à la création artistique.

      • 53:00-56:23 Il faut raison garder, expérimenter certaines choses, mais ne pas tout remplacer, car l'interaction avec la matière reste essentielle pour développer le sens artistique.

      • 56:23-58:04 Il est important de prendre en compte les inégalités sociales et l'accès aux outils numériques, et de voir comment l'IA peut être un levier pour réduire ces écarts.

      • 58:04-59:26 Il faut être pragmatique et comprendre les besoins de chaque élève, et éventuellement mutualiser les équipements ou utiliser les smartphones dans un cadre pédagogique.

      • 59:26-1:00:51 Il est important de prendre en compte les difficultés d'accès à internet à la maison et de s'adapter aux besoins de chaque élève.

      • 1:00:51-1:04:27 Il est essentiel d'agir sur la fracture liée à l'IA et de prendre en compte les disparités sociales et de compétences, en donnant une place plus importante à l'humain et à l'agentivité des élèves.

      • 1:04:27-1:06:19 Il faut aller au-delà de la prise en main des outils et transformer l'école, en personnalisant les apprentissages et en s'adaptant aux spécificités de chacun.

      • 1:06:19-1:08:59 Il est important de créer de l'intelligence collective pour réfléchir à la mise en place de chartes et de mobiliser les éducateurs, les parents et les jeunes.

      • 1:08:59-1:11:13 Il est essentiel de coconstruire les chartes et de faire communauté autour d'un document socle, en s'inspirant des modèles existants et en adaptant l'IA aux besoins de chacun.

    1. Pour un document de synthèse pour un briefing, en utilisant les sources à disposition, on peut tirer les informations suivantes d'une présentation de Laurence Devillers sur l'intelligence artificielle:

      • Démystification de l'IA : L'IA est avant tout de l'imitation à partir de données. Certains la comparent à un simple outil, mais il est crucial de comprendre qui contrôle cet outil et les risques sous-jacents. L'objectif est de démystifier l'IA pour éviter les fantasmes et les peurs, tout en reconnaissant les risques et les opportunités.

      • Éducation et compréhension de l'IA : Il est essentiel d'éduquer et d'enseigner les concepts fondamentaux de l'IA, même sans apprendre à coder, afin de permettre à chacun de comprendre comment ces machines fonctionnent et de garder la faculté de décider. Cette éducation doit commencer dès l'école primaire pour démystifier l'IA auprès des jeunes, de leurs parents et des professeurs.

      • Applications et risques de l'IA émotionnelle (Affective Computing) :

        • L'affective computing vise à détecter les émotions humaines à travers le visage, la posture et la voix. Ces informations peuvent être utilisées pour adapter les interactions homme-machine, par exemple, avec des robots assistants pour personnes âgées.
        • Il est crucial de comprendre la complexité des émotions et les différences culturelles dans leur expression. L'utilisation de ces technologies nécessite une éthique rigoureuse pour garantir la dignité de la personne et éviter la manipulation.
        • Les émotions sont complexes et peuvent être un mélange de sentiments positifs et négatifs. La technologie actuelle n'est pas suffisamment mature pour être utilisée sans discernement.
      • Réflexion éthique et collective sur l'IA :

        • Il est nécessaire d'avoir une réflexion collective sur l'utilisation de l'IA, en considérant les dépendances potentielles et les implications sur la dignité humaine.
        • Les principes éthiques tels que la vie privée, le consentement, la transparence, la responsabilité, la dignité et la justice doivent guider le développement et l'utilisation de l'IA.
        • Il faut réglementer et normaliser la relation avec les objets numériques, en tenant compte des différences culturelles et des risques de manipulation émotionnelle.
      • Projections et qualités morales : Les humains ont tendance à projeter des connaissances, des affects et des qualités morales sur les machines, ce qui peut être trompeur. Il est important de comprendre que les qualités morales d'une IA dépendent des données avec lesquelles elle a été entraînée.

      • Évolution de l'IA : L'IA a connu des avancées significatives, notamment avec le deep learning et les transformers. L'émergence de Chat GPT a marqué une étape importante, mais il est essentiel de démystifier ces machines et de comprendre leurs limites.

      • IA prédictive vs. IA générative : L'IA prédictive discrimine entre les formes en apprenant leurs différences, tandis que l'IA générative crée de nouvelles formes. Les IA génératives sont entraînées en auto-supervision, sans nécessiter d'annotations manuelles.

      • Enjeux éthiques majeurs :

        • L'absence de véracité des résultats et de sources est un problème majeur. Il est crucial de mettre en place des mécanismes de traçabilité et de transparence.
        • La manipulation émotionnelle possible est un risque important, notamment dans le contexte du métavers et de la réalité virtuelle.
        • Les biais cognitifs et émotionnels peuvent influencer notre perception de l'IA et nos décisions.
      • Importance des normes et de la régulation : Il est essentiel de mettre en place des normes et des réglementations pour encadrer le développement et l'utilisation de l'IA, en s'alignant sur les lois existantes. L'Europe doit jouer un rôle actif dans l'élaboration de ces normes pour garantir la souveraineté technologique et le respect des valeurs éthiques.

      • Vulnérabilité et acculturation : Il faut comprendre que nous sommes tous vulnérables face à ces machines et qu'une acculturation à ces objets est nécessaire. Cela passe par la démystification, la compréhension des concepts et la confiance dans l'intelligence collective.

      • Limites des modèles actuels : Les modèles actuels d'IA, comme Chat GPT, ont des limites en termes de compréhension de l'espace, du temps et des intentions. Ils peuvent produire des erreurs et des incohérences, et sont influencés par la prédominance de l'anglais dans les données d'entraînement.

      • Éducation à l'esprit critique : Il est crucial d'éduquer les enfants à l'esprit critique et à la remise en question des sources d'information. Il faut leur apprendre à déconstruire les informations produites par les machines et à comprendre les biais potentiels.

      • Loi, normes et éthique : Les trois piliers pour une utilisation responsable de l'IA sont la loi, les normes et l'éthique. L'éthique ne consiste pas à dire ce qui est bien ou mal, mais à réfléchir aux conséquences et aux risques.

      La présentation souligne l'importance d'une approche équilibrée et informée de l'IA, en mettant l'accent sur l'éducation, la réflexion éthique et la régulation pour garantir que ces technologies soient utilisées de manière responsable et bénéfique pour la société.

    1. Pour un document de synthèse pour un briefing, en utilisant les sources à disposition, on peut tirer les informations suivantes d'une table ronde intitulée "IA et Santé | "Prévention en santé : comment l'IA change la donne ?"":

      • Contexte et Objectifs : La table ronde vise à faire le point sur l'utilisation de l'intelligence artificielle dans le domaine de la santé, en particulier dans la prévention.

      Elle examine le potentiel croissant des solutions technologiques, les perspectives prometteuses qu'elles offrent, et leur valeur ajoutée pour les patients.

      • Participants et leurs expertises :

        • Dr. Xavier à la Coque : Médecin anesthésiste réanimateur, spécialiste des données, et directeur des datas de l'Institut Universitaire du Cancer de Toulouse Oncopole. Son travail actuel est d'implémenter l'entraînement d'algorithmes sur les données de santé.

      Il s'intéresse à la médecine prescriptive, cherchant à utiliser l'IA pour éviter la décompensation des patients et préserver leur capital santé.

      *   **Dr. Guillaume Bataillon** : Médecin pathologiste à l'Oncopole de Toulouse, spécialisé en pathologie mère et gynécologique, impliqué dans l'implémentation d'algorithmes dans la gestion des données de sa spécialité. Il examine au microscope les tissus prélevés sur un patient pour établir un diagnostic et orienter le choix de traitement.
      
      *   **Carole Ziza Gara** : Dirigeante de l'entreprise télégraphique, spécialisée dans les solutions connectées intelligentes et innovantes pour le bien-vieillir. Son entreprise analyse intelligemment les données pour le "Smart care", proposant des solutions aux personnes souhaitant rester à domicile le plus longtemps possible.
      
      *   **Dominique Pont** : Directeur général autonomie et santé du groupe La Poste, en charge du développement des services de confiance numérique en santé. Il souligne l'importance de la souveraineté des algorithmes et des technologies en santé.
      
      • Facteurs favorisant l'introduction de l'IA en médecine : L'augmentation des données disponibles (notamment grâce à la numérisation des images microscopiques), l'augmentation de la puissance des processeurs, et les avancées dans les algorithmes.

      • Exemple d'application de l'IA en pathologie : Collecte de lames de prélèvements de col utérin dans toute la France pour constituer une base de données anonymisée, annotée par des pathologistes, et mise à disposition d'équipes d'ingénieurs pour développer des algorithmes de classification.

      • Objectifs de l'IA en pathologie : Améliorer l'efficacité, la reproductibilité, et la fiabilité des diagnostics, ainsi que potentiellement découvrir de nouveaux biomarqueurs pour adapter la prise en charge des patients.

      • IA comme assistance au diagnostic et au traitement : L'IA est vue comme une aide précieuse pour la récupération et la consolidation d'informations médicales issues de la littérature scientifique. Les algorithmes sont performants pour les tâches répétitives, mais la prédiction de la réponse à un traitement est plus complexe et nécessite des essais cliniques.

      • Médecine prescriptive : L'IA est envisagée pour une médecine proactive, visant à préserver le capital santé et à éviter la décompensation, notamment dans les maladies chroniques. Cela implique une personnalisation des prescriptions basée sur les données du patient, incluant la génétique, la biologie, et l'évolution des données dans le temps.

      • Défis et enjeux :

        • Protection des données : Nécessité de garantir la sécurité et la confidentialité des données de santé, en les gardant dans le système de soins et en empêchant leur utilisation contre les patients.

        • Éthique de l'IA : Importance de préserver l'éthique et de s'assurer que l'IA ne soit pas vulnérante, en évitant toute utilisation des données qui pourrait nuire aux patients.

        • Maintien à domicile des seniors : L'IA est envisagée comme un complément à l'accompagnement humain pour aider les seniors à rester à domicile plus longtemps, en détectant les chutes et les activités anormales.

        • Souveraineté technologique : Nécessité de maîtriser les plateformes technologiques pour garantir un contrôle éthique du système de santé, en développant une alternative européenne aux géants américains et chinois.

        • Limites de la puissance de calcul : Face à la course à la puissance de calcul imposée par les modèles d'IA américains et chinois, il est suggéré de se concentrer sur des modèles plus ciblés et de qualité, adaptés aux besoins spécifiques de la santé, en privilégiant l'éthique et la maîtrise des données.

        • Interopérabilité des systèmes : Nécessité d'améliorer l'interopérabilité des systèmes d'information de santé pour faciliter l'échange de données et la coordination des soins.

        • Explicabilité et biais des algorithmes : Importance de comprendre comment les algorithmes prennent leurs décisions et de contrôler les biais potentiels, en mettant en place une "garantie humaine" de l'IA.

      • Applications potentielles de l'IA dans le diagnostic : Radiologie, dermatologie, échographie, endoscopie, neurologie (détection de maladies dégénératives et de crises convulsives), pneumologie (maladies chroniques).

      • Jumeaux numériques : Utilisation de jumeaux numériques pour tester des algorithmes et simuler des scénarios, permettant de valider les modèles d'IA de manière plus efficace.

    1. table ronde ministérielle de haut niveau intitulée "L'IA en éducation : quel cadre pour quels usages ?".

      • Contexte de la table ronde :

      La table ronde s'est tenue en marge du Sommet pour l'Action sur l'intelligence artificielle et a été ouverte par la ministre d’État, ministre de l’Éducation nationale, de l’Enseignement supérieur et de la Recherche et la Commission européenne.

      L'événement a exploré le cadre d’usage de l’IA en éducation selon diverses approches, notamment celles de l'OCDE, de l'UNESCO, et du Conseil de l’Europe.

      • Participants : Des représentants des États membres de l’UE et des chercheurs ont participé pour présenter leurs bonnes pratiques en Europe et dans le monde.

      La Première ministre Élisabeth Borne a pris la parole pour l'ouverture de la conférence.

      • Consultation nationale sur l'IA dans l'éducation :

      Une consultation nationale a été lancée en janvier 2025 pour recueillir les points de vue de la communauté éducative (professeurs, personnel de direction, parents, lycéens) sur l'usage de l'IA dans l'éducation.

      Un cadre d'usage sera finalisé et diffusé au printemps, précisant les conditions d'utilisation de l'IA dans les classes et dans le domaine administratif, tout en définissant des règles claires pour les élèves.

      • Formation des enseignants :

      Une première formation en ligne pour le second degré sera lancée dès la rentrée 2025, basée sur un parcours Pix.

      • IA générative au service du ministère :

      Un outil s'appuyant sur l'IA générative, inspiré du projet Cassandre de l'académie de Lyon, a été déployé pour aider les gestionnaires RH en prenant en charge les tâches administratives et réglementaires. Cette initiative sera généralisée à l'ensemble des académies.

      • Initiative pour une IA souveraine :

      Un appel à projets doté de 20 millions d'euros de France 2030 sera lancé à l'été 2025 pour concevoir une IA ouverte, transparente et pérenne, dédiée aux professeurs pour la préparation des cours, la correction des devoirs et l'enrichissement de leurs pratiques.

      • Enjeux de compétitivité et de compétences :

      L'IA est considérée comme un élément clé de la boussole de compétitivité présentée par la Commission européenne.

      Il est nécessaire de préparer les Européens aux changements d'un monde numérisé, en maximisant les opportunités de la transition numérique tout en maîtrisant les risques.

      • Formation et compétences en IA :

      Les efforts doivent favoriser les compétences de base ainsi que les compétences spécialisées en IA.

      Les enseignants devraient recevoir une formation pour savoir comment, quand et pourquoi utiliser les outils de l'IA.

      La Commission européenne a publié des lignes directrices sur l'utilisation éthique de l'IA dans l'éducation en 2022, qui seront révisées.

      • Coopération européenne :

      L'accès universel à l'éducation numérique est favorisé, et l'IA est identifiée comme un sujet stratégique nécessitant une coopération étroite entre les États membres et la Commission.

      De nombreux États membres ont lancé des plans d'action et des initiatives qui peuvent nourrir le partage d'expérience à l'échelle de l'Union européenne.

      • Union des compétences :

      L'Union des compétences comprendra un plan d'action pour aider les États membres à renforcer le développement des compétences numériques de base.

      Les compétences numériques doivent s'acquérir dès la petite enfance et tout au long de la vie, en renforçant la coopération entre tous les secteurs de l'éducation.

      • Plan stratégique pour l'enseignement des STEM :

      Un plan stratégique pour l'enseignement des sciences, de la technologie, de l'ingénierie et des mathématiques (STEM) sera mis en place, intégrant les enjeux liés à l'IA.

      • Feuille de route pour l'éducation numérique :

      La revue en cours du plan d'action pour l'éducation numérique et de la feuille de route pour l'avenir de l'éducation et de la formation numérique, d'ici fin 2025, préparera des propositions sur l'utilisation efficace et éthique de l'IA dans l'éducation et la formation, ainsi que des actions de soutien aux États membres.

      • Expérimentation et contrôle qualité :

      Les services numériques innovants seront d'abord testés à petite échelle avant d'être déployés nationalement, en contrôlant la qualité et en respectant un cadre éthique et juridique.

      Le partenariat d'innovation intelligence artificielle permet la mise à disposition de services numériques en français, notamment pour la lecture, l'écriture et les mathématiques.

      Ce briefing donne un aperçu des discussions et des initiatives en cours concernant l'intégration de l'IA dans le système éducatif.

      Il met en évidence l'importance d'un cadre éthique, de la formation des enseignants, et de la coopération internationale pour exploiter pleinement le potentiel de l'IA au service de l'éducation.

  7. Jan 2025
    1. Briefing Doc: L'IA Générative au service de la recherche de financements

      Source: Webinaire Solidatech - "L'IA Générative au service de votre recherche de financements", 17 janvier 2025. Intervenants: Solidatech, Latitudes (programme IA for Good), Wavestone.

      Lien: https://www.youtube.com/watch?v=ZP4BMjrXESI

      Thèmes Principaux:

      Introduction à l'IA générative et ses applications pour les associations.

      Présentation d'un cas pratique: la génération automatisée de dossiers de demandes de financement.

      Démonstration de l'utilisation d'un agent conversationnel (chatbot) personnalisé avec Custom GPT d'OpenAI.

      Bonnes pratiques et conseils pour une utilisation responsable et efficace de l'IA.

      Points Clés:

      L’IA générative, un outil puissant pour les associations: L'IA générative peut aider les associations dans divers domaines:

      Marketing et communication : Génération de contenu pour les réseaux sociaux, création de supports de communication.

      Gestion de projet: Synthèse de documents, rédaction de comptes rendus.

      Tâches administratives : Automatisation de tâches répétitives, aide à la rédaction de documents complexes.

      Cas pratique : Génération de dossiers de demande de financement: Le webinaire se concentre sur l'utilisation de Custom GPT pour automatiser la rédaction de dossiers de financement.

      Custom GPT : Un service d'OpenAI permettant de créer des agents conversationnels personnalisés en intégrant des documents spécifiques.

      Avantages : Réponses plus précises et fiables, gain de temps.

      Fonctionnement : L'utilisateur fournit des documents à l'agent (informations sur l'association, le projet, le formulaire du bailleur) qui les utilise pour répondre aux questions.

      Démonstration : Les intervenants montrent comment configurer l'agent, lui fournir des documents et interagir avec lui pour obtenir un dossier de financement complet.

      Bonnes pratiques pour une utilisation responsable: Confidentialité des données:Anonymisation:

      Il est important de supprimer ou de masquer les données personnelles sensibles avant de les fournir à l'agent.

      Politique de OpenAI: OpenAI affirme ne pas utiliser les données fournies pour entraîner ses modèles, mais il est important de rester vigilant.

      Impact environnemental: L'utilisation de l'IA a un impact environnemental.

      Il est important de l'utiliser de manière raisonnée en minimisant le nombre de requêtes.

      Rôle de l'humain: L'IA doit être utilisée comme un assistant et non comme un remplaçant.

      Il est crucial de relire, corriger et valider le contenu généré par l'IA.

      Citations:

      "L’intelligence artificielle ça va être finalement tous les systèmes qui sont capables de prédire des situations ou de générer des nouveaux contenus en s’appuyant sur des données passées."

      "On a utilisé un algorithme chat GPT mais c’est un service qui est un peu un chat GPT amélioré à savoir le service custom GPT."

      "Pour les personnes qui sont frileuses [face à l'IA] c’est aussi fait pour qu’on puisse vous expliquer comment l’utiliser de manière responsable et sécurisée."

      "L’idée c’est de pouvoir personnaliser un besoin [avec Custom GPT], chose que chat GPT pourrait avoir des limites."

      "L’important sur les documents, il faut comprendre que l’IA se base sur les données. Sans données on peut rien faire."

      "Dès qu’il y a des informations par rapport aux données personnelles, par rapport à ce que vous jugez sensible, vous pouvez les masquer."

      Ressources:

      Articles de Solidatech :

      L'intelligence artificielle : de quoi parle-t-on et quel est l'intérêt pour votre association ?

      L'automatisation des tâches.

      Programme IA for Good de Latitudes: Newsletter, webinaires, sessions de conseil avec des spécialistes.

      Contact : Sandrine (Solidatech) - [adresse email] - pour un accompagnement personnalisé sur la recherche de financements.

      Conclusion:

      L'IA générative représente un outil puissant pour les associations, notamment pour les aider dans leur recherche de financements.

      Cependant, il est important de l'utiliser de manière responsable et éthique en gardant à l'esprit les questions de confidentialité des données, d'impact environnemental et du rôle de l'humain.

      Le programme IA for Good et les ressources de Solidatech peuvent accompagner les associations dans la découverte et l'utilisation de ces technologies.

    2. Ce webinaire de Solidatech, en partenariat avec Latitudes, Share It, et Wavestone, présente l’IA générative et son application concrète à la recherche de financements pour les associations.

      Il explore les principes de l’IA générative, notamment l’utilisation d’un GPT personnalisé pour créer des demandes de financement.

      Une démonstration pratique est offerte, suivie d’une session de questions-réponses.

      Le programme IA for Good est également présenté comme une ressource d'accompagnement.

      Enfin, des conseils pratiques et des ressources supplémentaires sont fournis aux participants.

      Voici un sommaire minuté du webinaire « L’IA générative au service de votre recherche de financements » d’après la transcription :

      • 0:00-1:10 Introduction et consignes :

      Présentation du webinaire, consignes pour poser des questions via l’onglet Q&R, consignes pour utiliser le chat pour des échanges informels et pour partager des liens.

      • 1:10-5:20 Présentation de Solidatech:

      Camille présente Solidatech, une association qui aide les autres associations à maximiser leur impact grâce au numérique en leur facilitant l’accès à des logiciels et du matériel à prix réduit.

      Elle détaille les actions de Solidatech, leurs solutions en ligne et les services qu’elles proposent, tels que des ressources gratuites, des outils d’autodiagnostic, des webinaires, des formations et un annuaire de prestataires.

      • 5:20-7:52 Présentation du programme IA for Good:

      Karen présente IA for Good, un programme gratuit destiné aux structures de l’impact pour les sensibiliser et les accompagner dans la compréhension et l’utilisation de l’IA générative.

      Elle détaille les différents formats d’accompagnement proposés : newsletter, webinaires, hackathons, formations et sessions de conseil personnalisées.

      • 7:52-8:19 Introduction de Wavestone et des intervenants:

      Karen introduit Wavestone, partenaire du programme IA for Good, et présente les intervenants Lison Évoré, consultante en data sciences, et Germain, consultant spécialisé en transformation digitale, IA générative et machine learning.

      • 8:19-13:36 Sondages :

      Deux sondages sont réalisés auprès des participants. Le premier vise à identifier le niveau de familiarité avec l’IA générative et les outils utilisés.

      Le second sonde le sentiment général vis-à-vis de l’IA, entre enthousiasme et réticence.

      • 13:36-19:36 Apports théoriques:

      Lison et Germain présentent les principes de base de l’IA générative en la replaçant dans le contexte de la valorisation de la donnée.

      Ils expliquent les trois niveaux d’exploitation : descriptif, prédictif et génératif, et situent l’IA dans les deux derniers. Ils soulignent les limites et le potentiel de l’IA, en particulier pour les associations.

      • 19:36-26:34 Présentation de Custom GPT et des bonnes pratiques:

      Germain explique en détail la solution Custom GPT utilisée pour générer des dossiers de demande de financement.

      Il met l’accent sur la personnalisation de l’agent GPT via des consignes (persona, objectifs, contraintes) et l’utilisation de documents spécifiques.

      Il aborde les notions de prompt engineering et de RAG (Retrieval Augmented Generation), ainsi que l’importance de la qualité des données fournies.

      • 26:34-44:18 Atelier pratique:

      Germain présente un cas d’usage concret en utilisant un agent Custom GPT personnalisé pour la rédaction de demandes de financement pour l’association Latitudes.

      Il montre comment configurer l’agent, téléverser des documents et interagir avec lui pour affiner la rédaction.

      • 44:18-59:21 Séance de questions-réponses :

      Camille, Karen, Lison et Germain répondent aux questions des participants sur des sujets tels que la confidentialité des données, la personnalisation d’autres outils, l’anonymisation des données, les abonnements payants, la détection de l’IA, la pertinence de l’utilisation de l’IA pour les associations et les risques de biais.

      • 59:21-59:30 Conclusion :

      Camille remercie les participants, les intervenants et les co-organisateurs du webinaire, et encourage les participants à poursuivre leur exploration de l’IA générative.

  8. Nov 2024
  9. Oct 2024
    1. Résumé de la vidéo [00:00:02][^1^][1] - [00:27:40][^2^][2]:

      Cette vidéo explore comment les enseignants peuvent utiliser l'intelligence artificielle (IA) de manière efficace dans leurs cours. Elle présente des outils d'IA, leurs avantages et défis, ainsi que des conseils pratiques pour les enseignants.

      Points forts : + [00:00:02][^3^][3] Introduction et objectifs * Présentation des intervenants * Objectifs du webinaire * Importance de l'IA en éducation + [00:01:19][^4^][4] Recherche de l'OCDE * Impact potentiel de l'IA sur l'équité et l'inclusion * Catégorisation des outils d'IA * Outils centrés sur les enseignants + [00:07:00][^5^][5] Utilisation des outils d'IA * Exemples d'outils utilisés à l'Université d'État de l'Arizona * Approches pédagogiques variées * Importance de la sécurité des données + [00:10:00][^6^][6] Conseils pratiques pour les enseignants * Enseigner sur l'IA * Utiliser l'IA pour faciliter l'enseignement * Outils spécifiques recommandés + [00:18:00][^7^][7] Défis et limitations de l'IA * Coûts et accessibilité * Biais et sécurité des données * Nécessité de compétences critiques

      Résumé de la vidéo [00:27:43][^1^][1] - [00:54:55][^2^][2]:

      Cette vidéo explore comment les enseignants peuvent utiliser l'IA de manière efficace, en abordant les défis, les opportunités et les meilleures pratiques pour intégrer l'IA dans l'éducation.

      Points forts : + [00:27:43][^3^][3] Réglementation et cadre juridique * Importance des cadres légaux pour l'IA * Défis liés à la compréhension des risques * Nécessité d'itérations rapides pour suivre les développements de l'IA + [00:28:49][^4^][4] Formation des enseignants * Besoin de formation sur l'intégration des technologies numériques * Variabilité des besoins de formation entre les pays * Impact de la pandémie sur la préparation des enseignants + [00:31:38][^5^][5] Utilisation de l'IA par les élèves * L'IA déjà intégrée dans la vie quotidienne des enfants * Importance de développer des pratiques et des compréhensions * Défis liés à l'influence de l'IA sur la pensée et les actions + [00:35:15][^6^][6] IA et besoins éducatifs spéciaux * Outils d'évaluation pour adapter l'apprentissage * Utilisation de l'IA pour aider les élèves ayant des besoins spéciaux * Exemples d'outils et de pratiques en Europe + [00:45:01][^7^][7] Politiques et soutien aux enseignants * Importance des lignes directrices pour les enseignants * Besoin de formation continue sur l'IA * Rôle des décideurs politiques dans le soutien aux enseignants

      Résumé de la vidéo [00:54:57][^1^][1] - [00:58:51][^2^][2]:

      Cette vidéo aborde l'utilisation efficace de l'IA par les enseignants, en soulignant l'importance de l'adopter tout en étant conscient des défis associés.

      Points forts: + [00:55:05][^3^][3] Adopter l'IA * L'IA est omniprésente * Apprendre et se tenir informé * Essayer et expérimenter + [00:55:18][^4^][4] Améliorer l'utilisation de l'IA * Embrasser les opportunités * Être conscient des défis * Suivre les conseils et directives disponibles + [00:55:57][^5^][5] Recherche nécessaire * Impact de l'IA sur l'équité et l'inclusion * Effets sur les compétences non académiques * Inclusion des étudiants en classe + [00:56:44][^6^][6] Reconnaître l'expertise des enseignants * Prendre du recul face à la technologie * Valoriser la créativité et l'agence des enseignants * Préparer les élèves pour l'avenir

    1. Résumé de la vidéo [00:00:19][^1^][1] - [00:24:05][^2^][2]:

      Cette vidéo explore les enjeux éthiques de l'utilisation de l'intelligence artificielle (IA) dans l'éducation, en abordant les perspectives des enseignants, des apprenants et des algorithmes.

      Points forts : + [00:00:19][^3^][3] Introduction des intervenants * Présentation des experts en IA et éthique * Importance de la cybersécurité et de la protection des données * Diversité des disciplines représentées + [00:01:00][^4^][4] Définition de l'IA et de l'éthique * IA comme ensemble d'outils et domaine de recherche * Différence entre éthique et conformité * Importance de l'interdisciplinarité + [00:07:00][^5^][5] Enjeux spécifiques de l'IA * Complexité et opacité des systèmes d'IA * Problèmes liés à l'entraînement des systèmes * Questions de manipulation et d'interaction humain-machine + [00:14:00][^6^][6] Impact sur l'enseignement * Risques de dépendance aux outils d'IA * Importance du cheminement dans l'apprentissage * Problèmes de biais et de discrimination dans les recommandations + [00:20:00][^7^][7] Utilisation par les enseignants * IA pour la notation et l'orientation des élèves * Problèmes de traitement des données personnelles * Nécessité de réflexion critique sur l'impact des outils d'IA

      Résumé de la vidéo [00:24:07][^1^][1] - [00:47:01][^2^][2]:

      Cette vidéo explore les enjeux éthiques de l'utilisation de l'intelligence artificielle (IA) dans l'éducation, en mettant l'accent sur la confiance, la vérification des faits, et l'impact sur l'apprentissage et l'enseignement.

      Points forts : + [00:24:07][^3^][3] Confiance et vérification des faits * Les erreurs factuelles des IA * Importance de vérifier les sources * Confiance excessive des utilisateurs + [00:28:46][^4^][4] Gagner du temps avec les outils numériques * Question de l'efficacité * Pourquoi vouloir gagner du temps * Impact sur l'apprentissage + [00:32:00][^5^][5] Comparaison avec la calculatrice * Fiabilité des résultats * Importance de l'esprit critique * Différence avec les IA génératives + [00:37:00][^6^][6] Vérité et IA * Définition de la vérité * Comparaison avec les erreurs humaines * Importance de la vérification des faits + [00:40:00][^7^][7] Enjeux éthiques des algorithmes * Utilisation dans la sélection universitaire * Risques de biais et de discrimination * Importance de l'expérimentation et de l'évaluation

      Résumé de la vidéo [00:47:04][^1^][1] - [01:09:39][^2^][2]:

      Cette vidéo explore les enjeux éthiques de l'utilisation de l'IA dans l'éducation, en abordant des questions de reproductibilité, de contrôle par des entreprises privées, et de diversité linguistique et culturelle.

      Temps forts: + [00:47:04][^3^][3] Limites et expérimentations * Tests des limites des systèmes d'IA * Problèmes de reproductibilité des résultats * Impact des jeux de données d'entraînement + [00:52:00][^4^][4] Contrôle par des entreprises privées * Risques de contrôle idéologique * Importance de la transparence et de la régulation * Enjeux de normalisation et de standardisation + [00:57:00][^5^][5] Développement et apprentissage * Importance de l'apprentissage autonome * Rôle de l'école dans le développement du raisonnement * Utilisation de l'IA pour des tâches spécifiques + [01:02:00][^6^][6] Explicabilité et diversité linguistique * Intégration de mécanismes d'explicabilité * Importance de la diversité des langues et des valeurs * Initiatives pour des modèles de langage locaux

      Résumé de la vidéo [01:09:41][^1^][1] - [01:33:41][^2^][2]:

      Cette vidéo explore les enjeux éthiques de l'utilisation de l'IA dans l'éducation, en abordant des questions de diversité linguistique, de données sensibles, et de déontologie professionnelle.

      Points forts : + [01:09:41][^3^][3] Diversité linguistique et IA * Impact sur les langues locales * Risque d'enfermement culturel * Initiatives pour les langues minoritaires + [01:12:32][^4^][4] Données médicales et IA * Sensibilité des données de santé * Réglementation et RGPD * Utilisation dans la recherche + [01:14:49][^5^][5] Transdisciplinarité et éthique * Importance de l'éducation éthique * Intégration dans les projets de recherche * Sensibilisation dès l'université + [01:18:01][^6^][6] Déontologie professionnelle * Enseignement de la déontologie * Importance des principes éthiques * Réflexion sur l'utilisation des outils IA + [01:22:20][^7^][7] Utilisation de l'IA dans l'éducation * Libérer du temps pour les enseignants * Améliorer l'interaction avec les étudiants * Débat sur l'efficacité et les économies

  10. Sep 2024
    1. Résumé de la vidéo [00:00:00][^1^][1] - [00:19:03][^2^][2]:

      Cette conférence de Flavien Chervet explore l'impact de l'intelligence artificielle (IA) sur la société, en mettant l'accent sur les systèmes génératifs et les transformations technologiques récentes.

      Moments forts: + [00:00:07][^3^][3] Introduction et objectifs * Présentation de Flavien Chervet * Importance des démonstrations pratiques * Utilisation de l'art généré par IA + [00:01:54][^4^][4] Évolution de l'IA * Historique de l'IA depuis les années 1950 * Développement du machine learning dans les années 2000 * Importance de l'apprentissage pour l'IA + [00:09:00][^5^][5] Applications pratiques de l'IA * Utilisation de l'IA dans divers domaines * Exemples de machine learning et deep learning * Impact sur les industries et la médecine + [00:13:45][^6^][6] Révolution et disruption de l'IA * Chute des barrières à l'entrée pour l'IA * Disruption socio-économique causée par l'IA * Comparaison avec d'autres technologies émergentes + [00:14:47][^7^][7] Technologie des Transformers * Introduction des Transformers par Google en 2017 * Impact sur la traduction automatique * Compréhension sémantique et implications futures

      Résumé de la vidéo [00:19:06][^1^][1] - [00:38:53][^2^][2]:

      Cette vidéo explore les avancées et les implications de l'intelligence artificielle (IA), en mettant l'accent sur les modèles de fondation et leur capacité à générer des données et à comprendre la langue.

      Points forts : + [00:19:06][^3^][3] Dark Knowledge et intelligence numérique * Émergence de capacités de raisonnement et de créativité * Importance de la compréhension de la langue * Différence entre intelligence humaine et numérique + [00:20:29][^4^][4] Modèles de fondation et Transformers * Inversion du Deep Learning traditionnel * Entraînement sur des tâches généralistes * Applications variées des modèles de fondation + [00:24:47][^5^][5] Pré-entraînement et générativité * Pré-entraînement sur des tâches généralistes * Capacité à générer de nouveaux exemples * Exemple de l'expérience artistique avec Rembrandt + [00:28:39][^6^][6] Créativité et IA générative * IA participant activement à la création * Impact sur la culture et la civilisation * Démonstration de la co-créativité humain-machine + [00:31:01][^7^][7] Prompt engineering et interaction avec l'IA * Importance de bien formuler les demandes * Techniques pour obtenir des réponses créatives * Exemples de prompts pour la création de bijoux

      Résumé de la vidéo [00:38:56][^1^][1] - [01:00:24][^2^][2]:

      Cette partie de la vidéo explore l'utilisation de l'intelligence artificielle (IA) dans divers domaines, notamment la création de musique, la génération de code et la robotique. Flavien Chervet démontre comment l'IA peut simplifier des tâches complexes et améliorer l'expérience utilisateur.

      Moments forts : + [00:39:36][^3^][3] Reconnaissance sémantique d'image * Suppression de l'arrière-plan * Gain de temps par rapport à Photoshop * Utilisation instantanée de l'image + [00:40:29][^4^][4] Génération de musique avec Suno * Création de musique unique pour des bijoux * Utilisation de ChatGPT pour les prompts * Génération de paroles et de musique + [00:44:00][^5^][5] Création de pages web avec ChatGPT * Génération de code HTML * Intégration de musique et d'images * Simplification du processus de création + [00:48:00][^6^][6] Multimodalité et robotique * Unification des systèmes IA * Progrès en robotique grâce à l'IA * Exemples de robots avancés + [00:55:00][^7^][7] Agentivité des systèmes IA * Modèles du monde robustes * Utilisation d'outils par l'IA * Impact sur le travail et la société

  11. Jul 2024
    1. Résumé de la vidéo [00:00:00][^1^][1] - [00:29:07][^2^][2]:

      Cette vidéo explore les méthodes innovantes pour évaluer les compétences sociales et émotionnelles, en mettant l'accent sur les technologies avancées comme l'intelligence artificielle (IA) et la réalité virtuelle (VR).

      Moments forts: + [00:00:00][^3^][3] Introduction et importance de l'évaluation * Importance des compétences sociales et émotionnelles * Limites des outils actuels * Nécessité de méthodes innovantes + [00:04:00][^4^][4] Évaluation comportementale * Utilisation de tâches et de jeux numériques * Exemples de tâches pour évaluer la créativité * Avantages et défis des évaluations comportementales + [00:12:01][^5^][5] Rôle des fondations privées * Soutien aux projets innovants * Exemple de projet en réalité virtuelle au Nigeria * Importance de l'adaptabilité culturelle + [00:15:00][^6^][6] Complémentarité des évaluations directes * Comparaison avec les auto-évaluations * Importance de l'acceptabilité des tests * Défis liés à la complexité des tâches + [00:19:00][^7^][7] Technologies avancées pour l'évaluation * Mesures biophysiologiques * Réalité virtuelle et augmentée * Applications de l'IA et empreintes numériques

      Résumé de la vidéo [00:29:10][^1^][1] - [00:58:50][^2^][2]:

      Cette vidéo explore les innovations dans la mesure des compétences sociales et émotionnelles et l'impact potentiel de l'IA. Les intervenants discutent des défis éthiques, de la protection des données et de la transparence dans l'utilisation des outils d'évaluation basés sur l'IA.

      Points clés : + [00:29:10][^3^][3] Défis éthiques et protection des données * Importance de la transparence * Besoin de validation des outils * Risques de stéréotypage + [00:33:01][^4^][4] Utilisation formative des évaluations * Apprentissage à partir des évaluations * Importance de l'amélioration des compétences * Limites des évaluations sommatives + [00:36:01][^5^][5] Transparence et validation culturelle * Accès aux données de validation * Importance de la validation culturelle * Partenariats avec les communautés locales + [00:40:00][^6^][6] Réactions des utilisateurs aux évaluations IA * Réactions polarisées des utilisateurs * Importance de la compréhension et de l'acceptation * Besoin de clarté et de spécificité + [00:50:01][^7^][7] Compétences sociales et émotionnelles * Importance des normes culturelles * Équilibre entre les comportements * Contrôle communautaire sur les normes de comportement

      Résumé de la vidéo [00:58:52][^1^][1] - [01:01:02][^2^][2]:

      Cette vidéo discute des innovations dans la mesure des compétences sociales et émotionnelles et de ce que l'IA apportera dans ce domaine.

      Points forts : + [00:58:52][^3^][3] Approches innovantes * Utilisation des traces numériques * Fournisseurs commerciaux pour les apprenants adultes * Espoir de moteurs d'inférence pour les étudiants + [00:59:50][^4^][4] Diversité des données * Ensembles de données plus diversifiés * Données guidant le développement des populations * Importance pour les sous-populations + [01:00:19][^5^][5] Acceptabilité sociale * Possibilités techniques des traces numériques * Préoccupations croissantes concernant la surveillance * Tension entre acceptation sociale et possibilités technologiques

  12. Jun 2024
    1. Résumé de la vidéo [00:00:01][^1^][1] - [04:15:35][^2^][2]:

      La vidéo aborde la gouvernance des données et l'intelligence artificielle (IA) dans le contexte de l'intérêt général. Elle souligne l'importance de développer des critères de progrès précis pour orienter vers les bons usages de l'IA, tout en évitant les dangers potentiels. Les discussions portent sur des sujets variés, notamment la santé, le climat, la justice, et l'égalité, et comment l'IA peut contribuer positivement à ces domaines.

      Points forts: + [00:00:01][^3^][3] Gouvernance des données et IA * Importance de l'IA dans le développement et la recherche * Nécessité de critères de progrès précis pour l'IA * Impact de l'IA sur la société et les citoyens + [00:36:42][^4^][4] Confiance et partage des données * Défis liés à la dépossession et au manque de confiance * Conséquences de l'utilisation commerciale des données personnelles * Importance de la régulation pour protéger les données + [01:18:50][^5^][5] Marché des données et intérêt général * Coût et moyens technologiques nécessaires pour collecter des données * Contrôle et bénéfice des données pour les individus et la société * Débat sur l'utilisation lucrative des données et son impact + [01:55:09][^6^][6] Coût énergétique de l'IA * Augmentation de la consommation énergétique pour l'entraînement des modèles d'IA * Utilisation massive des modèles et leur impact environnemental * Comparaison des coûts énergétiques entre l'IA et d'autres secteurs + [03:02:39][^7^][7] Données multimodales dans le domaine de la santé * Utilisation des données du dossier patient pour la recherche * Avantages des données multimodales sur les données structurées * Progrès possible sans surcharger les médecins avec la saisie de données + [04:03:23][^8^][8] Empreinte énergétique et technologie numérique * Relation entre puissance informatique et consommation énergétique * Besoin de réseaux plus puissants pour les nouveaux usages * Débat sur l'empreinte énergétique du numérique par rapport à d'autres secteurs

    1. Résumé de la vidéo [00:00:01][^1^][1] - [00:23:25][^2^][2] :

      Cette vidéo présente l'état des lieux sur les impacts sociétaux de l'intelligence artificielle et du numérique. Elle aborde les défis de l'IA dans divers secteurs, notamment la santé, l'éducation et l'environnement, et souligne l'importance de la recherche interdisciplinaire et de la gouvernance éthique.

      Points forts : + [00:00:01][^3^][3] Lancement de l'événement * Introduction par Flavie, conseillère en communication * Présentation de l'OBVIA et accueil des participants * Salutations aux participants en ligne de divers pays + [00:01:13][^4^][4] Présentation de Joë Pinot * Discussion sur la santé, l'éducation et l'environnement * Importance de la transformation numérique et des outils d'IA * Réflexion sur l'évolution de l'esprit critique face à l'IA + [00:08:13][^5^][5] Intervention de Joë Pinot * Rôle de l'OBVIA dans le dialogue sociétal sur l'IA * Évolution rapide des modèles d'IA et leur impact sociétal * Importance de la transparence et de l'accès aux modèles d'IA + [00:20:00][^6^][6] Partage des modèles d'IA * Développement d'un écosystème autour des modèles ouverts * Spécialisation des modèles pour différents domaines * Débat sur la responsabilité et la sécurité des modèles d'IA

      Résumé de la vidéo [00:23:27][^1^][1] - [00:46:19][^2^][2]:

      Cette partie de la vidéo aborde les impacts sociétaux de l'intelligence artificielle et du numérique, en mettant l'accent sur la nécessité de développer des solutions robustes face aux risques associés. Elle souligne l'importance de l'autonomie dans les domaines de la santé, de l'éducation et du droit, et discute des processus d'évaluation et de partage des modèles d'IA.

      Points saillants: + [00:23:27][^3^][3] Développement de solutions robustes * Démocratisation de l'IA * Participation communautaire accrue * Autonomie dans les applications critiques + [00:24:15][^4^][4] Processus d'open source * Examen juridique et de confidentialité * Normes strictes mais non uniformes * Évaluation automatique et humaine + [00:26:07][^5^][5] Partage de modèles * Accompagnement par des artefacts de recherche * Guides d'utilisation et licences claires * Mécanismes de signalement des problèmes + [00:27:00][^6^][6] Utilisations multiples d'un modèle * Créativité dans l'industrie artistique * Applications médicales bénéfiques * Risques de désinformation et fausses informations + [00:29:37][^7^][7] Incertitude sur la courbe d'innovation * Scénarios d'innovation exponentielle ou de plateau * Importance de l'évaluation basée sur des observations réelles + [00:32:35][^8^][8] Avenir des modèles d'IA * Tendance vers des modèles plus généraux * Développement de modèles multimodaux * Équilibre entre développement et contrôlabilité

      Résumé de la vidéo [00:46:22][^1^][1] - [01:08:17][^2^][2]:

      La vidéo aborde les impacts sociétaux de l'intelligence artificielle et du numérique, en se concentrant sur la désinformation, la santé, et l'environnement. Elle souligne l'importance de l'esprit critique, l'utilisation de l'IA dans le domaine médical, et les défis environnementaux posés par la technologie.

      Points forts: + [00:46:22][^3^][3] Désinformation et esprit critique * L'importance de l'analyse des réseaux de diffusion d'information * Utilisation de l'IA pour détecter la vérité * Développement de techniques d'analyse basées sur le raisonnement + [00:48:28][^4^][4] IA dans la santé * Potentiel de l'IA pour améliorer les processus et l'administration des soins * Mesure des bénéfices de l'IA et accessibilité des données pour l'évaluation * Complexité de l'évaluation des technologies de santé + [00:54:43][^5^][5] Environnement et numérique * Impact environnemental du numérique et croissance des émissions de GES * Approche de l'écoconception et sobriété numérique * Importance de l'efficacité énergétique et de la réduction de la consommation des données

      Résumé de la vidéo [01:08:18][^1^][1] - [01:25:57][^2^][2]:

      Cette vidéo aborde les impacts sociétaux de l'intelligence artificielle et du numérique, en se concentrant sur le développement écoresponsable, la transparence dans l'utilisation des modèles d'IA, et l'implication des citoyens dans la création d'une IA éthique. Elle souligne également l'utilisation de l'IA par les gouvernements pour améliorer la productivité et la distribution d'informations aux citoyens.

      Points forts: + [01:08:18][^3^][3] Développement écoresponsable de l'IA * Discussion sur l'orientation des ressources pour un développement écoresponsable * Importance de la transparence dans l'entraînement des modèles d'IA * Proposition d'une déclaration des modèles à la frontière pour la sécurité + [01:11:02][^4^][4] Implication citoyenne dans l'IA éthique * Questions sur l'association des citoyens à l'élaboration d'une IA éthique * Utilisation de l'IA dans les processus décisionnels gouvernementaux * Exemple de coconstruction de la déclaration de Montréal en 2018 + [01:16:08][^5^][5] Rôle de l'État dans la régulation de l'IA * Interrogation sur le rôle de l'État dans la régulation de l'IA * Discussion sur la nécessité d'un cadre régulateur pour les entreprises * Proposition d'une planification écologique délibérative + [01:22:37][^6^][6] Lancement de l'état de la situation sur l'IA et le numérique * Présentation d'une nouvelle publication annuelle sur les impacts sociétaux de l'IA * Structure autour de sept axes de recherche * Objectif de fournir un outil critique et interdisciplinaire pour la prise de décision

    1. Résumé de la vidéo 00:00:00 - 00:33:59 : La vidéo intitulée "L'IA générative et la création de contenus culturels et médiatiques" présente un séminaire sur l'impact de l'intelligence artificielle (IA) générative dans les domaines culturels et médiatiques. Les intervenants, experts dans leurs domaines respectifs, discutent des implications juridiques, technologiques et créatives de l'IA générative. Ils explorent comment l'IA transforme la création de contenu et les défis associés, notamment en matière de droits d'auteur et de propriété intellectuelle.

      Points forts: + [00:00:00][^1^][1] Introduction au séminaire * Présentation des organisateurs et du thème de l'IA générative * Importance de l'IA dans les industries culturelles et créatives + [00:10:17][^2^][2] Impact de l'IA sur la création de contenu * Discussion sur la génération de contenu par l'IA et ses défis juridiques * Examen des perturbations potentielles dans les marchés créatifs + [00:12:01][^3^][3] Présentation de Giancarlo Frosio * Analyse des litiges concernant l'IA générative et le droit d'auteur * Exploration de la diffusion et de la perturbation du marché créatif par l'IA

      Résumé de la vidéo 00:34:02 - 01:12:21 : La deuxième partie de la vidéo se concentre sur les implications juridiques de l'intelligence artificielle (IA) générative dans la création de contenus culturels et médiatiques. L'orateur discute des défis posés par l'IA en matière de droit d'auteur, notamment la question de savoir si les œuvres générées par l'IA peuvent être protégées et la responsabilité en cas de violation du droit d'auteur. Il explore également les différences entre les juridictions, comme les États-Unis, l'Europe et la Chine, en ce qui concerne la protection des œuvres générées par l'IA.

      Points forts: + [00:34:02][^1^][1] Droit d'auteur et IA * Différences entre les juridictions sur la protection des œuvres d'IA * Cas de jurisprudence et doctrine du fair use aux États-Unis * Débat sur la personnalité juridique des machines + [00:50:32][^2^][2] Originalité et IA * Discussion sur l'originalité et la créativité algorithmique * Question de savoir si l'IA peut être considérée comme un auteur * Impact de l'IA sur l'homogénéisation culturelle + [01:02:24][^3^][3] Marché de la créativité et IA * Considérations sur le marché de la créativité face à l'IA * Proposition de licences obligatoires pour l'utilisation d'œuvres protégées * Réflexion sur la redistribution de la valeur générée par l'IA

      Résumé de la vidéo 01:12:24 - 01:40:53 : La troisième partie de la vidéo se penche sur les questions juridiques et éthiques soulevées par l'intelligence artificielle générative dans la création de contenus culturels et médiatiques. Elle explore les implications du droit d'auteur, la responsabilité en cas de violation, et la distinction entre les contributions humaines et celles de l'IA. La vidéo met en lumière les défis posés par l'IA dans le respect des droits d'auteur et la nécessité d'une éthique dans l'utilisation de l'IA générative.

      Points forts: + [01:12:24][^1^][1] Droit d'auteur et IA générative * Débat sur la responsabilité en cas de contenu similaire à une œuvre protégée * Question de la responsabilité secondaire de l'utilisateur ou de la plateforme + [01:17:02][^2^][2] L'impact de l'IA sur la création artistique * Discussion sur l'apocalypse artistique annoncée et la réponse de l'esthétique artificielle * Réflexion sur l'intégration de l'IA dans les démarches esthétiques + [01:38:10][^3^][3] Éthique de l'IA générative dans les médias * Présentation sur la formation d'un écosystème médiatique éthique avec l'IA * Importance de servir l'intérêt public dans l'utilisation de l'IA

      Résumé de la vidéo 01:40:55 - 02:04:02 : La quatrième partie de la vidéo se concentre sur l'éthique de l'intelligence artificielle (IA) générative dans les médias. L'intervenante, Chloé, explore les opportunités et les risques associés à l'utilisation de l'IA dans le journalisme, en mettant l'accent sur la nécessité d'une approche éthique et transparente. Elle présente des exemples concrets d'utilisation de l'IA pour la traduction, le résumé automatique et l'enrichissement de l'information, tout en soulignant l'importance du rôle humain dans la supervision de ces outils.

      Points forts: + [01:40:55][^1^][1] L'éthique dans l'utilisation de l'IA * Responsabilité dans la communication de l'utilisation de l'IA * Importance de l'éthique pour guider l'utilisation de l'IA dans les médias + [01:42:02][^2^][2] Exemples d'utilisation de l'IA dans les médias * Traduction des nouvelles pour les réfugiés ukrainiens * Édition en anglais du journal Le Monde grâce à l'IA + [01:45:32][^3^][3] Innovation dans la structure de l'information * Création d'histoires fractales pour la mise à jour automatique de l'information * Utilisation de l'IA pour réorganiser la structure des articles de presse + [01:47:21][^4^][4] Risques et défis de l'IA générative * Risque de mésinformation et désinformation * Importance de la vérification humaine et de la transparence

      Résumé de la vidéo 02:04:04 - 02:26:14 : La cinquième partie de la vidéo se concentre sur les implications esthétiques et juridiques de l'intelligence artificielle (IA) dans la création littéraire. L'orateur examine comment les modèles d'IA, en particulier ceux basés sur l'architecture des Transformers, tels que ChatGPT, remettent en question la nature de la littérature et du langage. Il aborde la littérature générée par informatique, la relation entre les textes d'entraînement et les textes générés, et les questions d'autorité et de réception des œuvres littéraires produites par l'IA.

      Points forts: + [02:04:04][^1^][1] L'IA dans la création littéraire * Débat sur la littérature comme calcul statistique * Impact des modèles d'IA sur la conception de la littérature * Question de l'autonomie des textes générés par l'IA + [02:05:00][^2^][2] Transformations de la littérature * Nouveaux processus créatifs basés sur la contrainte statistique * Relation intertextuelle entre textes d'entraînement et textes générés * Transformation de la notion d'autorité dans la création littéraire + [02:06:00][^3^][3] Historique de la littérature générée par informatique * Évolution des pratiques de génération de texte par informatique * Recherche d'autonomie dans les processus génératifs * Différences entre génération combinatoire et apprentissage calculatoire + [02:17:01][^4^][4] Conséquences juridiques et esthétiques * Implications du droit d'auteur pour les textes générés par IA * Distinction entre les œuvres protégées et les créations mécaniques * Positionnement des auteurs face aux textes générés par IA

      Résumé de la vidéo 02:26:16 - 02:48:24 : La sixième partie de la vidéo explore les implications de l'intelligence artificielle (IA) dans la création littéraire et culturelle. Elle met en lumière la notion de transfictionnalité et la capacité de l'IA à générer des narrations cohérentes, ce qui ouvre un nouveau champ de recherche et de pratique. L'orateur souligne l'importance de l'intention de l'auteur et la nécessité de recontextualiser la valeur littéraire à l'ère de l'IA générative.

      Points forts: + [02:26:16][^1^][1] Transfictionnalité et IA * Discussion sur l'émergence de nouvelles pratiques littéraires grâce à l'IA * L'IA atteint la narrativité, présageant un domaine de recherche fécond + [02:27:01][^2^][2] L'IA comme 'signe noir' * Surprise face aux progrès rapides de l'IA dans le domaine littéraire * Les textes générés sont des simulacres, soulevant des questions sur leur authenticité + [02:27:29][^3^][3] Hypothèses sur l'avenir de la littérature * Prévision d'un recentrage de la littérature autour de la relation esthétique avec le monde * La génération de texte par l'IA ne signifie pas que tout le monde sera auteur

    1. Résumé de la vidéo [00:00:01][^1^][1] - [00:23:54][^2^][2] : Cette vidéo explore l'impact de l'intelligence artificielle (IA) sur les sciences humaines et sociales. Elle présente un panel de discussions avec des experts qui partagent leurs perspectives sur la manière dont l'IA transforme la recherche dans ces domaines. Les intervenants abordent des sujets tels que l'épistémologie de l'IA, les changements méthodologiques dans la recherche, et les implications éthiques de l'utilisation de l'IA en sciences humaines.

      Points forts: + [00:00:01][^3^][3] Introduction au panel * Présentation des panélistes et du sujet * Importance de l'IA dans la recherche actuelle * Interaction avec le public en ligne + [00:07:10][^4^][4] Première intervention * Discussion sur l'intersection de l'IA avec les sciences humaines * Expérience personnelle de l'intervenant avec l'IA * L'importance de l'approche interdisciplinaire + [00:17:59][^5^][5] Impact de l'IA sur la recherche * Transformation des pratiques scientifiques par l'IA * Différences entre les sciences de la nature et les sciences humaines * Rôle de l'IA dans la compréhension des phénomènes sociaux + [00:21:20][^6^][6] Perspectives sur l'IA * Vue d'ensemble de l'IA et de son évolution * Distinction entre IA faible et IA forte * Potentiel de l'IA pour les sciences humaines et sociales

      Résumé de la vidéo 00:23:58 - 00:45:34 : Cette partie de la vidéo discute de l'impact et des applications de l'intelligence artificielle (IA) dans divers domaines, notamment la recherche en sciences humaines et sociales, la musicologie médiévale et l'analyse de données historiques. L'orateur explique comment l'IA a permis de traiter de grandes quantités de données et d'améliorer les méthodes de recherche. Il souligne également l'importance de l'interdisciplinarité et de l'adaptation des méthodes traditionnelles à l'ère numérique.

      Points forts: + [00:23:58][^1^][1] L'évolution de l'IA * L'explosion des outils génératifs comme ChatGPT * L'importance de l'apprentissage profond et des réseaux autoatentifs * La capacité de l'IA à traiter et analyser de grandes masses de données + [00:27:07][^2^][2] La 4e révolution industrielle * L'automatisation des tâches cognitives grâce à l'IA * L'impact sur différents domaines professionnels et scientifiques * Les limites éthiques et pratiques de l'automatisation + [00:30:02][^3^][3] L'accessibilité de l'informatique * La programmation des ordinateurs en langage naturel * L'importance croissante des grands modèles de langue * Les implications pour les experts non techniques + [00:33:00][^4^][4] Applications pratiques de l'IA * L'automatisation des revues systématiques en recherche * Les essais cliniques adaptatifs et les questionnaires adaptatifs * La reconnaissance de comportements dans les vidéos

      Résumé de la vidéo 00:45:36 - 01:12:12 : La troisième partie de la vidéo se concentre sur l'impact de l'intelligence artificielle (IA) dans le domaine de la musicologie médiévale, en particulier sur la numérisation et l'analyse des manuscrits et partitions musicales. L'orateur discute des avancées technologiques, telles que la reconnaissance optique de musique (OMR) et l'utilisation de réseaux de neurones pour l'analyse stylistique et la génération de musique. Il souligne également les défis méthodologiques et les besoins en coopération interdisciplinaire pour avancer dans ce domaine.

      Points forts: + [00:45:36][^1^][1] Numérisation des manuscrits médiévaux * Importance de la base de données contenant des transcriptions de textes et de musique associée * Impact sur la musicologie et les études médiévales + [00:47:02][^2^][2] Reconnaissance optique de musique (OMR) * Équivalent musical de la reconnaissance optique de caractères (OCR) * Progrès dans la transcription automatique de la musique médiévale + [00:50:18][^3^][3] Stylométrie et génération de musique * Analyse du style des compositeurs pour générer de la musique dans leur style * Exemples d'applications pratiques et de recherche en musicologie + [00:55:32][^4^][4] Traduction et communication savante * Discussion sur l'importance de la traduction dans la diffusion de la recherche * Utilisation de la traduction automatique pour accéder à des travaux dans différentes langues

      Résumé de la vidéo 01:12:14 - 01:36:50 : Cette section de la vidéo aborde l'impact de l'intelligence artificielle (IA) sur les métiers de la communication, le journalisme, les relations publiques et la publicité sociale. L'intervenant, directeur du Lab CIA, discute des effets de l'IA sur la recherche et l'acceptabilité des contenus synthétiques dans les médias. Il souligne l'importance de poser les bonnes questions pour obtenir des réponses utiles de l'IA et partage une expérience personnelle sur la rapidité et la créativité des outils d'IA dans la génération de projets de recherche.

      Points forts: + [01:12:14][^1^][1] L'impact de l'IA sur les métiers de la communication * Discussion sur les médias automatisés et l'acceptabilité du contenu synthétique * Importance de l'IA dans la formation et la recherche en communication + [01:14:00][^2^][2] La rapidité et la créativité des outils d'IA * Anecdote sur la génération rapide d'un projet de recherche par IA * Réflexion sur l'importance de la démarche de recherche par rapport aux résultats + [01:27:02][^3^][3] La vérité et l'objectivité dans la recherche * Débat sur la quête de vérité et la distinction entre savoir et comprendre * Discussion sur la fragilité et les dangers potentiels de l'IA dans la recherche

      Résumé de la vidéo 01:36:52 - 02:00:51 : La cinquième partie de la vidéo aborde l'utilisation des outils d'intelligence artificielle (IA) dans la recherche en sciences humaines et sociales. Les intervenants discutent de la manière dont l'IA peut aider à analyser des données numérisées, traduire des textes complexes et explorer des hypothèses de recherche qui étaient auparavant inaccessibles. Ils soulignent également les défis liés à la qualité des données et la nécessité d'une approche critique dans la formation des futurs chercheurs.

      Points forts: + [01:36:52][^1^][1] Avantages de l'IA dans la recherche * Gain de temps et accès facilité aux données numérisées * Utilisation de l'IA pour la comparaison et l'analyse de sources * Importance de la formation critique des futurs chercheurs + [01:38:50][^2^][2] Confiance dans l'IA générative * Débat sur le niveau de confiance accordé aux agents conversationnels comme ChatGPT * Discussion sur l'IA dans des domaines spécialisés comme la physique des particules * Réflexion sur l'utilisation de l'IA dans la recherche scientifique + [01:47:02][^3^][3] Qualité de l'écriture générée par l'IA * Évolution de la qualité des textes produits par l'IA * Comparaison avec l'écriture humaine et la créativité des grands écrivains * Impact de l'IA sur la pratique journalistique et la rédaction + [01:50:02][^4^][4] IA et délibération humaine * Préoccupation concernant la substitution de l'IA à la réflexion humaine * Distinction entre le langage humain et le langage probabiliste de l'IA * Débat sur l'impact fondamental de l'IA sur les sciences humaines et sociales

      Résumé de la vidéo 02:00:52 - 02:23:27 : La sixième partie de la vidéo aborde les débats philosophiques autour de l'intelligence artificielle (IA), notamment la notion de singularité et le test de Turing. Les intervenants discutent de la capacité de l'IA à imiter la pensée humaine et de l'impact de l'IA sur la vérité et l'objectivité dans la recherche. Ils soulignent également les différences fondamentales entre le fonctionnement du cerveau humain et celui des machines, ainsi que les risques potentiels de perte de compétences humaines dues à la dépendance croissante à l'IA.

      Points forts: + [02:00:52][^1^][1] Débats sur la singularité * Discussion sur le moment où l'IA atteindra ou dépassera l'intelligence humaine * Références à des événements marquants comme la victoire d'une IA au jeu de Go + [02:07:00][^2^][2] Vérité et objectivité * Questionnement sur la vérité et l'objectivité des informations fournies à l'IA * Impact de la perspective historique et culturelle sur les données + [02:14:11][^3^][3] Rôle des bibliothécaires * Comparaison entre les compétences des bibliothécaires et les réponses générées par l'IA * Importance de la compréhension humaine de la littérature + [02:17:54][^4^][4] IA et cognition humaine * Distinction entre les réseaux de neurones formels et les processus cognitifs humains * Discussion sur la manière dont le cerveau biologique effectue des calculs sans représentation numérique

      Résumé de la vidéo 02:23:29 - 02:40:34 : La septième partie de la vidéo discute de l'impact de l'intelligence artificielle (IA) sur les pratiques sociales et la recherche en sciences humaines. Les panélistes explorent les avantages et les défis de l'IA, notamment en termes de créativité, de perte de compétences et de désinformation. Ils soulignent l'importance de la pensée critique et de la formation pour utiliser efficacement l'IA dans divers domaines professionnels.

      Points forts: + [02:23:29][^1^][1] L'IA et la créativité * Réflexion sur l'importance de la poésie et de la créativité face à l'IA * Discussion sur les capacités perdues et gagnées avec l'utilisation de l'IA * Exemple de la caméra de recul en voiture comme métaphore de la dépendance technologique + [02:25:22][^2^][2] L'IA dans le journalisme * L'IA peut libérer du temps pour des tâches créatives en prenant en charge les tâches répétitives * Exemple de l'utilisation de l'IA pour des tâches comme le bâtonnage de dépêche * Formation des journalistes pour poser les bonnes questions aux modèles d'IA + [02:29:00][^3^][3] Désinformation et IA * Préoccupations concernant la désinformation et le profilage par l'IA * Impact de l'IA sur la fragmentation de la société et l'espace public * Discussion sur la génération de fausses nouvelles et d'images trompeuses + [02:33:01][^4^][4] Pensée critique et IA * Question sur l'intégration de la pensée critique dans l'IA * Réflexion sur la vérité et les limites des données utilisées pour entraîner l'IA * Importance de la diversité dans la création des modèles d'IA

  13. May 2024
    1. Résumé de la vidéo [00:00:07][^1^][1] - [00:21:52][^2^][2]:

      Maël PEGNY discute de l'importance pour les scientifiques sociaux de comprendre le calcul et l'informatique, en particulier dans le contexte de l'apprentissage automatique et de la modélisation des thèmes. Il explore les problèmes génériques liés à l'abstraction, à la validation intuitive des résultats et à la pluralité des formalisations dans la recherche.

      Points forts: + [00:00:07][^3^][3] L'importance de la compréhension du calcul * La nécessité pour les scientifiques sociaux de comprendre les outils informatiques * La distinction entre spécification et implémentation * L'impact de l'abstraction sur l'interprétation des calculs + [00:05:03][^4^][4] L'intuition et la formalisation * La traduction des problèmes intuitifs en problèmes formels * La spécification comme guide pour l'exécution des méthodes computationnelles * La validation des résultats computationnels par rapport à l'intuition initiale + [00:11:15][^5^][5] La pluralité des formalisations * Les différentes manières de formaliser un problème intuitif * L'interprétation de la pluralité comme clarification conceptuelle ou échec méthodologique * Les décisions pragmatiques prises lors de la formalisation + [00:15:36][^6^][6] Les concepts opaques et la méthodologie * La difficulté de définir des concepts intuitifs comme les thèmes de recherche * La comparaison entre l'intuition et la formalisation * La question de savoir si la philosophie des sciences a pleinement reconnu ces problèmes méthodologiques Résumé de la vidéo [00:21:53][^1^][1] - [00:44:03][^2^][2] : La vidéo présente une conférence de Maël PEGNY sur l'importance de la compréhension des calculs en sciences sociales, en particulier en ce qui concerne le machine learning et la métaprogrammation. PEGNY discute des défis liés à la formalisation des problèmes intuitifs et à la spécification des calculs, soulignant les ambiguïtés terminologiques et les difficultés d'interprétation. Il explore également la notion de métriques de performance en machine learning et leur rôle dans la formalisation partielle des intuitions de départ.

      Points saillants : + [00:22:00][^3^][3] Défis de la formalisation * Difficulté à caractériser les actions sans formalisation explicite * Débat sur la terminologie appropriée pour décrire les processus + [00:23:01][^4^][4] Métaprogrammation en machine learning * Processus de programmation d'un algorithme qui génère un autre programme * Importance de comprendre les calculs sous-jacents à la fois de l'algorithme d'apprentissage et du modèle résultant + [00:24:53][^5^][5] Rôle des métriques de performance * Les métriques guident l'apprentissage et optimisent la performance * Elles constituent une forme de formalisation partielle des intuitions + [00:37:04][^6^][6] Identification des thèmes de recherche * Approche intuitive et non systématique pour déterminer les thèmes * Comparaison entre les résultats intuitifs et ceux générés par le machine learning Résumé de la vidéo [00:44:05][^1^][1] - [01:04:55][^2^][2]:

      La vidéo présente une conférence de Maël PEGNY sur l'importance de la compréhension des méthodes computationnelles en sciences sociales. Il discute des défis liés à l'analyse de données et à l'interprétation des résultats obtenus par machine learning, soulignant les limites des approches traditionnelles et la nécessité d'adapter les méthodes statistiques aux complexités des données sociales.

      Points forts: + [00:44:05][^3^][3] Choix de la base de données * Importance de la sélection des données * Différences entre autodescription et publications + [00:45:35][^4^][4] Problèmes d'interprétation * Difficultés d'interprétation des résultats * Nécessité d'ajuster les stop words en NLP + [00:48:04][^5^][5] Pluralité des formalisations * Comparaison de différentes méthodes d'analyse * Impact de la complexité des modèles sur l'interprétation + [00:57:52][^6^][6] Épistémologie des statistiques * Questionnement sur la nouveauté des problèmes posés par le machine learning * Pertinence des traditions statistiques pour comprendre l'apprentissage automatique Résumé de la vidéo 01:04:57 - 01:09:09 : La partie 4 de la vidéo aborde la nécessité pour les scientifiques sociaux de comprendre les calculs dans le contexte de l'apprentissage profond et de la statistique. Elle explore le choc que le succès de l'apprentissage profond a provoqué chez les statisticiens et comment cela a conduit à une réévaluation des fondements de la théorie statistique.

      Points forts : + [01:05:00][^1^][1] Surprise des statisticiens * L'apprentissage profond a surpris les statisticiens * Reconsidération des fondements de la théorie statistique * Recherche d'une compréhension théorique de l'apprentissage profond + [01:05:49][^2^][2] Nouveautés dues à l'échelle de calcul * Changements qualitatifs avec l'augmentation de la masse des données * Nouveautés apparaissent avec le calcul à grande échelle * Importance de la modélisation formelle des problèmes + [01:07:37][^3^][3] Différenciation des enjeux de formalisation * Distinction entre mathématiques, logique et informatique théorique * La formalisation en informatique diffère de celle en mathématiques * La tradition de méthodes formelles rigoureuses est peu représentée en machine learning

    1. Résumé de la vidéo [00:00:06][^1^][1] - [00:27:33][^2^][2]:

      Célia Zolynski discute de la transition du calcul du sujet à son empowerment dans le contexte de l'intelligence artificielle (IA) et de la régulation des plateformes. Elle aborde les enjeux de la régulation de l'IA, l'importance de protéger les droits fondamentaux face aux risques potentiels, et propose des pistes pour renforcer le pouvoir d'action des utilisateurs.

      Points forts: + [00:00:06][^3^][3] Introduction et contexte * Présentation de Célia Zolynski et de son domaine d'expertise en droit du numérique * Importance de la régulation des plateformes et des systèmes d'IA + [00:03:06][^4^][4] Régulation des droits fondamentaux et IA * Approche actuelle de la régulation visant à protéger les droits fondamentaux * Nécessité d'une approche complémentaire pour renforcer le pouvoir d'action des utilisateurs + [00:10:01][^5^][5] Le règlement sur l'intelligence artificielle (AI Act) * Discussion sur le AI Act proposé par la Commission européenne * Classification des risques et mécanismes de mise en conformité + [00:17:01][^6^][6] Empowerment de l'utilisateur final * Stratégies pour améliorer la compréhension et l'interaction des utilisateurs avec les systèmes d'IA * Importance de la transparence et de la jouabilité pour l'empowerment Résumé de la vidéo [00:27:34][^1^][1] - [00:53:16][^2^][2]:

      La vidéo présente une conférence de Célia Zolynski, qui aborde le sujet de l'impact des systèmes algorithmiques sur les individus et la société. Elle souligne l'importance de comprendre, débattre et potentiellement contester les contraintes techniques imposées par ces systèmes, en particulier dans le contexte des ressources humaines et de la reconnaissance faciale.

      Points forts: + [00:27:34][^3^][3] Comprendre et débattre des contraintes techniques * Nécessité de réflexion collective sur l'utilisation des algorithmes * Importance de la formation pour un débat éclairé * Propositions de la Commission nationale consultative des droits de l'homme + [00:30:10][^4^][4] Droit de contester les décisions algorithmiques * Reconnaissance du droit de contestation en droit des données personnelles * Discussion sur l'accès aux preuves et la présomption de non-discrimination * Importance de la défense des libertés et droits fondamentaux + [00:34:18][^5^][5] Actions collectives pour la défense des droits * Nécessité de procédures pour organiser des actions collectives * Importance des organismes de promotion de l'égalité et de la défense des droits * Propositions pour une régulation plus humaniste de la technique + [00:36:01][^6^][6] Droit au paramétrage des systèmes algorithmiques * Proposition d'un droit de paramétrage pour l'utilisateur * Impact sur les algorithmes de recommandation et les assistants vocaux * Vision d'une interaction plus humaniste entre l'homme et la machine Résumé de la vidéo [00:53:17][^1^][1] - [01:10:10][^2^][2]:

      La vidéo présente une discussion approfondie sur le Digital Markets Act (DMA) et son impact sur les grandes plateformes numériques, en particulier en ce qui concerne l'accès aux données et le contrôle du marché. Célia Zolynski explore les défis liés à la qualification des bases de données en tant qu'infrastructures essentielles et les obligations imposées aux acteurs dominants pour promouvoir l'innovation et la concurrence loyale.

      Points saillants: + [00:53:17][^3^][3] Le marché numérique et le DMA * Analyse du rôle des grandes plateformes dans l'organisation du marché * Discussion sur les pratiques déloyales et l'effet de verrouillage du marché * Importance de l'accès aux données pour la concurrence et l'innovation + [00:57:03][^4^][4] Paramètres de l'utilisateur et contenu * Exploration de la possibilité pour les utilisateurs de contrôler l'affichage du contenu * Importance du design et de la facilité de modification des paramètres * Réflexion sur les paramètres utiles et déterminants pour les utilisateurs + [01:02:00][^5^][5] Fatigue du consentement et design * Discussion sur la fatigue du consentement et l'importance d'un design encourageant l'interaction * Idées pour préconfigurer les choix des utilisateurs concernant les cookies * Défis liés à l'équilibre entre préinstallation et contrôle utilisateur + [01:07:02][^6^][6] Complexité réglementaire et accès au marché * Analyse de la complexité des textes réglementaires et de leur impact sur les PME * Approche asymétrique imposant plus d'obligations aux grands acteurs * Objectif de ne pas créer de barrières réglementaires à l'entrée sur le marché

  14. Mar 2024
    1. Résumé de la Vidéo

      La vidéo est une discussion sur l'intelligence artificielle (IA) générative et son impact sur l'éducation. Damien Dubreuil et Benoît introduisent le sujet en expliquant leur expérience et leur rôle dans l'utilisation de l'IA. Ils abordent la responsabilité des éducateurs à comprendre et à tester ces systèmes, soulignant l'importance de la vérification des informations générées par l'IA.

      Points Forts: 1. Introduction au webinaire sur l'IA générative [00:00:09][^1^][1] * Présentation des intervenants et du format du webinaire * Discussion sur la direction d'un établissement scolaire à l'ère de l'IA générative 2. Expérience et rôle des intervenants dans l'IA [00:01:07][^2^][2] * Damien Dubreuil partage son expérience en tant que proviseur et référent numérique * Benoît parle de son parcours en IA et de son travail avec l'ESSEC et le hub France IA 3. Compréhension et définition de l'IA générative [00:04:03][^3^][3] * Clarification des termes et des concepts clés de l'IA * Explication de l'IA générative et de son évolution 4. Responsabilité éducative face à l'IA générative [00:15:42][^4^][4] * Importance pour les éducateurs de tester et de comprendre l'IA générative * Discussion sur la fiabilité des informations générées et la nécessité de vérification Résumé de la vidéo

      Cette vidéo explore l'utilisation de l'intelligence artificielle (IA) dans le domaine pédagogique, en particulier pour traiter de grandes quantités de données textuelles. Elle aborde les avantages de l'IA pour gagner du temps dans la rédaction de rapports d'autoévaluation et la planification de projets éducatifs. La vidéo souligne également les défis réglementaires liés à l'utilisation de l'IA, comme le RGPD et le futur AI Act européen, tout en discutant des hallucinations, un phénomène où l'IA peut générer des informations fausses mais plausibles.

      Points saillants : 1. Utilisation de l'IA dans l'éducation [00:23:49][^1^][1] * Simplifie la gestion de grandes quantités de données * Permet de gagner du temps dans la rédaction de rapports * Nécessite une vérification humaine pour assurer l'exactitude 2. Défis réglementaires et éthiques [00:29:58][^2^][2] * Le respect du RGPD et l'anticipation du AI Act européen * Importance de la protection des données personnelles * Nécessité d'une approche responsable dans l'utilisation de l'IA 3. Phénomène des hallucinations de l'IA [00:36:47][^3^][3] * L'IA peut créer des informations fausses mais crédibles * Les hallucinations sont inhérentes à la nature des systèmes de traitement du langage * Importance de la vérification par les utilisateurs pour éviter la désinformation 4. Intégration de l'IA dans les pratiques pédagogiques [00:42:00][^4^][4] * Encouragement à expérimenter avec l'IA pour comprendre ses capacités et limites * Organisation d'ateliers pour familiariser le personnel et les élèves avec l'IA * Utilisation de l'IA comme outil d'assistance et non comme source unique de vérité Résumé de la Vidéo

      La partie 3 de la vidéo aborde l'intégration de l'intelligence artificielle (IA) dans les solutions éducatives, notamment le déploiement de "Mia seconde" pour accompagner les lycéens. Elle soulève des questions sur la protection des données (RGPD) et l'esprit critique face à ces outils. L'orateur partage son expérience personnelle avec l'utilisation d'un chatbot basé sur Chat GPT 35 sur le site de son lycée, qui bien que perfectible, sert d'outil de veille et d'amélioration de son travail.

      Points Forts: 1. Déploiement de Mia seconde [00:47:02][^1^][1] * Solution intégrant l'IA pour les lycéens * Déjà en phase expérimentale * Provoque des interrogations sur le RGPD et l'esprit critique 2. Utilisation de l'IA dans les espaces numériques de travail [00:47:39][^2^][2] * Intégration d'outils d'IA dans les académies * Exemple de la W flash déjà utilisée par certains 3. Expérience personnelle avec un chatbot [00:48:20][^3^][3] * Mise en place d'un chatbot sur le site du lycée * Basé sur Chat GPT 35, nécessite des améliorations * Utilisé pour la veille et l'amélioration des services du lycée 4. Perspectives sur l'évolution des outils d'IA [00:55:44][^4^][4] * Discussion sur la mise à jour du chatbot vers Chat GPT 4 * Importance de l'actualisation des données et des réponses fournies

  15. Feb 2024
    1. la question de de Nicolas qui est un petit peu plus usage pratique euh qui se demande si c'est si 00:45:00 l'outil euh euh je pense en particulier à chat GPT mais j'imagine il y a d'autres il y a d'autres outils mais est-ce qu'il est capable de synthétiser des réponses à des questionnaires de de satisfaction et et des questionnaire de qualité euh et de faire de sortir voilà 00:45:15 des des des comment dire des analyses de manière qualitative et quantitative et cetera
    2. une question de 00:42:01 gislen qui se posait un peu bah la question de du fameux droit d'auteur des productions qui sont généré par unea générative celui qui a qui a créé la requête et choisit la la génération qui 00:42:14 lui paraît satisfaisante est-ce que il peut prétendre être auteur de la production c'est un peu voilà qu'en est-il des des droits d'auteur et et voilà et les images qu'on obtient ou même d'ailleurs les textes he est-ce que 00:42:27 on peut s'en approprier le le le droit ou pas
    3. Résumé vidéo [00:00:00][^1^][1] - [00:22:46][^2^][2]: La vidéo présente une session de webinaire organisée par Solidatech, où l'équipe de Cyber Forgo discute de l'intelligence artificielle (IA) et de son utilisation par les associations. Elodie de Solidatech introduit le webinaire et explique les aspects pratiques, suivie par une présentation de Solidatech et ses services pour les associations. L'équipe de Cyber Forgo partage ensuite des exemples d'utilisation de l'IA générative et des conseils pour son utilisation sécurisée et efficace.

      Points forts: + [00:00:00][^3^][3] Introduction et objectifs du webinaire * Présentation par Elodie de Solidatech * Discussion sur l'IA par Cyber Forgo + [00:02:15][^4^][4] Présentation de Solidatech * Services numériques pour associations * Histoire et mission de Solidatech + [00:06:19][^5^][5] Exemples d'utilisation de l'IA générative * Utilité de l'IA pour les associations * Conseils pour une utilisation responsable + [00:09:35][^6^][6] Risques et précautions d'usage de l'IA * Importance de la sécurité et de l'éthique * Astuces pour éviter les pièges de l'IA Résumé de la vidéo [00:22:48][^1^][1] - [00:49:22][^2^][2]: La vidéo présente l'association Data for Good qui soutient des projets technologiques à impact social. Elle met en lumière l'utilisation de l'IA pour extraire des données, analyser des images et accélérer le développement technique avec des ressources limitées.

      Points forts: + [00:22:48][^3^][3] Structure de Data for Good * Saisons de projets tech * Recrutement envisagé + [00:24:56][^4^][4] Extraction de données non structurées * Observatoire sur l'évasion fiscale + [00:25:09][^5^][5] Analyse d'image * Projets environnementaux * Détection d'incendies et pollution plastique + [00:25:35][^6^][6] Développements techniques complexes * Projets ambitieux avec petites équipes + [00:30:50][^7^][7] Projet Carbon Bombs * Visualisation de mégaprojets fossiles + [00:32:16][^8^][8] Risques de l'IA générative * Biais, fausses informations, fuites de données + [00:38:23][^9^][9] Conseils pour utiliser l'IA générative * Écrire des requêtes claires * Ne pas divulguer d'informations personnelles * Vérifier les réponses obtenues Résumé de la vidéo 00:49:23 - 01:04:05 : La vidéo aborde l'écriture de prompts, la confidentialité des données avec les outils génératifs, et l'utilisation de l'IA dans les associations. Elle souligne l'importance de la transparence et de la sécurité des données.

      Points clés : + [00:49:23][^1^][1] Écriture de prompts * Conseils pour construire des requêtes + [00:50:09][^2^][2] Applications pour prompts * Utiliser des applis pour créer des requêtes + [00:51:13][^3^][3] Conseils sur les requêtes * Créer ses propres requêtes pour mieux comprendre l'outil + [00:52:01][^4^][4] Sécurité des données * Risques liés à l'utilisation des outils génératifs + [00:54:06][^5^][5] Confidentialité et IA * Prudence avec les informations personnelles + [00:57:18][^6^][6] IA pour FAQ * Réflexion sur l'utilisation de l'IA pour améliorer les FAQ

    1. Résumé de la vidéo [00:00:00][^1^][1] - [00:44:18][^2^][2]:

      Cette vidéo est une conférence de Jean-Gabriel Ganascia, professeur d'informatique à Sorbonne Université, sur le thème des servitudes virtuelles. Il s'agit de la manière dont les technologies numériques, et notamment l'intelligence artificielle, peuvent exercer des formes de contrainte et d'oppression sur les individus et les sociétés. Il analyse les enjeux éthiques, politiques et juridiques de ces technologies, et propose des pistes de réflexion pour s'en libérer.

      Points clés: + [00:00:07][^3^][3] Il rend hommage à Blaise Pascal, précurseur de la machine à calculer et de la réflexion sur l'intelligence artificielle * Il cite un texte où Pascal distingue les machines des animaux par l'absence de volonté * Il critique les transhumanistes qui veulent attribuer une volonté aux machines + [00:02:46][^4^][4] Il décrit le monde en ligne dans lequel nous vivons, où nos vies sont soumises aux flux d'information et à l'intelligence artificielle * Il reconnaît les bienfaits du numérique dans de nombreux domaines (web, santé, robotique, écologie, etc.) * Il dénonce les nouvelles formes de coercition et d'oppression qui s'exercent au plan cognitif * Il compare la situation actuelle à celle décrite par Étienne de La Boétie dans son Discours de la servitude volontaire + [00:09:01][^5^][5] Il expose les limites des chartes éthiques du numérique, qui se multiplient sans être efficaces * Il montre que les principes invoqués (autonomie, dignité, bienfaisance, non-malfaisance, etc.) sont ambigus, relatifs et imprécis * Il illustre les conséquences sociales et politiques des technologies de l'information et de la communication avec des exemples concrets (reconnaissance faciale, crédit social, cloud act, etc.) * Il plaide pour une approche plus pragmatique et plus critique, qui prenne en compte les usages réels et les modes d'appropriation des technologies + [00:20:10][^6^][6] Il propose une éthique du numérique fondée sur la responsabilité individuelle et collective * Il distingue l'éthique de la morale, de la déontologie et du droit * Il définit l'éthique comme une réflexion sur les valeurs et les normes qui orientent nos actions * Il s'inspire de la pensée de Jacques Derrida, qui met l'accent sur l'ouverture à l'avenir et à l'imprévisible * Il cite un texte d'Albert Camus, qui donne quatre conseils aux journalistes : être lucide, refuser de diffuser la haine, user de l'ironie et être obstiné

    1. Célia ZOLYNSKI, Du calcul du sujet à sa mise en pouvoir d'agir

      Résumé de la vidéo [00:00:00][^1^][1] - [01:10:00][^2^][2] :

      Cette vidéo présente la conférence de Célia Zolynski, professeur de droit du numérique à l'Université Paris 1, sur le thème "Du calcul du sujet à sa mise en pouvoir d'agir". Elle expose les enjeux de régulation des systèmes d'intelligence artificielle (IA) et les impacts potentiels de ces systèmes sur les droits et libertés fondamentaux des personnes. Elle propose de compléter l'approche actuelle du régulateur, qui consiste à protéger le sujet calculé par des obligations de transparence et de responsabilité, par une approche qui vise à mettre le sujet en pouvoir d'agir, en lui offrant des possibilités de paramétrage, de jouabilité et de curation des contenus et des services numériques.

      Points clés : + [00:00:00][^3^][3] Le contexte général de la régulation des systèmes d'IA * Les enjeux de protection des droits fondamentaux face aux impacts des systèmes d'IA * Les textes en cours de discussion au niveau européen et international * La notion de sujet calculé comme instrument de mesure des obligations imposées aux fournisseurs de systèmes d'IA + [00:19:45][^4^][4] L'approche complémentaire de la mise en pouvoir d'agir du sujet * Les limites de l'approche actuelle fondée sur la transparence et la responsabilité * Les pistes pour renforcer l'autonomie et la dignité du sujet face aux systèmes d'IA * Les exemples de paramétrage, de jouabilité et de curation des contenus et des services numériques + [00:44:45][^5^][5] Les questions et les échanges avec le public * Les modalités de mise en œuvre des obligations de transparence et d'accès aux données * Les difficultés de conciliation entre les différents textes et les différents niveaux de régulation * Les perspectives de recherche et de collaboration interdisciplinaire sur ces sujets

  16. Apr 2023
  17. Feb 2023
  18. Mar 2022
  19. Sep 2020
    1. doivent consulter des oracles

      Par exemple, pour entraîner une intelligence artificielle, le philosophe montréalais Martin Gibert propose de montrer aux IA des exemples, des modèles à suivre (des Greta et des Mère Theresa) plutôt que d’essayer de leur enseigner les concepts de la philosophie morale.

  20. Apr 2020
    1. Des applications de visites guidées intelligentes s’appuient sur un processus de gestion des flux visiteurs (Visitor Flow Management Process, VFMP) pour les orienter vers les zones où ils sont le moins nombreux. Il s’agira alors de combiner les données sur l’affluence en temps réel pour chaque espace avec les souhaits et les goûts des visiteurs pour suggérer le parcours personnalisé idéal

      Argument en faveur de l'IA qui permet bien de gérer le flux mais ajoute un second bénéfice : proposer un parcours idéal. Ce bénéfice supplémentaire peut être considéré comme un argument réthorique de type Logos.

    2. Certaines technologies intelligentes utilisées dans d’autres secteurs pourraient être transposées dans les musées. Avec le big data, il est possible de connaître l’affluence en fonction des dates et des horaires, les types de visiteurs selon les jours et les périodes, ou la durée de visite moyenne par rapport différents paramètres comme la météo.

      Argument épistémique inductif et réthorique de type logos.

      On passe à l'intelligence artificielle, technologie de pointe. Apporte du crédit à l'affirmation du bénéfice du numérique.