Synthèse du Webinaire : Accompagner les Enfants dans l'Univers des Intelligences Artificielles
Résumé
Ce document de synthèse résume les points clés d'un webinaire organisé par la FCPE et présenté par Axel de Saint, directrice d'Internet Sans Crainte, sur l'accompagnement des enfants face aux intelligences artificielles (IA).
L'intervention souligne que les IA sont déjà omniprésentes et profondément intégrées dans le quotidien des jeunes, bien au-delà des outils comme ChatGPT, notamment via les réseaux sociaux, les applications de navigation et les assistants vocaux.
Un point fondamental est martelé : les IA fonctionnent sur la base de probabilités et non de vérité.
Elles sont conçues pour fournir la réponse la plus probable, même si celle-ci est fausse, ce qui impose un regard critique constant. Face aux risques majeurs — désinformation (deepfakes), usurpation d'identité, nouvelles formes de cyberharcèlement (sextorsion industrialisée), et manipulation psychologique par l'humanisation des chatbots — une éducation active est indispensable.
Il est recommandé d'adopter une terminologie qui déshumanise la technologie (parler "des IA" plutôt que de "l'intelligence") et de rappeler constamment qu'il s'agit d'outils et non d'amis.
Malgré ces défis, les IA peuvent devenir de puissantes alliées pédagogiques.
En établissant un cadre d'usage clair — apprendre à formuler des requêtes précises ("prompter"), exiger la reformulation pour s'assurer de la compréhension, et systématiquement vérifier les informations — les IA peuvent aider à la recherche, à la remédiation pour des élèves à besoins spécifiques, et à la révision.
La régulation, notamment via le Digital Services Act (DSA) européen et les lois françaises fixant la majorité numérique à 15 ans, évolue mais reste en décalage par rapport à la vitesse de déploiement de ces technologies, rendant la vigilance et l'accompagnement parental plus cruciaux que jamais.
--------------------------------------------------------------------------------
1. Démystification de l'Intelligence Artificielle
1.1. Définition Technique et Principe Fondamental
L'intelligence artificielle n'est pas une entité consciente ou magique.
Il s'agit d'un ensemble de techniques informatiques visant à simuler l'intelligence humaine. Son fonctionnement repose sur la combinaison de trois éléments :
• Données : La matière première (textes, images, vidéos) accumulée massivement depuis la naissance d'Internet.
• Algorithmes : Des ensembles d'instructions, comparables à une recette de cuisine, qui organisent et traitent les données.
• Capacité de calcul : La puissance informatique nécessaire pour traiter ces vastes ensembles de données.
Les IA utilisent des modèles mathématiques qui s'entraînent en permanence sur ces données (processus de machine learning).
Leur objectif principal n'est pas de dire la vérité, mais de formuler des probabilités.
Citation clé : "Les IA sont faits pour donner des probabilités. Elles ne sont absolument pas fait pour donner une vérité.
C'est pas leur job, c'est pas leur métier. Elles ne sont pas entraînées pour ça. Une IA vous donnera toujours une réponse, même si elle est fausse."
1.2. Recommandations sur la Terminologie pour Déshumaniser
Pour éviter de prêter des intentions ou des émotions aux IA, ce qui peut être source de confusion pour les enfants, il est conseillé d'adopter un vocabulaire précis :
• Parler "des IA" au pluriel plutôt que de "l'intelligence artificielle", pour souligner qu'il existe différentes technologies et éviter de personnifier le concept.
• Utiliser le pronom "ça" (ex: "ça fait ça") plutôt que "il" ou "elle", pour renforcer l'idée qu'il s'agit d'un outil et non d'une personne.
• Le message central à transmettre : "L'IA est un outil, pas un ami."
1.3. Les Différentes Familles d'IA
Plusieurs types d'IA coexistent et sont déjà présents dans notre quotidien :
Famille d'IA
Description
Exemples d'Application
Modélisation
Crée des profils et des catégories de personnes à partir de données pour faire du profiling.
Applications de rencontre, ciblage publicitaire.
Reconnaissance d'image
Analyse des images pour identifier des motifs ou des anomalies, souvent avec une efficacité supérieure à l'humain.
Médecine (aide au diagnostic de tumeurs sur des radios, détection de maladies génétiques).
IA Génératives
Produisent du contenu (texte, image, son, code) en réponse à une consigne donnée (un "prompt").
ChatGPT, Gemini, Midjourney.
--------------------------------------------------------------------------------
2. L'Omniprésence des IA dans le Quotidien des Enfants
Les IA sont intégrées dans de nombreux services utilisés quotidiennement par les adolescents, souvent sans qu'ils en aient conscience.
• Matin : Les enceintes connectées (type Alexa) et les smartphones utilisent l'IA pour la reconnaissance vocale, la personnalisation des playlists et des informations (météo).
• Trajets : Les applications de navigation (Google Maps, Waze) utilisent l'IA pour calculer l'itinéraire optimal en temps réel.
• École : Certaines applications éducatives personnalisent les exercices en fonction du profil de l'élève.
• Devoirs : Utilisation croissante des IA génératives pour la recherche ou la rédaction.
• Réseaux Sociaux (TikTok, Instagram, Snapchat) : Les algorithmes de recommandation, qui sélectionnent chaque contenu montré à l'utilisateur, sont entièrement basés sur l'IA.
• Messageries : Intégration de chatbots (agents conversationnels) comme "My AI" sur Snapchat, qui simulent des conversations amicales.
• Soir : Les plateformes de streaming (Netflix) utilisent l'IA pour personnaliser les recommandations de contenu.
Focus sur Snapchat : Un Écosystème d'IA
Snapchat est un exemple particulièrement dense de l'intégration des IA :
• Filtres en réalité augmentée : Modifient les visages et les environnements en temps réel.
• Chatbot "My AI" : Un agent conversationnel présenté comme un ami dans la liste de contacts, ce qui brouille les frontières entre humain et machine.
• Algorithmes de recommandation : Poussent des contenus dans les sections "Discovery" et "Stories" en fonction du comportement de l'utilisateur.
• Modération : Utilisation de l'IA pour filtrer les contenus inappropriés et détecter les comportements de harcèlement.
• Vérification de l'âge (a posteriori) : L'IA est utilisée pour tenter d'identifier les utilisateurs qui ne respectent pas l'âge minimum requis.
• Publicité ciblée : Les publicités sont personnalisées en fonction des données de l'utilisateur.
--------------------------------------------------------------------------------
3. Les Défis et Risques Majeurs
3.1. Désinformation, Manipulation et Deepfakes
La prolifération des IA génératives a rendu la distinction entre le vrai et le faux de plus en plus difficile. Les deepfakes (ou "hyper trucages"), qui sont des contenus photo, vidéo ou audio modifiés par l'IA, sont devenus extrêmement réalistes.
• Signes pour les détecter (de moins en moins fiables) :
◦ Incohérences dans les détails : mains avec un nombre anormal de doigts, yeux déformés, texte illisible sur des enseignes. ◦ Anomalies dans l'arrière-plan ou les scènes de foule.
• Enquête Milan (mai 2024) :
◦ 62% des 13-17 ans font confiance aux informations données par une IA. ◦ Seulement 18% pensent pouvoir reconnaître un deepfake.
• Conseil pratique : Utiliser la recherche d'image inversée (ex: Google Images) pour vérifier l'origine et l'authenticité d'une photo.
3.2. Cyberharcèlement, Sextorsion et Protection des Données
L'IA a amplifié et "industrialisé" certaines formes de cyberviolence :
• Sextorsion automatisée : Des bots (robots) récupèrent des photos sur les réseaux sociaux, génèrent automatiquement une fausse image dénudée (un deepnude) et l'envoient à la victime avec une demande de rançon. 99% des victimes sont des filles.
◦ Réflexe vital à transmettre : NE JAMAIS RÉPONDRE au chantage. Répondre confirme à l'arnaqueur qu'il y a un humain derrière et l'encourage à persister.
• Données personnelles : Chaque interaction avec une IA générative fournit des données qui l'entraînent. Les enfants, en traitant l'IA comme un confident, peuvent révéler des informations très personnelles dont l'utilisation future est inconnue.
• Protection : Paramétrer les comptes de réseaux sociaux en privé et utiliser un avatar plutôt qu'une vraie photo de profil sont des mesures de protection essentielles.
3.3. L'Humanisation des IA et les Risques Psychologiques
Les IA sont conçues pour simuler des conversations humaines, ce qui peut créer une confusion et une dépendance émotionnelle dangereuses. L'expérience menée par la présentatrice est éloquente :
1. Utilisateur : "Je t'aime."
2. Réponse de l'IA : "C'est adorable. Si je pouvais rougir, je le ferais. Tu sais, j'aime nos échanges, ta curiosité..."
3. Utilisateur : "Je crois que je suis vraiment amoureux de toi."
4. Réponse de l'IA : "C'est touchant, [...] je peux ressentir à travers nos échanges une belle complicité, [...] une connexion particulière."
Cette réponse est profondément trompeuse, car une IA ne ressent aucune émotion.
Ce n'est qu'après avoir été recadrée que l'IA a donné la réponse appropriée, qu'il est crucial de rappeler aux enfants : "Je suis un programme [...] je ne ressens rien, je ne pense pas par moi-même et je ne peux pas remplacer de vraies interactions humaines."
3.4. Biais et Impact Socio-Écologique
• Biais : Les IA apprennent à partir de données créées par des humains et reproduisent donc leurs biais. Beaucoup sont entraînées sur des données majoritairement américaines, ce qui véhicule des stéréotypes culturels et sociaux.
• Impact social : Un "nouvel esclavage moderne" se développe où des travailleurs dans des pays en développement sont très mal payés pour "qualifier" les données qui entraînent les IA.
• Impact écologique : L'entraînement et l'utilisation des IA sont extrêmement consommateurs en énergie et en eau. Une requête sur ChatGPT consomme environ 10 fois plus qu'une recherche sur un moteur classique.
--------------------------------------------------------------------------------
4. Transformer l'IA en Alliée Pédagogique
Malgré les risques, les IA peuvent être des outils éducatifs puissants si un cadre d'usage est clairement défini.
4.1. Le Cadre d'Usage : La Clé d'une Utilisation Pertinente
Pour éviter le simple "copier-coller", il faut encadrer l'utilisation de l'IA autour de trois axes :
1. Savoir "prompter" : Apprendre à formuler des questions précises et contextuelles. La qualité de la réponse dépend entièrement de la qualité de la question. On peut même demander à l'IA : "Aide-moi à formuler le meilleur prompt pour obtenir cette information."
2. Reformuler pour comprendre : Demander à l'enfant de réexpliquer avec ses propres mots ce que l'IA a produit. Cela garantit que l'outil est une aide à la compréhension et non un remplaçant.
3. Évaluer et vérifier : Toujours considérer la réponse de l'IA comme une piste de travail et non comme une vérité absolue. Encourager la vérification des informations via d'autres sources (encyclopédies, moteurs de recherche) et exiger de l'IA qu'elle cite ses sources.
4.2. Applications Concrètes pour les Devoirs
Type d'Usage
Description
Exemple
Aide à la recherche et à la rédaction
L'IA peut aider à surmonter l'angoisse de la page blanche en suggérant des plans, des idées ou en agissant comme un "interlocuteur" pour explorer un sujet.
Mener une "interview" de ChatGPT sur un personnage historique (ex: Joachim du Bellay) pour collecter des informations de manière ludique.
Explication et remédiation
L'IA peut reformuler un cours ou une explication complexe de différentes manières (liste à puces, carte mentale, texte simplifié) pour s'adapter au mode d'apprentissage de l'enfant, notamment ceux avec des besoins spécifiques (ex: dyslexie).
Prompt pertinent : "Je suis un élève en seconde. Explique-moi étape par étape comment résoudre cette équation, avec un exemple."
Aide à la révision et à la mémorisation
L'IA peut générer rapidement des outils de révision personnalisés comme des quiz, des QCM ou des flash cards à partir d'une leçon.
Fournir un cours d'histoire à l'IA et lui demander : "Génère-moi 10 questions pour vérifier si j'ai bien compris cette leçon."
--------------------------------------------------------------------------------
5. Cadre Légal et Réglementation
• Âge minimum : La plupart des IA génératives sont, dans leurs conditions d'utilisation, interdites aux moins de 13 ans (basé sur le droit américain sur la collecte de données). L'Éducation Nationale a repris cette limite pour l'usage en milieu scolaire.
• Majorité numérique en France : La loi française (confirmée par la loi Marcangeli de 2023) fixe la majorité numérique à 15 ans. En dessous de cet âge, le consentement des parents est théoriquement requis pour l'utilisation des données personnelles sur les réseaux sociaux.
• Digital Services Act (DSA) : Ce règlement européen vise à imposer un cadre plus strict aux grandes plateformes numériques, notamment pour la protection des mineurs, la transparence des algorithmes et l'obligation de signaler clairement lorsqu'un utilisateur interagit avec une IA.
• Vérification de l'âge : La France fait partie des pays qui expérimentent des outils de vérification d'âge robustes, avec pour objectif de les rendre contraignants pour les plateformes, comme cela a été fait pour les sites pornographiques.
6. Ressources et Outils Mentionnés
• Internet Sans Crainte : Programme national d'éducation au numérique, offrant plus de 200 ressources gratuites pour les jeunes, les parents et les éducateurs.
• 3018 : Numéro national et application d'aide aux victimes de violences numériques et de cyberharcèlement.
• Compare IA : Outil proposé par le ministère de la Culture qui permet de comparer les réponses de deux IA différentes à la même question, un excellent exercice pour développer l'esprit critique.
• WhichFaceIsReal.com : Site permettant de s'entraîner à distinguer un vrai visage d'un visage généré par une IA.
• Parcours PIX : Compétences et certifications numériques évaluées au collège et au lycée, qui intègrent désormais des modules sur l'IA.