10,000 Matching Annotations
  1. Jun 2025
    1. Note de synthèse de l'audition de Isac Mayembo (Alex Hitchens) par la commission d'enquête sur TikTok

      Date de l'audition : [Non spécifiée, mais contexte indique "aujourd'hui" et "cet après-midi"]

      Personne auditionnée : Isac Mayembo, créateur de contenu sous le pseudonyme Alex Hitchens.

      1. Contexte de l'audition et déclaration d'intérêts

      • Isac Mayembo a été convoqué par la commission d'enquête sur l'impact de TikTok sur la santé mentale des jeunes.
      • Il est invité à déclarer tout intérêt public ou privé susceptible d'influencer ses déclarations, notamment ses sources de rémunération liées aux plateformes.
      • Avant de commencer, il prête serment de "dire la vérité, toute la vérité et rien que la vérité" conformément à l'article 6 de l'ordonnance du 17 novembre 1958.
      • Déclaration d'intérêts :
      • Rémunération TikTok : Isac Mayembo déclare ne pas être directement rémunéré par la monétisation des vidéos sur TikTok.
      • Modèle économique : Ses revenus proviennent principalement de la vente de ses formations. Il a mis en place un programme d'affiliation où d'autres personnes promeuvent ses formations sur TikTok et touchent des commissions (en moyenne 50%, voire 60-70% pour les meilleurs affiliés).
      • Intérêts : Il reconnaît avoir des intérêts financiers avec TikTok, affirmant : "Oui je gagne de l'argent avec TikTok et oui j'ai des intérêts avec cette plateforme bien entendu."
      • Honnêteté face à la plateforme : Malgré ses intérêts, il affirme vouloir être "100% honnête" et estime que TikTok est une plateforme "néfaste" et qui "déprime". Il ajoute : "Je pense que cette plateforme de manière générale est néfaste déprime à bord lorsque TikTok est sorti c'était quelque chose d'intéressant."

      2. Évolution et impact perçu de TikTok

      • TikTok initialement : À son lancement, il trouvait TikTok "intéressant", permettant de "condenser un peu les informations, regarder une vidéo de 1 minute 2 minutes pour pouvoir ainsi apprendre tout un tas de choses".
      • Problèmes actuels : Le format court (1 à 2 minutes) rend difficile l'obtention d'informations complètes, ce qui a créé "énormément de problèmes notamment énormément de désinformations". Il peut lui-même être victime de désinformation par l'isolement de propos hors de leur contexte (ex: "on va prendre une vidéo de 10 minutes on va isoler 30 secondes ou une minute bien choisie pour manipuler l'information").
      • Recommandation : Il conclut son propos liminaire en affirmant que "TikTok est à ban bien entendu selon moi et je pense que cette plateforme est néfaste pour les jeunes si elle est mal entradé encadrer bien entendu ça à préciser quand même et c'est le cas je pense."

      3. Parcours sur TikTok et stratégies de contenu

      • Débuts : Il a commencé sur TikTok fin 2021/début 2022.
      • Contenu performant : Il a rapidement constaté que ce qui fonctionnait le mieux est le "contenu qui choque".
      • Importance des premières secondes : Sur TikTok, les "premières secondes sont primordiales", contrairement à YouTube où les miniatures attirent davantage. Le contenu doit être "tranchant", "cash", et "clair" dès le début.
      • Contenu initial à succès : Ses premières vidéos à succès étaient sur le thème de la "séduction", notamment la "drague de rue" et les "caméras cachées" où il abordait des gens dans la rue. Ce type de contenu "fonctionnait extrêmement bien et ça fonctionne d'ailleurs encore maintenant".
      • Monétisation des vidéos à succès : Bien que ses vidéos aient pu générer des millions de vues et de la monétisation, il affirme n'avoir "jamais touché à cette monétisation".

      Il n'avait même pas connecté sa carte bancaire car la vente de formations était beaucoup plus rentable.

      La monétisation TikTok était "bien moins avantageuse" en 2021/début 2022. Actuellement, il laisse même la monétisation à ses collaborateurs qui créent du contenu pour lui.

      4. La communauté et l'interaction

      • Taille de la communauté : Il estime avoir entre 3 et 5 millions de "personnes" qui le suivent via tous les comptes liés à lui sur TikTok.
      • Difficulté à définir la communauté : Il trouve "extrêmement dur" de cibler les tranches d'âge spécifiques de sa communauté. Il rencontre aussi bien des hommes de 40 ans que des jeunes de 18 ans ou des personnes de 50 ans.
      • Interaction : Il n'a pas beaucoup l'occasion d'interagir directement avec sa communauté, sauf lors de rares lives TikTok (une fois tous les deux-trois mois). Dans ces lives, les participants sont généralement des "jeunes", mais il précise que TikTok est aussi très présent chez les adultes (30-40 ans).
      • Présence de mineurs : Il reconnaît qu'il y a "forcément des mineurs" parmi les 4000 personnes qui peuvent regarder ses lives, même s'il demande l'âge. Il estime que c'est à la plateforme de modérer.

      5. Gestion des comptes et responsabilité

      • Comptes multiples : Il y a une "cinquantaine de comptes" le concernant. Sept comptes sont gérés personnellement par lui et son équipe.
      • Comptes "non-affiliés" : Les 43+ autres comptes sont gérés par des personnes qui "postent de leur plein gré pour toucher la monétisation". Ces personnes ne sont pas affiliées à lui et il ne touche pas directement d'argent de leur monétisation, bien qu'elles puissent vendre ses formations.
      • Responsabilité et propriété intellectuelle : La rapporteur souligne qu'il a une responsabilité sur ces contenus si son nom et son image sont utilisés. Il tolère ces comptes mais a du mal à les stopper malgré des tentatives.
      • Loi "influenceur" (Loi du 9 juin 2023) : Interrogé sur le respect de cette loi concernant la mention des partenariats commerciaux, Isac Mayembo n'est pas certain de son application à son modèle.

      Il pense qu'il n'est pas obligé de le notifier si la promotion n'est pas faite "dans la vidéo même" mais par un lien en description.

      Il reconnaît qu'il le ferait si la promotion était directe dans la vidéo. La rapporteur indique que la question sera examinée.

      6. Contenus controversés, modération et désinformation

      • Critiques sur les contenus : La rapporteur soulève les critiques concernant ses contenus, notamment leur impact sur la santé mentale des jeunes et leur vision des femmes, mentionnant que son nom est connu par des enfants dès 9-10 ans.
      • Perception de ses contenus : Isac Mayembo rejette l'idée que ses contenus soient "contestables" ou "problématiques", les considérant comme "une question de point de vue". Il affirme : "Je ne trouve pas que mes propos soient problématiques même si bon voilà problématique ça ça veut rien dire Et je pense qu'un jeune homme de 13 14 ans 15 ans devrait suivre mes conseils Je pense que je donne de bons conseils pour la jeunesse."
      • Bannissement de TikTok : Il a été banni de TikTok. Il explique que cela est dû à un grand nombre de "signalements" (100, 200, 300, 400) de la part d'utilisateurs qui ne sont pas d'accord avec ses vidéos, et non à une décision initiale de TikTok autorisant la publication. Il précise qu'une même vidéo peut ne pas être bannie sur un autre compte.
      • Techniques d'évitement de la modération : Il admet "adoucir" ses propos pour TikTok. Par exemple, utiliser le mot "poutrer" au lieu de termes plus vulgaires pour éviter la censure.
      • Propos controversés cités par la commission : La commission cite des propos qu'il aurait tenus :
      • "Vous prenez son téléphone si elle refuse c'est une pute fin de relation."
      • "la majorité des femmes énormément de P u T S peu de filles bien." (il utilise "P U T S" pour échapper à la modération).
      • "une femme après 22h qu'est-ce qu'elle fout dehors ?"
      • Défense contre l'accusation de désinformation : Isac Mayembo affirme que les propos cités par la commission ont été prononcés lors de lives YouTube et non TikTok.

      Il accuse la commission de "désinformation" en isolant ses propos : "Vous êtes en train d'isoler mon propos Donc vous avez pris 10 secondes d'un propos de 8 10 minutes où j'expliquais justement parce queon va rentrer en détail parce qu'apparemment on est en train d'en parler donc pourquoi pas J'expliquais que le gouvernement était responsable de la sécurité J'ai n'était pas normal qu'une femme en 2025 ne puisse pas sortir dehors euh le soir très tard sur Paris Et justement après je parlais du fait que dans ce monde dans ce monde qui est dur que fait une femme dehors après 22h et je poursuivais ensuite il est préférable de sortir avec une amie ou avec deux amis ou avec un homme Vous vous avez pris 10 secondes de vos propos vous l'avez isolé et vous venez de me le balancer à la gueule."

      7. Incident et suspension de l'audition

      • Un échange tendu a lieu entre Isac Mayembo et le président de la commission, ce dernier lui reprochant de "balancer la gueule" et de ne pas le laisser finir.
      • Isac Mayembo refuse de se soumettre aux règles de l'audition ("Vous changer de sujet Je vous demande de me laisser finir C'est moi qui mène l'audition Je suis président de la commission d'enquête Je vous demande de me laisser finir Non je vous lis Je suis président Excusez-moi excusez-moi On va couper le son de monsieur Ichen s'il vous plaît si vous continuez Voilà Donc je finis ma je finis mon propos s'il vous plaît Je vous disais au revoir monsieur Bonne journée").
      • Le son de Isac Mayembo est coupé.
      • L'audition est suspendue pour le recontacter et l'informer qu'il ne peut quitter une audition sans autorisation.
    1. Reviewer #2 (Public review):

      Summary:

      Malboubi et al. present a novel experimental framework to investigate the rheological properties of the cell cytoplasm. Their findings support a model where the cytoplasm behaves as a poroelastic material governed by Darcy's law - a property overlooked in previous literature. They demonstrate that this poroelastic behavior delays the equilibration of hydrostatic pressure gradients within the cytoplasm over timescales of 1 to 10 seconds following a perturbation, likely due to fluid-solid friction within the cytoplasmic matrix. Furthermore, under sustained perturbations such as depressurization, they reveal that pressure gradients can persist for minutes, which they propose might potentially influence physiological processes like mechanotransduction or cell migration typically happening on these timescales.

      Strengths:

      This article holds significant value within the ongoing efforts of the cell biology and biophysics communities to quantitatively characterize the mechanical properties of cells. The experiments are innovative and thoughtfully contextualized with quantitative estimates and a finite element model that supports the authors' hypotheses.

      Comments & Questions:

      While the hypothesis of a poroelastic cytoplasm is insightful and supported by the results, certain parts of the paper (detailed below) rely on qualitative arguments. Given the experimental approaches and accompanying modeling, the study has the potential for more in-depth discussions and stronger quantitative evidence. Placing greater emphasis on quantifications and direct comparisons between the model and experimental data would enhance the work. Additionally, exploring the limitations of the proposed model would add valuable depth to the paper.

      The authors state, "Next, we sought to quantitatively understand how the global cellular response to local indentation might arise from cellular poroelasticity." However, the evidence presented in the following paragraph appears more qualitative than strictly quantitative. For instance, the length scale estimate of ~7 μm is only qualitatively consistent with the observed ~10 μm, and the timescale 𝜏𝑧 ≈ 500 ms is similarly described as "qualitatively consistent" with experimental observations. Strengthening this point would benefit from more direct evidence linking the short timescale to cell surface tension. Have you tried perturbing surface tension and examining its impact on this short-timescale relaxation by modulating acto-myosin contractility with Y-27632, depolymerizing actin with Latrunculin, or applying hypo/hyperosmotic shocks?

      The authors demonstrate that the second relaxation timescale increases (Figure 1, Panel D) following a hyperosmotic shock, consistent with cytoplasmic matrix shrinkage, increased friction, and consequently a longer relaxation timescale. While this result aligns with expectations, is a seven-fold increase in the relaxation timescale realistic based on quantitative estimates given the extent of volume loss?

      If the authors' hypothesis is correct, an essential physiological parameter for the cytoplasm could be the permeability k and how it is modulated by perturbations, such as volume loss or gain. Have you explored whether the data supports the expected square dependency of permeability on hydraulic pore size, as predicted by simple homogeneity assumptions? Additionally, do you think that the observed decrease in k in mitotic cells compared to interphase cells is significant? I would have expected the opposite naively as mitotic cells tend to swell by 10-20 percent due to the mitotic overshoot at mitotic entry (see Son Journal of Cell Biology 2015 or Zlotek Journal of Cell Biology 2015).

      Based on your results, can you estimate the pore size of the poroelastic cytoplasmic matrix? Is this estimate realistic? I wonder whether this pore size might define a threshold above which the diffusion of freely diffusing species is significantly reduced. Is your estimate consistent with nanobead diffusion experiments reported in the literature?

      Do you have any insights into the polymer structures that define this pore size? For example, have you investigated whether depolymerizing actin or other cytoskeletal components significantly alters the relaxation timescale?

      There are no quantifications in Figure 6, nor is there a direct comparison with the model. Based on your model, would you expect the velocity of bleb growth to vary depending on the distance of the bleb from the pipette due to the local depressurization? Specifically, do blebs closer to the pipette grow more slowly?

      I find it interesting that during depressurization of the interphase cells, there is no observed volume change, whereas in pressurization of metaphase cells, there is a volume increase. I assume this might be a matter of timescale, as the microinjection experiments occur on short timescales, not allowing sufficient time for water to escape the cell. Do you observe the radius of the metaphase cells decreasing later on? This relaxation could potentially be used to characterize the permeability of the cell surface.

      I am curious about the saturation of the time lag at 30 microns from the pipette in Figure 4, Panel E for the model's prediction. A saturation which is not clearly observed in the experimental data. Could you comment on the origin of this saturation and the observed discrepancy with the experiments (Figure E panel 2)? Naively, I would have expected the time lag to scale quadratically with the distance from the pipette, as predicted by a poroelastic model and the diffusion of displacement. It seems weird to me that the beads start to move together at some distance from the pipette or else I would expect that they just stop moving. What model parameters influence this saturation? Does membrane permeability contribute to this saturation?

    1. Document de Synthèse : Audition d'Adrien Laurent par la Commission d'Enquête sur TikTok

      Date de l'audition : Non spécifiée, mais fait suite à plus d'une centaine d'auditions. Intervenants principaux :

      • Président de la Commission : M. de la Porte
      • Rapporteure : Mme. Marie B. (députée)
      • Auditionné : Adrien Laurent (AD Laurent), créateur de contenu.
      • Autres députés : M. Vermel, M. Vogeta

      1. Contexte et Objectifs de l'Audition

      • La commission d'enquête parlementaire a été mise en place pour comprendre le fonctionnement et les usages des réseaux sociaux, en particulier TikTok, et leurs mécanismes qui peuvent aboutir à des interpellations sur divers sujets.

      L'objectif est de faire la lumière sur la production de contenus et la régulation. L'audition d'Adrien Laurent fait suite à une consultation citoyenne ayant recueilli plus de 30 000 réponses et à des témoignages, son nom étant "revenu très souvent" parmi les influenceurs ou créateurs de contenu jugés "problématiques" par les jeunes.

      Le Président de la commission a rappelé qu'il ne s'agit pas d'un tribunal mais d'un travail de compréhension, avec des pouvoirs étendus, sans se substituer à la justice. L'audition est médiatisée, mais l'objectif premier reste la prise en compte des victimes.

      Adrien Laurent a été invité à déclarer tout intérêt public ou privé pouvant influencer ses déclarations et à détailler la nature de ses revenus liés aux plateformes. Il a prêté serment de "dire la vérité, toute la vérité, rien que la vérité".

      2. Présentation et Défense d'Adrien Laurent

      • Adrien Laurent, ancien sportif de haut niveau en basket, s'est fait connaître à 22 ans dans la téléréalité avant de devenir "créateur de contenu" plutôt qu'influenceur, terme qu'il juge réducteur.

      Il se présente comme son "propre producteur". Parallèlement, il est depuis deux ans créateur de contenu pour adultes, vidéos commercialisées exclusivement sur des plateformes réservées aux majeurs et "ne sont pas présentes sur TikTok". Il travaille avec des "actrices professionnelles majeures qui ont elles-mêmes leur compte sur ces plateformes".

      • Il réfute "avec force" les accusations du Président de la Porte le décrivant comme "un influenceur extrêmement violent qui véhicule un imaginaire sexiste" et dont le contenu serait "problématique" en raison de vidéos pour adultes sur son compte X (anciennement Twitter).

      Ses arguments principaux :

      • Contenu TikTok : Reprenait les codes de la téléréalité, montrant son quotidien, voyages, proches, et activité professionnelle, tout en respectant les règles de la plateforme (pas de nudité, accessibles aux plus de 13 ans). Il estime son bannissement de TikTok "infondé et motivé par des raisons politiques".
      • Contenu sexuel et législation : Fait une distinction claire entre contenu évocateur de sexualité adulte (classé -12 ans par l'ARCOM) et contenu érotique (classé -16 ans).

      Il affirme n'avoir "aucun contenu érotique sur TikTok". * Twitter/X : Reconnaît que Twitter autorise les contenus pour adultes mais en restreint l'accès aux majeurs via des réglages. * Accusations de sexisme/violence : Affirme que son contenu n'est "ni sexiste ni misogyne ni masculiniste" et qu'il n'a "jamais été violent". Il évoque sa vie d'acteur de contenu pour adultes "de manière assumée mais transparente et respectueuse", sans "dénigrer leurs envies ni leurs pratiques ni les rabaisser". * Public mineur et responsabilité : "Je n'ai jamais encouragé un public mineur à consommer du contenu inadapté." Il insiste sur le fait que "la sexualité ne s'apprend pas à travers le contenu pour adultes". Avec près de 2 millions d'abonnés sur TikTok, il a diffusé des messages de prévention sur le dépistage et le port du préservatif. * Accès des CM2 à TikTok : "Les CM2 ne peuvent pas avoir accès à TikTok. La plateforme est interdite au moins de 13 ans." Si des enfants de cet âge y accèdent, il s'agit d'un "problème de contrôle parental et de responsabilité de TikTok, pas de la mienne." Il refuse "d'endosser une responsabilité qui ne [lui] appartient pas".

      3. Relations avec TikTok et Revenus

      • Liens avec TikTok : Il n'a "pas de lien particulier avec la plateforme", n'est pas "son ambassadeur", et n'a "jamais été rémunéré" ni eu de partenariat direct avec TikTok.
      • Revenus TikTok : En 3 ans, il estime avoir gagné entre 15 000 et 20 000 €, soit une moyenne haute de 555 € par mois, "loin d'un business". Ses revenus provenaient majoritairement de la monétisation de contenu (0,50 € à 1 € pour 1000 vues de plus d'une minute) et des "cadeaux" (emojis monétisés) lors des lives.
      • Live Match : Il était "réticent à cette pratique et [en] n'a fait que très peu" (environ une dizaine en 3 ans), bien que cela puisse "rapporter énormément d'argent".
      • Lives classiques : Ses lives, réalisés tous les soirs de 22h à minuit, lui permettaient d'échanger "directement et légèrement" avec sa communauté.
      • Règles d'accès aux lives TikTok : Selon lui, TikTok confirme l'âge des utilisateurs pour l'accès aux lives : "Si nous confirmons que tu as 18 ans ou plus, tu pourras passer en live.

      Si nous ne pouvons pas confirmer ton âge, tu ne pourras passer en live et enfin si nous confirmons que tu as moins de 18 ans tu ne pourras pas accéder au live."

      Il réfute les accusations de la ministre Aurore Berger concernant des "lives sexuels avec des jeunes femmes masquées" douteuses quant à leur majorité et consentement, affirmant qu'aucun contenu sexuel n'était diffusé et que les participants étaient "majeurs et consentants".

      4. Modération et Algorithme

      • Algorithme : Juge l'algorithme "flou", mais comprend qu'il faut être "percutant et accrocheur dans les premières secondes de la vidéo".
      • Rôle de la commission : Trouve la commission "essentielle" et la réflexion "extrêmement utile". Il ne comprend pas la décision "hâtive" du bannissement de son compte par l'exécutif sans attendre les conclusions parlementaires.
      • Propositions : Si les conclusions montrent des effets négatifs sur la santé mentale des mineurs, il serait "le premier à demander qu'il n'ait pas accès à ce contenu", par exemple en "restreignant l'accès de certains réseaux ou certains contenus aux mineurs de 15 ans". Il faudrait un "contrôle efficace mais sans faire peser toute la responsabilité sur les créateurs qui ne sont ni éducateurs ni parents mais qui doivent seulement respecter les règles fixées par la plateforme."

      5. Échanges avec les Députés

      • Notoriété auprès des jeunes : La rapporteure confirme que son nom est "bien connu" des jeunes, y compris des collégiens, lycéens, et parfois primaires. "Un jeune sur deux de 11 ans est sur la plateforme TikTok aujourd'hui".

      La commission cherche à comprendre "pourquoi vous êtes allé sur TikTok", "comment vous gérez vos contenus" face à cette communauté jeune, et la modération.

      • Bannissements d'autres plateformes : Adrien Laurent confirme avoir été banni de Snapchat et Instagram en raison de signalements massifs, sans toujours avoir d'explication claire.

      • Choix de TikTok : S'est mis sur TikTok "très tard" sur conseil de son frère, y voyant une opportunité de visibilité grâce à l'application "la plus téléchargée en France et même dans le monde". Il appréciait les vidéos "très rapides avec beaucoup d'engagement".

      • Diversité de sa communauté : Sur ses 2 millions d'abonnés, "il n'y a pas 2 millions de personnes qui me suivent par rapport au contenu pour adultes". Beaucoup le suivent pour la téléréalité ou l'aspect "positif" et "bienveillant" de ses lives.

      • Responsabilité vis-à-vis des mineurs : Il ne peut pas "être responsable de tout" si des CM2 contournent les règles d'âge.

      Il met en parallèle la vente d'alcool en magasin, où la responsabilité n'incombe pas au vendeur si un mineur contourne l'interdiction d'achat.

      Il se considère comme un "simple usager de la plateforme qui respecte les règles". * Comparaison avec Alex Chen : Il se dit "totalement mais sur tous les points opposés à ce monsieur", affirmant ne pas être "ni sexiste ni misogyne ni masculiniste". Il défend la "liberté sexuelle à égalité" et met la femme "sur un piédestal tout le temps". * Promotion croisée et contenu pour adultes : Il confirme rediriger sa communauté TikTok vers d'autres plateformes (Snap, Insta, Twitch, YouTube) pour "alimenter [ses] autres plateformes", mais insiste sur le fait que son contenu est "totalement différent" et adapté à chaque plateforme. Pour ses contenus privés (Mim, OnlyFans), il affirme une "double authentification" qui empêche l'accès aux mineurs, qualifiant son porno d'"éthique". * Lives avec des mineurs : Confronté à une vidéo de live avec un mineur très jeune, Adrien Laurent explique qu'il prend "énormément de gens tous les soirs" et que si une personne de moins de 18 ans réussit à contourner les règles, ce n'est pas son problème. Il affirme cependant avoir une "responsabilité" en énonçant un "propos responsable" même dans ces cas-là (ex: "il est tard faut que tu ailles te coucher"). * "Pranks" et provocation : Décrit ses "pranks" comme de l'"autodérision" et du "fun", citant l'exemple de la "trompe d'éléphant" ou "viser le trou" au basket. Sa mère, professeur, le soutient. * Accusation de transphobie/humiliation : Réfute l'accusation d'avoir humilié une personne transgenre en live. Il pose des questions par "intérêt", et "n'humilie jamais personne". * Outils de restriction d'audience : Questionné par M. Vogeta sur l'utilisation d'outils de restriction d'audience pour exclure les mineurs sur ses contenus "classiques" (non pornographiques), Adrien Laurent répond que sur Twitter/X, il faut modifier les réglages pour voir du contenu sensible, ce qui protège le compte vierge. * Agents OnlyFans/MIM : Il n'a pas d'agent mais une "équipe qui bosse avec [lui] justement pour sécuriser un petit peu [son] travail". Il insiste sur le fait que c'est un "boulot" qui demande "beaucoup de travail". Il se considère comme un "artiste" et demande le respect de sa "liberté de création artistique". * Recrutement pour la pornographie via TikTok : Il indique que certaines abonnées peuvent exprimer leur intérêt pour des collaborations dans le milieu du contenu pour adultes, mais il les redirige alors vers un "email professionnel" et "coupe le lien" sur TikTok, ne souhaitant pas en parler sur la plateforme. * Impact sur les enfants : Questionné en tant que députée et mère sur l'impact de ses contenus sur un enfant de 13 ans, il répond qu'il ne "choisit pas sa communauté". En tant que futur père, il ferait une éducation basée sur la "communication" et laisserait à sa fille, une fois majeure, le choix de son chemin professionnel. * Contenus sexualisants en live : La rapporteure constate, après un test avec un compte mineur, que les lives sont accessibles aux mineurs, malgré les affirmations d'Adrien Laurent. Elle cite des propos "sexualisants" (ex: "Ça va ma puce il y a du monde au balcon") et "hypersexualisants" (taille des poitrines) tenus en live. * Comparaison avec des artistes musicaux : Adrien Laurent compare ses propos à des paroles de chansons d'artistes comme Michel Sardou, Bruno Mars ou Orelsan (citant des extraits explicites), se plaignant d'une "indignation à géométrie" variable, ce que la rapporteure qualifie d'"œuvres à caractère artistique" et non de lives soumis à des conditions d'utilisation différentes. * Restriction des lives : La rapporteure précise que TikTok permet aux hôtes de "restreindre" leurs lives, option qu'Adrien Laurent n'active pas car il considère ses lives comme "bon enfant". Il reconnaît qu'il n'est pas un "technicien TikTok" mais s'efforce de "se conformer au maximum aux règles communautaires". * Modération interne : Il a une équipe de "modérateurs modératrices" qui "bannissent tous les commentaires à caractère négatif les insultes". Il note l'opacité de l'algorithme et la nécessité de contourner certains mots pour éviter le "shadow ban" (ex: "viol" par "ool", "pute" par "pu pute").

      6. Conclusions de l'Audition

      • L'audition met en lumière la tension entre la liberté de création et d'expression d'un créateur de contenu et la nécessité de protéger un public jeune et potentiellement vulnérable.

      Adrien Laurent insiste sur sa professionnalisation dans le contenu pour adultes éthique et son respect des règles (en théorie) de TikTok, tout en reconnaissant les défis de la modération et de l'accès des mineurs aux plateformes.

      La commission insiste sur la réalité de la présence de jeunes mineurs sur TikTok et la nécessité de trouver des solutions législatives pour protéger les enfants.

      La question de l'accessibilité réelle des lives aux mineurs et la responsabilité des créateurs et de la plateforme reste un point de divergence majeur.

    1. eLife Assessment

      This manuscript reports an important finding for understanding the molecular mechanisms of mutagenesis, carcinogenesis, and senescence. It follows a previous report showing that the Werner syndrome protein WRN and its interacting protein WRNIP1 are indispensable for translesion DNA synthesis (TLS) by Y-family DNA polymerases (Pols). The manuscript provides convincing evidence that WRN and WRNIP1 ATPases, in addition to the previously reported role of the WRN 3'>5' exonuclease activity, are essential for promoting the fidelity of replication through DNA lesions by Y-family Pols in human cells.

    2. Reviewer #1 (Public review):

      Summary:

      Y-family polymerases, such as polymerases eta, iota, and kappa, have low fidelity relative to other polymerases involved in DNA replication and repair. This is believed to be due to their active sites being less constrained than those of other polymerases. Paradoxically, work by this lab and others shows that in vivo, these Y-family polymerases are more error-free (less error-prone) during DNA damage bypass than would be expected given their low fidelity. For this reason, the authors have been focusing on other cellular factors that may increase the fidelity of Y-family polymerases. The current paper focuses on two such factors: WRN, which possesses exonuclease and helicase activities, and WRNIP1, which possesses a DNA-dependent ATPase.

      Previously, this group showed that defects in the exonuclease function of WRN lead to a loss in the fidelity of polymerases eta and iota during DNA damage bypass, presumably by removing nucleotide misinsertions. The current paper extends this work by considering the ATPase activities of WRN and WRNIP1. The authors looked at the impact of various amino acid substitutions in these proteins on the fidelity of DNA damage bypass by Y-family polymerases. They did this by both measuring the mutation frequencies of these cell lines as well as the mutation spectra observed in them. They showed that the ATPase activities of both WRN and WRNIP1, as well as the exonuclease activities of WRN, are necessary high fidelity of Y-family polymerases in cells. They specifically examined the bypass of cyclobutene pyrimidine dimers by polymerase eta, the bypass of 6-4 photoproducts by polymerases eta and iota, and the bypass of ethenoadenine by polymerase iota. Moreover, they showed that WRNIP1 ATPase defects impair the WRN exonuclease from removing misinsertions by polymerase iota at thymine glycol lesions. These defects generally do not affect the efficiency of the bypass, only its fidelity.

      Strengths:

      The manuscript by Yoon et al is the latest in a series of important and impactful papers by this research group examining the cellular factors that enhance the fidelity of translesion synthesis by Y-family polymerases in human cell lines. Overall, the study is well designed, the data are clearly presented, and the conclusions are well supported and convincing. The authors also discuss a reasonable possibility that complex formation between the WRN and WRNIP1 proteins and Y-family polymerases could tighten the active sites of these polymerases to improve fidelity. Further studies are required to demonstrate this model, but it is a very exciting model that is well supported by the current data.

      Weaknesses:

      No weaknesses were identified by this reviewer.

    3. Reviewer #2 (Public review):

      The authors of the present study are responsible for a previous study, which also showed that in response to DNA damage, Werner syndrome protein WRN, WRN interacting protein WRNIP1, and Rev1 assemble together with Y-family Pols (Polη, Polι, or Polκ), and that they are indispensable for Trans-Lesion-Synthesis (TLS) (Genes Dev 2024). They also identified a role of WRN's 3'→5' exonuclease activity in the high in vivo fidelity of TLS by Y-family, through UV-induced CPDs by Polη, through N6 ethenodeoxyadenosine (εdA) by Polι, through thymine glycol by Polκ, and through UV-induced (6-4) photoproducts by Polη and Polι. Thus, by removing nucleotides misinserted opposite DNA lesions by the Y-family Pols, WRN's 3'→5' exonuclease activity improves the fidelity of TLS by these Pols. The present work, which follows up on this previous work, reports the crucial role also of the ATPase activities of WRN and WRNIP1 in raising the fidelity of TLS by Y family Pols, in addition to the exonuclease activity, with an entirely different mechanism, which normally consists in unwinding of DNA containing secondary structures.

      By using adequate cell line models and methodologies, notably DNA fiber, TLS, and mutation analyses assays, as well as specific ATPase point mutations, they found that progression of the replication forks through UV lesions was not affected in cells lacking the WRN exonuclease activity as well as the WRN and WRNIP1 ATPase activities, but occurs with a vast increase in error-prone TLS, notably through CPDs by Polη, with differential impacts on the nature of mutations between WRN ATPase and WRNIP1 ATPase. The relative contributions of these activities (exonuclease and ATPase) to the fidelity of TLS Pols, however, vary, depending upon the DNA lesion and the TLS Pol involved. Additionally, defects in these ATPase activities cause mutational hot spot formation in different sequence contexts. The authors provide evidence that the combined action of WRN and WRNIP1 ATPases, along with WRN 3' to 5' exonuclease, confers an enormous rise in the fidelity of TLS by Y-family Pols. They identify the means by which these otherwise highly error-prone TLS Pols have been adapted to function in an error-free manner. They suggest that WRNIP1 ATPases prevent misincorporations while WRN exonuclease removes misinserted nucleotides. This combination confers a vast increase in the fidelity of Y-family Pols, essential for genome stability.

      Overall, this is a comprehensive and thoughtful manuscript, and all the findings reported are convincing and well supported. The data cannot be considered as entirely novel, as they follow-up on the recent 2024 publication by the same authors who unveiled that the exonuclease activity of WRN and WRNIP1 confers accuracy of TLS. The experimental methods are multiple and rigorous.

    4. Reviewer #3 (Public review):

      Summary:

      Replication through DNA lesions such as UV-induced pyrimidine dimers is mainly performed by Y-family pols. These translesion synthesis (TLS) pols are intrinsically error-prone. However, in living cells, TLS must be conducted in an error-free manner. This manuscript demonstrated that WRN and WRNIP1 ATPases play an important role in addition to WRN 3'>5' exonuclease in human cells.

      Strengths:

      The authors made use of WT human fibroblasts and WRN-deficient cell line for TLS assays in human cells and siRNA knock-down experiments to analyze TLS efficiency. For the cII mutation assay, the big blue mouse embryonic fibroblasts were used. These materials, as well as other Materials and Methods, had already been well established by this group or other groups. The authors used Pol eta, iota, kappa, and theta as TLS pols, and used UV-induced CPD, (6-4)PP, epsilon dA, and thymine glycol as DNA lesions. Thus, the authors examined the generality of their results in terms of TLS pols and DNA lesions.

      Weaknesses:

      Although the main part of this manuscript is the impact of the deficiencies of WRN and WRNIP1 ATPases on TLS by Y-family DNA polymerases, especially on TLS efficiency and mutation spectrum, many readers would be interested in how these ATPases could change molecular structure of Pol eta, because the structure of it have been studied for some time.

    1. Compte-rendu de l'Audition de Manon et Julien Tanti par la Commission d'Enquête sur TikTok

      • Date de l'audition : Non spécifiée, mais mention de "cet après-midi". Contexte : La commission d'enquête a pour objectif de "préparer les lois à venir, de réfléchir sur la bonne application des différentes normes, des différents cadres juridiques (...) nationaux ou européens et donc en fait l'enjeu c'est de nous éclairer sur la meilleure protection des enfants à l'air numérique et en particulier sur les effets psychologiques de TikTok sur les mineurs." (Président de la commission). Les personnes auditionnées doivent prêter serment de dire la vérité.

      I. Préambule et Positionnement des Influenceurs

      Manon et Julien Tanti ont été convoqués en tant qu'influenceurs pour s'exprimer sur leur modèle économique, leurs revenus via TikTok et d'autres plateformes, ainsi que sur l'impact de TikTok sur les mineurs.

      • Réaction de Manon Tanti face aux accusations : Manon Tanti exprime un profond regret concernant la préparation publique de l'audition et les déclarations du président l'accusant d'être une "influenceuse à contenu problématique" et d'humilier ou dégrader l'image de ses propres enfants. Elle déclare : "Je ne suis pas venue ici pour fuir mes responsabilités. J'ai conscience que lorsque l'on s'expose publiquement, surtout sur des plateformes comme TikTok, on a un devoir d'exemplarité, d'autant plus quand on est suivi par des jeunes. Mais je veux poser les choses clairement dès le départ : je regrette profondément deux choses dans la manière dont cette audition a été préparée publiquement. Je regrette vos déclarations Monsieur le Président, je ne suis pas une influenceuse à contenu problématique, du moins je ne pense pas, et du coup quelle décision de justice vous fondez-vous pour affirmer cela ? Ce genre de jugement lancé dans les médias avant toute audition ne révèle pas d'un travail d'enquête objectif, mais d'une condamnation sans débat. La seconde, plus grave à mes yeux, ce sont ces propos affirmant que j'humilierai et que je dégraderai l'image de mes propres enfants. Ces accusations sont violentes, injustes et totalement déplacées. Je suis mère avant tout et jamais je ne tolérerais qu'on prête des intentions aussi graves sans preuve ni dialogue." Elle précise avoir été "profondément attristée" par la diffusion de ces accusations sur des chaînes comme TF1 et BFM, alors qu'elle était initialement "flattée d'avoir été convoquée" pour aider à comprendre le fonctionnement de TikTok.

      • Positionnement professionnel : Julien Tanti se définit principalement comme une "personne qui fait de la téléréalité" depuis 14 ans, et non comme un influenceur. Il affirme : "Moi travail principal les tournages, je fais de la télé ça fait 14 ans que je fais de la télé et le reste c'est des hobis parce que ben je suis à Dubaï (...)." Il ajoute : "je n'influence personne je suis sur les réseaux parce que j'aime ça parce que c'est pour moi c'est un divertissement c'est quelque chose que je kiffe et je n'influence personne à faire quoi que ce soit je ne suis pas un influenceur." Manon Tanti soutient cette idée, expliquant qu'ils sont des "personnes qui font de la téléréalité" et que les réseaux sociaux sont une continuité de cette exposition de leur vie.

      II. Modèle Économique et Sources de Revenus

      Les deux influenceurs détaillent leurs différentes sources de revenus, insistant sur le fait que TikTok n'est pas leur source principale.

      Revenus de Julien Tanti :

      • Télévision : Principal revenu. Il effectue "3 à 4 tournages par an", ce qui équivaut à "pratiquement 7 mois dans l'année 6 à 7 mois" de travail.
      • TikTok Live (dons) : Une source de revenus secondaire, perçue comme un "kiff" et un "plaisir" plutôt qu'une activité principale. Il explique que TikTok prend 50% des gains. Le président de la commission estime ses revenus liés aux lives à environ "40000 dollars par mois", ce que Julien qualifie d' "énorme". Il explique reverser cet argent en organisant des événements pour sa "team" de joueurs, comme un yacht loué à Dubaï pour plus de 30 personnes. Il passe "à peu près 2-3 heures par jour" sur TikTok et se classe "souvent dans le top 20, dans le top 30, top 20, top 30, top 10". Manon souligne que son mari est un "showman" et que cette activité est sa "passion", allant au-delà de la simple rémunération.

      Revenus de Manon Tanti :

      • TikTok (vidéos de plus d'une minute) : Très peu de revenus. Elle explique être éligible à la rémunération pour les vidéos de plus d'une minute depuis peu et en poste très rarement (une ou deux par mois). Elle estime que TikTok représente "très très honnêtement 1% de la question" de ses revenus. Elle mentionne un RPM (ratio par minute) très bas (0,10 centimes) car elle ne poste pas assez fréquemment (il faudrait "minimum deux à trois vidéos par jour" pour optimiser l'algorithme). Sa vidéo la plus lucrative lui aurait rapporté "800 € il y a des années en arrière", la moyenne étant plutôt de "30-40 €".
      • Autres plateformes et partenariats : Principale source de revenus. Manon perçoit des revenus via d'autres plateformes.
      • Placements de produits : Ils sont toujours sous contrat avec des agences comme Shona Events et Wi Events. Julien Tanti affirme faire "toujours une pub ou deux, voir même trois ou quatre par semaine" et Manon "deux ou trois". Ils expliquent que "les personnes qui veulent contacter ils contactent directement les agences" et qu'ils n'ont plus besoin de faire la promotion de ces collaborations.
      • III. Exposition des Enfants et Cadre Légal
      • Un point central de l'audition concerne l'exposition des enfants sur les réseaux sociaux et le respect de la législation.

      Motivation de l'exposition des enfants : Manon Tanti explique que l'exposition de ses enfants est une "continuité de ce qu'on fait en télé" car ils sont des "personnages publics".

      Elle insiste sur le caractère "naturel" de cette exposition dans leur quotidien : "nous sommes des personnages publics, nos enfants aussi".

      Elle affirme ne pas les "surexposer" et qu'ils sont "consentants" et même demandeurs d'apparaître dans les vidéos.

      Elle cite l'exemple de son fils qui "aimerait avoir une chaîne par exemple", comme des "enfants youtubeurs" célèbres.

      • Accusations d'humiliation et dégradation : Manon conteste fermement les accusations d'humiliation, citant l'exemple d'une vidéo où les enfants jouent avec des ballons d'eau lors d'un barbecue : "ce que je veux vous dire c'est que le terme humiliant dégradant en tout cas moi en tant que maman je pense savoir ce qui est bon pour mes enfants ce qui est humiliant dégradant ou pas mes enfants jamais je ferai des vidéos ou des jeux s'ils en ont pas envie."

      Elle défend une vidéo où les enfants ont la "tête dans une espèce de bassine d'eau", expliquant que c'était une "trend" (tendance) et que les enfants étaient "morts de rire".

      Elle reconnaît cependant que "peut-être que d'autres parents le le reproduirait de d'une mauvaise manière" mais insiste : "sur cette vidéo je ne trouve absolument pas la vidéo humiliante puisque mes enfants sont ils sont morts de rire parce que c'est vraiment dans une bonne c'est bon enfant encore une fois je je je suis pas du tout en train de noyer mes enfants".

      Non-rémunération directe des enfants : Manon affirme ne pas utiliser ses enfants pour la rémunération : "je me sers pas de mes enfants pour la rémunération parce que dans tous les cas moi avec ou mes ou mes sans mes enfants je gagne ma vie".

      • Contrats de mannequins et placement de produits : La commission interroge Manon sur un placement de produit Instagram avec sa fille pour la marque "Ora Bora" (des brumes).

      La députée mentionne l'absence de "contrat de manquina" et de versement des revenus sur un "compte sous séquestre" comme l'exige la loi sur l'influence commerciale.

      Manon Tanti reconnaît : "premièrement déjà ça je ne savais pas deuxièmement encore une fois que cette marque là et cette vidéo là en l'occurrence que vous pouvez me citer et troisièmement au rabora en fait j'ai dû le faire une cinquantaine de je je n'ai pas besoin de ma fille pour vendre en fait".

      Un autre exemple est soulevé : une collaboration commerciale récente avec la marque "Shane" (vêtements) où les enfants apparaissent, sans mention de "collaboration commerciale" et sans respect du cadre légal.

      Manon se défend en disant : "j'ai appris avec vous il y a donc 10 minutes qu'à partir du moment où il y avait écrit collaboration mes enfants ne pouvaient pas apparaître je l'ai appris ben c'est vous qui me l'avez appris".

      Elle ajoute avoir déjà été contrôlée par la DGCCRF et avoir payé une amende, mais que "lorsque que Julien a eu son amende par exemple ça n'a pas été mentionné dans les choses qu'on avait mal faites donc si on l'avait su bah forcément on aurait arrêté".

      IV. Impact de TikTok sur les Mineurs et Propositions

      Les influenceurs sont interrogés sur leur perception de l'âge de leur communauté et leur avis sur la protection des mineurs.

      • Âge de la communauté et restriction d'accès : Manon Tanti estime que sa communauté est très diverse, allant des "préadolescents" aux "grand-mères". Elle est d'accord sur la nécessité de restrictions d'âge pour les réseaux sociaux : "TikTok est-ce que je sens il me semble que c'est interdit au moins de 15 ans c'est ça ça c'est quel est l'âge de TikTok ? 13 ans".

      Elle est catégorique : "mes enfants n'auront pas de compte TikTok et n'auront pas accès à TikTok".

      De même, pour Instagram, leurs enfants ont un compte géré par elle en tant que mère, mais "n'auront pas accès à ces réseaux sociaux là on en parlera quand ils seront plus grands mais je pense au moins avant leur 14 voir 16 ans".

      • Proposition de pièce d'identité : Manon Tanti propose une solution pour mieux encadrer l'accès des mineurs : "pour moi la seule solution qu'il aurait à tout ça ce serait de demander une pièce, je sais que ce serait ce serait pas possible mais pour moi si les réseaux sociaux dès le début comme certains réseaux de de contenu comme MIME ou tout ça demandait une pièce d'identité à chaque inscription ça éviterait plusieurs choses ça éviterait déjà bah que il y ait trop de mineurs qui qui qui tombent sur des choses qu'ils n'ont pas à voir et en plus de ça ça éviterait nous en tant qu'influenceur d'avoir du harcèlement des haters".

      Conclusion

      • L'audition met en lumière la complexité de réguler l'activité des influenceurs, notamment en ce qui concerne l'exposition des enfants et la distinction entre contenu personnel et commercial.

      Les Tanti se positionnent comme des personnalités de téléréalité avant d'être des influenceurs, gérant leurs réseaux sociaux comme un prolongement de leur vie médiatisée. Ils reconnaissent certaines lacunes dans leur connaissance de la loi (notamment sur les contrats de mannequins enfants) mais affirment leur volonté de se conformer aux réglementations une fois informés.

      L'échange souligne également le fossé entre la perception de l'influenceur sur son propre contenu ("bon enfant") et la réception par le public ou l'interprétation par la loi ("humiliant", "illégal").

    1. Compte rendu détaillé de l'audition de Nasser Sari (Nasdas) par la commission d'enquête sur TikTok

      • Date de l'audition : Non précisée (référence à "aujourd'hui")

      Personne auditionnée : Nasser Sari, alias Nasdas, influenceur avec 3,7 millions de followers sur TikTok et plus de 9 millions sur Snapchat.

      Contexte : La commission d'enquête de l'Assemblée nationale vise à comprendre les mécanismes de TikTok et des réseaux sociaux en général, ainsi qu'à élaborer une meilleure régulation pour protéger les mineurs des contenus choquants.

      L'audition fait suite à une consultation citoyenne et des signalements.

      Thèmes principaux et idées/faits importants :

      1. Rôle et rémunération sur TikTok vs. Snapchat :

      • Nasdas se définit avant tout comme un "Snapchatter", sa principale source de revenus étant Snapchat.
      • Il déclare que TikTok représente une part "quasi rien", estimée à "0,1 %" de ses rémunérations globales. Il affirme avoir gagné moins de 5000 € sur TikTok en 5 ans.
      • Sur TikTok, seuls les vidéos de plus d'une minute et les lives (via dons) sont rémunérés. Nasdas n'a posté qu'une soixantaine de vidéos en 4 ans, dont seulement deux de plus d'une minute, et environ 10 lives.
      • "Moi principalement ma source de revenu elle vient de Snapchat c'est un autre réseau [...] majoritairement ça vient de Snapchat."
      • "Sur TikTok comme je vous ai dit j'en gagne très peu."
      • Sur Snapchat, la rémunération se fait "à la vue" et via des placements de produits. Il déclare que 80% de ses placements de produits sont gratuits, dédiés au soutien des commerces de proximité.

      2. Utilisation de TikTok comme "tremplin" et viralité :

      • Malgré une faible monétisation directe, Nasdas utilise TikTok comme un "tremplin pour booster [ses] vidéos", gagner en visibilité et en autorité.
      • Il reconnaît que "le réseau principal aujourd'hui pour avoir plus d'aud [audience] c'est c'est c'est TikTok."
      • Ses vidéos Snapchat sont souvent relayées sur TikTok via des "comptes redif" (rediffusion), qui republient son contenu sans sa permission, obtenant parfois plus d'ampleur que sur Snapchat. Il qualifie cela de "normal" mais le reconnaît comme un "pillage de contenu".
      • Ces comptes rediffusent des vidéos virales ou de petits créateurs, en faisant des captures d'écran et en les repostant, sans identité claire. Il existe des milliers de ces comptes.

      3. Audience et présence de mineurs :

      • Nasdas est suivi par 3,7 millions de personnes sur TikTok et 9 millions sur Snapchat.
      • Il admet voir "énormément de jeunes" dans sa communauté, reconnaissable à leur écriture et leurs commentaires ("on voit bien que c'est un gamin de 14 ans ou 15 ans").
      • Cependant, il affirme que sur Snapchat, son réseau principal, plus de 87% de son audience est majeure, sa plus grande communauté étant les 25-36 ans. Il ne dispose pas de chiffres précis pour TikTok.
      • "Je vais vous dire que je n'ai pas réussi à regarder le nombre de mineurs qui me regardent."

      4. Les jeunes fugueurs et la responsabilité :

      • Nasdas est conscient que sa notoriété a entraîné des "jeunes mineurs qui fugent de leur ville pour venir à Perpignan", y compris des enfants de 10-11 ans attendus à 2h du matin.
      • Son adresse a fuité, entraînant 200 à 300 personnes par jour devant sa maison.
      • Il reconnaît avoir "une part de responsabilité" mais souligne aussi celle des parents. "Vous pensez pas que les parents ont une part de responsabilité ?" Il cite des cas de parents lui demandant de garder leurs enfants fugueurs.
      • Il affirme avoir toujours inclus une "morale" dans ses vidéos, disant "arrêtez ne venez pas arrêtez de croire au rêve Nasdas."
      • Il aide les jeunes en difficulté (hébergement, achat de vêtements, aide financière pour des opérations médicales), mais a "ralenti énormément" ces actions filmées, surtout l'année dernière, et s'est "isolé dans une villa" face à l'ampleur du phénomène.
      • Il mentionne que beaucoup de jeunes qui viennent sont des jeunes de foyers (aide sociale à l'enfance), se sentant "plus en sécurité des fois que dans certains foyers".
      • Il nie "rajouter de la misère à la misère" et souligne qu'il n'a jamais demandé aux jeunes de venir. Il a même collaboré avec la police pour gérer la situation.
      • Le maire de Perpignan (RN) n'aurait mis aucune aide en place, et même au contraire, des policiers seraient intervenus lors de ses actions sociales non autorisées. Il se sent "vraiment seul".

      5. La santé mentale des créateurs de contenu et la pression :

      • Nasdas a annoncé suspendre ses réseaux sociaux, une décision prise 3 mois avant l'audition, non liée à cette dernière.
      • Il évoque la difficulté mentale du métier : "notre santé mentale elle est impactée."
      • La "course au vues", à l'"image", au "buzz" met une pression sur les créateurs, les poussant "à poster des choses sans même en être conscient".
      • Il se reconnaît responsable de ses erreurs mais estime n'avoir pas été préparé à une telle notoriété.
      • Il envisage une pause d'un à trois ans : "je ne sais pas si j'arrête totalement définitivement mais c'est une décision sage." Il perdra "énormément d'argent" en s'arrêtant.
      • Il estime qu'il faudrait "plus d'encadrement, pas sévère, pas des punitions" pour les créateurs de contenu.

      6. Évolution de la ligne éditoriale et accusation de contenus choquants :

      • Des parlementaires accusent Nasdas d'une évolution de sa ligne éditoriale vers une "mise en scène assez violente qu'elle soit physique, psychologique ou symbolique", montrant des personnes "vulnérables filmées dans des situations de mise en concurrence assez dégradante", avec des encouragements à des comportements "discriminatoires et misogynes".
      • Il est spécifiquement interrogé sur la mise en scène de relations amoureuses dans sa villa, impliquant parfois des mineurs, et sur la frontière entre réalité et fiction.
      • Le cas d'une jeune fille "Leina" accusée d'être tombée enceinte d'un homme de la villa alors qu'elle était mineure est cité. Nasdas affirme qu'elle a menti sur sa grossesse et son âge (16-17 ans). Il mentionne qu'elle est majeure et qu'elle a le droit à l'image.
      • Le cas de "Dibril" jetant un téléphone sur sa compagne est évoqué comme un acte de violence conjugale filmé. Nasdas affirme que la scène était "surjouée" et que le couple est toujours ensemble.
      • Il admet que "il y a des choses qui sont mises en scène oui et d'autres choses réelles".
      • Un incident sur Twitch où une jeune fille a montré sa poitrine a été "pas volontaire" et le live a été coupé immédiatement. Il affirme qu'elle est majeure et qu'il l'a conseillée de s'éloigner des commentaires haineux.
      • Il réfute l'accusation d'avoir incité au racisme suite à l'expression "ramenez un banania" concernant un jeune garçon. Il explique qu'il s'agissait d'une référence à une boisson chocolatée et que l'auteur s'est excusé.
      • Il nie contribuer à la "banalisation de la violence" ou de l'harcèlement. Il se dit lui-même victime de harcèlement via ses vidéos. Il affirme que ses amis et lui se protègent mutuellement.

      7. Recommandations et auto-critique :

      • Nasdas reconnaît ne pas avoir de "baguette magique" ou de "solution miracle" pour réguler TikTok. Il se demande si "ce n'est pas un peu trop tard".
      • Il suggère qu'un "âge minimum" pour utiliser TikTok pourrait être de 14 ou 15 ans.
      • Il pense qu'il faudrait "plus une question d'algorithme pour les jeunes, plus les ramener vers un contenu on va dire éducatif".
      • Il souligne la difficulté de vérifier l'âge des utilisateurs et la facilité de mentir sur l'âge à l'inscription.
      • Il déclare que les "dramas" (contenus violents, misogynes, etc.) font "largement plus de vues qu'une vidéo qui explique [...] comment fonctionne une commission d'enquête". "Donc ça rapporte plus d'argent de faire des dramas que de faire de la pédagogie ah ben mais mais mais totalement."
      • Il avoue avoir partagé du "Paris sportif" et du "trading" par le passé, avant la loi influenceur, sous l'influence d'agences peu scrupuleuses, et reconnaît avoir causé des pertes à des familles. Il salue la nouvelle loi qui responsabilise les agences.
      • Il regrette d'avoir indirectement poussé les jeunes à croire en lui plutôt qu'en leurs études ou leur éducation. "Je représente un symbole de renaissance pour eux de d'une meilleure vie et surtout d'un meilleur avenir et c'est là où j'ai C'est là ou c'est là où je le regrette."

      En conclusion, il conseille à ceux qui veulent se lancer sur les réseaux : "vous lancez pas sur les réseaux."

      Questions en suspens / Points d'attention :

      • L'écart entre le discours de Nasdas sur la faible rémunération de TikTok et la reconnaissance de la plateforme comme "tremplin" pour la visibilité.
      • La difficulté pour Nasdas de fournir des chiffres précis sur la part des mineurs dans son audience TikTok, malgré son impact reconnu sur cette tranche d'âge.
      • La ligne floue entre "réalité" et "mise en scène" dans ses contenus, et les implications légales potentielles.
      • Le rôle des agences d'influenceurs et leur responsabilité dans les contenus problématiques (bien que la loi influenceur soit censée y remédier).
      • L'absence d'aide des services publics locaux face à l'afflux de jeunes chez Nasdas à Perpignan.
      • La perception de Nasdas que l'audition était trop axée sur des attaques personnelles plutôt que sur l'algorithme de TikTok.
    1. Voici un compte-rendu détaillé des principaux thèmes et idées importants des sources fournies, incluant des citations pertinentes :

      Synthèse du Rapport de la Commission d’Experts sur l’Impact de l’Exposition des Jeunes aux Écrans

      Ce document de briefing synthétise les points clés soulevés lors de l'audition de deux experts, * Madame Mouton (neurologue) et * Monsieur Benjamina (neurophysiologiste), co-présidents d'une commission antérieure sur l'impact des écrans.

      L'audition se concentre sur l'impact des réseaux sociaux, en particulier TikTok, sur la santé mentale et physique des jeunes.

      1. La Détérioration de la Santé Mentale des Jeunes et le Rôle des Réseaux Sociaux

      Les experts soulignent une chute de la santé mentale des moins de 25 ans depuis les années 2010, antérieure à la pandémie de COVID-19, qui a cependant accentué cette tendance.

      Parallèlement, l'usage des réseaux sociaux s'est massivement répandu, soulevant des questions sur leur implication dans cette détérioration.

      • Problème global des réseaux sociaux : Bien que la commission se concentre sur TikTok, les experts insistent sur le fait que "les réseaux sociaux posent globalement aujourd'hui tous les mêmes problèmes de design non éthique". TikTok est "peut-être particulièrement efficace pour capter et retenir l'attention des usagers", mais d'autres réseaux ne sont pas exempts de ces problèmes.

      • Modèle économique et captation de l'attention : Le problème fondamental réside dans le "design de TikTok et des réseaux sociaux qui étant basé sur l'économie de l'attention, la captation des données qui vont ensuite être monnayées à des fins de publicité ciblées". L'objectif est de "maintenir les usagers en ligne le plus longtemps possible de les faire venir en ligne le plus souvent possible et également de leur faire des achats en ligne".

      2. Conséquences Négatives sur la Santé Physique et Mentale

      L'usage excessif des écrans et des réseaux sociaux entraîne de multiples effets délétères, même indépendamment des contenus.

      • Santé physique :Sédentarité : Les activités sur écran sont sources d'inactivité sédentaire, un facteur de risque cardiovasculaire (infarctus, AVC, maladies artérielles, surpoids, obésité, diabète de type 2).
      • Sommeil : L'empiètement sur les heures de sommeil ou l'interruption de celui-ci (réveils pour des défis en ligne) compromet la qualité et la quantité du sommeil, favorisant les maladies cardiovasculaires, le surpoids, l'obésité et les infections. "La dette chronique de sommeil pouvant favoriser à nouveau les maladies cardiovasculaire mais aussi le surpoids l'obésité les infections".
      • Vision : L'activité en intérieur, le manque d'exposition à la lumière naturelle, la surexposition à la lumière bleue et la sursollicitation de la vision de près favorisent la myopie.
      • Santé mentale (par l'intermédiaire du sommeil) : La dette chronique de sommeil favorise également "l'anxiété et la dépression".

      3. La Question de l'Addiction aux Écrans et Réseaux Sociaux

      La discussion autour de l'addiction est nuancée, soulignant une réalité clinique distincte des classifications académiques.

      • Réalité clinique : Le Professeur Benjamina affirme traiter de nombreux jeunes "qui consomment et qui sont dépendants aux réseaux sociaux et TikTok en particulier".

      Ces problématiques sont prises en charge "à l'instar des produits comme le cannabis la cocaïne les extasiies ou l'alcool".

      Les dommages incluent des "effets métaboliques ou bien somatiques", ainsi que des "problématiques associées de type psychiatrique ou psychologique anxiété insomnie dépression difficulté l'adaptation relationnelle environnementale".

      • Classification académique : Sur le plan académique, l'addiction aux écrans ou aux réseaux sociaux n'est pas encore classée comme telle dans les classifications internationales (OMS, Association Américaine de Psychiatrie), à l'exception du jeu pathologique. Cependant, il est probable que cela évoluera à l'avenir.

      • TikTok, un produit "dépendogène" : TikTok est considéré comme "extrêmement accrocheur addictogène" en raison de son algorithme "extrêmement développé" et de la "fugacité du contenu" (vidéos courtes et répétitives), qui stimulent de manière intense le système de récompense. "Ces deux éléments ne sont pas là par le fait du hasard".

      4. Responsabilité des Plateformes et Nécessité de Régulation

      Les experts estiment que la responsabilité première du "mésusage" ou "surutilisation" des plateformes incombe aux industriels.

      • Design non éthique : Le modèle économique de TikTok et autres réseaux sociaux est délibérément conçu pour maximiser le temps passé en ligne, sans considération éthique pour la santé des utilisateurs. "Aucune éthique évidemment n'est convoquée puisque on a des contenus absolument scandaleux".

      • Manque de bonne foi des plateformes : Les plateformes sont réticentes à mettre en place des contraintes sans obligation légale. Elles mettent en avant "responsabilité liberté" et renvoient la "minorité" vers la "responsabilité de ses parents".

      Le Professeur Benjamina déclare : "Il faut pas s'attendre que les plateformes s'exécutent s'il n'y a pas de contrainte parce qu'elles ont les capacités à évidemment mettre en place des choses éthiques".

      5. Prise de Conscience Sociétale et Mesures Recommandées

      Il y a une prise de conscience sociétale croissante, mais des efforts significatifs sont encore nécessaires.

      • Écart de connaissance : Il existe un "gouffre entre peut-être des parents ou des professionnels de santé qui sont sensibles au sujet et qui sont bien informés et qui peuvent déjà avoir cette connaissance de l'impact des réseaux sociaux sur la santé des jeunes mais qu'il y a aussi toute une frange de la population aujourd'hui qui ignore totalement ses effets".

      • Communication massive et ciblée : Une "communication qui soit extrêmement massive sur ce sujet" est nécessaire, ainsi qu'une "communication plus ciblée aussi sur les professionnels de santé" qui n'ont pas toujours le réflexe d'interroger les jeunes sur leur usage des réseaux sociaux.

      • Formation des soignants : La formation des soignants sur l'usage des écrans est "très hétérogène aujourd'hui" et nécessite une formation "massive" des professions en lien avec la petite enfance et les adolescents.

      • Alternatives et réinvestissement des espaces physiques : La question "si on nous retire les réseaux sociaux qu'est-ce que vous nous mettez à la place" est comprise.

      Les jeunes trouvent dans ces plateformes un "refuge de divertissement". Il est essentiel de "proposer des alternatives aujourd'hui suffisamment puissantes pour les extraire de cette attraction très très forte de l'univers numérique".

      L'exemple des terrains vagues aménagés en espaces d'activités physiques montre l'efficacité de "choses qui n'ont pas demandé beaucoup de ni de temps ni d'énergie ni surtout d'argent et qui les ont finalement motivés à faire autre chose".

      • Réseaux sociaux "éthiques" et progressivité : La recommandation de limiter l'accès aux réseaux sociaux à 15 ans pour les plateformes dont la "conception serait éthique" est évoquée.

      Le concept de "réseau social éthique" implique un design qui ne vise pas la captation à tout prix, mais le bien-être de l'utilisateur. Cependant, la définition et l'application d'un tel âge limite se heurtent à la complexité de la vérification de l'âge et à la mauvaise foi des plateformes.

      L'idée de 15 ans se cale sur la "majorité numérique" et la "majorité sexuelle". La question est posée si cet âge ne devrait pas être plus élevé (18 ans), étant donné la vulnérabilité des adolescents et le fait que le cerveau continue de mûrir jusqu'à 25 ans.

      6. La Résistance des Jeunes et le Conflit de Génération

      Les jeunes rejettent souvent l'idée de la dangerosité des plateformes, considérant les adultes comme des "boomers" qui "n'ont rien compris".

      • Discours immobilisant : Le discours selon lequel "on peut pas revenir en arrière c'est le progrès et puis on peut pas faire autrement ils sont partout" est critiqué car il "désarme toute volonté de changer".

      Les experts insistent sur le fait que "oui on a le choix" de développer des modèles différents et de réguler.

      • Information insuffisante : "L'information qu'un produit est néfaste pour la santé suffisait à changer les comportements depuis le temps qu'on fait la prévention en santé publique on le saurait". L'information seule ne suffit pas ; une "régulation extrêmement" forte est nécessaire pour les produits addictifs ou "addictif-like".

      • Temps de la science vs. Évolution technologique : La reconnaissance scientifique des addictions prend du temps (90-100 ans pour le tabac), mais la technologie évolue "toutes les semaines" avec de nouveaux produits, plaçant la science "des années de retard".

      7. Approche Clinique et Traitement des Addictions aux Écrans

      La prise en charge clinique ne dépend pas d'une classification officielle mais des dommages constatés.

      • Prise en charge globale : Le traitement est "biopsychosocial", incluant "des mesures évidemment sociales", des "thérapies systémiques parents enfants", et la limitation de la consommation pour "éviter les le clash".
      • Bilan psychiatrique : Un bilan est crucial car de "grandes maladies psychiatriques commencent à l'adolescence" (schizophrénie, troubles bipolaires, anxiétés).
      • Thérapies : Des thérapies cognitivocomportementales, la psychanalyse ou psychodynamie de groupe sont utilisées. La recréation d'une "communauté" de jeunes en milieu de soin est efficace.
      • Transfert de dépendance : Le fait d'arrêter une consommation d'écrans n'est pas "à l'origine d'un transfert" vers d'autres substances. La réalité est plutôt celle de "polyconsommateur" et "polyxpérimentateur" où l'offre de drogues est variée.

      • En conclusion, l'audition met en lumière l'urgence d'une prise de conscience collective et d'une action politique ferme face à l'impact délétère des réseaux sociaux, dont le modèle économique est intrinsèquement problématique pour la santé des jeunes.

      La régulation des plateformes, la formation des professionnels de santé et le développement d'alternatives concrètes sont des pistes essentielles pour inverser la tendance.

    1. Document d'information détaillé : "Le pavillon des irresponsables"

      Ce document d'information analyse les thèmes principaux, les idées essentielles et les faits marquants des extraits du documentaire "Le pavillon des irresponsables".

      Il se concentre sur la vie des patients déclarés pénalement irresponsables et internés en Unités pour Malades Difficiles (UMD), en France.

      1. La Catégorie des "Irresponsables Pénaux" : Définition et Contexte

      Le documentaire s'ouvre sur la présentation des "irresponsables pénaux", des individus ayant commis des crimes (meurtre, agressions graves) mais échappant à la prison en raison de leur état mental au moment des faits. Ils sont internés dans des UMD.

      • Définition légale et clinique : Ces patients sont "des criminels qui échappent à la prison en raison de leur état mental et sont internés dans des unités pour malades difficiles". Leur statut d'"irresponsable" est caractérisé par un "caractère psychotique indéniable" et une "absence de conscience de ce qu'il pouvait faire".
      • Historique et Évolution : Historiquement, la psychiatrie, au milieu du 19e siècle, était une "mesure d'ordre public" participant à la "sécurité de la société". L'avènement des neuroleptiques dans les années 50-60 a permis une "ouverture". Cependant, ces dernières années, il y a un "repli vers une crainte et une volonté de plus de sécurité", mais les professionnels avertissent qu'un maintien coûte que coûte en milieu hospitalier risque d'être "liberticide" pour ceux qui pourraient évoluer favorablement.
      • Proportion et Durée de Séjour : Les patients irresponsables ne représentent qu'une "infime partie" des patients en UMD (environ 10 à 20 à Sarreguemines), mais ce sont "ceux qui restent de loin le plus longtemps en UMD".

      2. Le Quotidien et les Défis de la Vie en UMD

      Le documentaire offre un aperçu du quotidien des patients internés, soulignant les contraintes de l'environnement, mais aussi les efforts pour créer un espace de vie et de soin.

      • Soins Contraints et Environnement : Les UMD sont des "lieux de soins qu'on pourrait qualifier de soins de recours" pour des patients venant d'hôpitaux psychiatriques de secteur, souvent "les plus déstructurés, les plus délirants". Le terme "difficile" est approprié car ils "usent les équipes", nécessitant des séjours en UMD pour une "rupture".
      • Adaptation à la Contrainte : Malgré la privation de liberté, les patients développent des habitudes et cherchent à créer leur "petit espace", comme l'entretien méticuleux de leur chambre pour Christian Dornier : "C'est la chambre la plus ordonnée de tout le CHS... les affaires comme ça ça coûte cher alors il faut quand même un minimum de de soin à apporter au aux objets que j'ai acheté". La participation à des activités comme l'ergothérapie (Sylvain, Giselin) ou le travail du bois (Sylvain) est valorisée, car elle permet de "ne rien penser du tout" et de ne plus entendre de voix.
      • Souffrance et Délire Persistant : Malgré des traitements lourds, la souffrance des patients reste palpable. Giselin Anès, qui a tué sa mère, "reste un patient qui reçoit un traitement extrêmement lourd malgré ce traitement on devine chez lui plus que d'autres la souffrance qui est la sienne et qui est générée par ce qu'il ressent encore et ce qui constitue le noyau persécutif". Certains patients, comme Sylvain, continuent d'exprimer des délires de grandeur ("je suis Dieu, je suis Shiva, je suis tous les dieux") ou des missions salvatrices.
      • Gestion de la Dangerosité : Le personnel soignant est constamment attentif à la dangerosité potentielle. Pour le patient ayant tué sa grand-mère, "on devine parfaitement quand on quand on regarde l'évolution de ce patient qui reste malgré tout un des patients au potentiel de dangerosité le plus important dans ce qui reste de son délire il y a une dimension de mission qu'il aurait à accomplir en dehors d'un lieu comme l'UMD plus rien ne le retiendrait".

      3. Les Histoires Individuelles et la Complexité des Cas

      Le documentaire met en lumière des cas spécifiques qui illustrent la nature des maladies mentales et les défis de leur prise en charge à long terme.

      • Christian Dornier : Atteint de "schizophrénie paranoïde" avec des "éléments délirants extrêmement importants", il a commis un "meurtre de masse au sein de sa famille et du village" à la fin des années 80. Malgré plus de 30 ans de prise en charge, il n'a "jamais pu... avoir conscience qu'il était malade" et demeure convaincu d'"éléments persécutifs" qui ont nourri son délire. À 66 ans, la question de son avenir et d'un possible transfert vers un hôpital psychiatrique classique se pose, bien qu'un juge ait refusé sa sortie en 2023. Il exprime des regrets ("j'ai des regrets") mais explique ses actes par la "folie".
      • Giselin Anès : A tué sa mère lors d'une "séquence de décompensation psychotique". Il est arrivé en UMD après avoir été "retranché dans sa chambre, extrêmement hostile, menaçant". Sa dangerosité était "importante à ce moment-là". Il a toujours une "souffrance qui est la sienne et qui est générée par ce qu'il ressent encore et ce qui constitue le noyau persécutif".
      • Le Patient Incendiaire/Homicide : Un patient raconte avoir "brûlé une chambre" et "tué un mec". Il attribue ses actes à "Dieu ou voix" et à la "faute du psychiatre" précédent, refusant la responsabilité de ses actes et affirmant qu'il ne récidivera pas grâce au "bon traitement du psychiatre" actuel. Il nie être dangereux ("vous êtes trompé moi je suis pas du tout dangereux").
      • Sylvain Laurent : Se prend pour "Dieu", "Shiva", "tous les dieux", et se croit "la dernière personne sur qui on peut compter avant que la fat". Il décrit une mission de "massacrer sur la roche" pour revenir avec une "baguette magique en or" et faire disparaître les pédophiles et terroristes. Il ne perçoit pas ses idées comme un délire, affirmant: "mon délire à moi il dit non c'est pas vrai si j'ai fait ça c'est choquant mais j'avais des bonnes raisons de le faire".
      • Monsieur Tourchef : Exprime la difficulté de vivre "tout le temps avec les mêmes personnes" et la frustration de ne pas pouvoir sortir. Il a été maintenu en UMD en raison de son "comportement", notamment un "passage à l'acte agressif" récent.

      4. Les Commissions de Suivi Médical et la Question de la Sortie

      Les commissions sont un élément central de la vie en UMD, déterminant le maintien ou le transfert des patients.

      • Fonctionnement de la Commission : Tous les six mois, un collège de trois médecins examine chaque dossier et s'entretient avec le patient pendant 20 à 30 minutes. Ils ont à leur disposition le dossier médical et une synthèse des séjours. La commission rend un avis de maintien en UMD ou de transfert vers un hôpital d'origine si l'évolution est favorable et les critères de dangerosité "fortement atténués".
      • Critères d'Évaluation : Les critères incluent "l'état clinique de la personne", la persistance du délire, des hallucinations, de la froideur affective, la capacité à formuler des regrets ou de l'empathie, et les antécédents d'actes violents.

      Dilemmes de la Sortie :

      • Volonté du Patient : Certains patients souhaitent ardemment quitter l'UMD, même s'ils n'en ont pas les moyens cliniques, comme le patient incendiaire qui veut "retourner à mon hôpital d'origine au plus vite" pour "être comme un roi". D'autres, paradoxalement, "font tout ce qu'il faut pour rester", car ils ont "presque trouvé une sorte de petite famille", se sentant en "sécurité" et obtenant des "bénéfices secondaires" de l'hospitalisation.
      • Sécurité versus Liberté : Le "risque zéro n'existe pas en psychiatrie", et il n'y a "pas de garde fou ultime pour éviter le passage à l'acte d'un grand psychotique". La décision est complexe car elle doit concilier la sécurité de la société et du patient avec le droit à une évolution possible.
      • Pression Sociétale : La France a "de plus en plus de mal à répondre à l'inquiétude de la société face à la maladie mentale", conduisant parfois à des lois et décisions qui peuvent privilégier la sécurité au détriment de l'évolution individuelle des patients. Le maintien en UMD, pour certains, signifie une "qualité de vie" inégalée ailleurs (sorties accompagnées), mais aussi une absence de "perspective" d'une vie autonome.

      Conclusion : Une Réflexion sur l'Équilibre

      Le documentaire met en lumière la complexité de la prise en charge des patients pénalement irresponsables. Entre la nécessité de protéger la société, de soigner des individus atteints de pathologies lourdes et de préserver leurs droits, les UMD représentent un équilibre délicat.

      La question de la durée d'internement, de la conscience de la maladie par les patients, et de leur potentiel de réinsertion, même minime, reste au cœur des débats et des préoccupations des professionnels.

    1. del testimonio vivido por una legión sin número de santos y de fieles ministros de Dios, que han hecho del celibato objeto interior y signo exterior de su total y gozosa donación al ministerio de Cristo

      !

    1. Tour Bình Hưng Nha Trang 1 ngày là một lựa chọn du lịch hấp dẫn do Nha Trang Travel tổ chức, mang đến trải nghiệm nghỉ ngơi và thư giãn trong khung cảnh thiên nhiên tuyệt đẹp của đảo Bình Hưng, hòn đảo được ví như “Maldives Việt Nam” với diện tích nhỏ nhưng sở hữu vẻ đẹp quyến rũ. Trong tour, du khách sẽ được khám phá các địa điểm nổi tiếng như Bãi Kinh/Cây Me, Bãi Đá Trứng, Lăng Ông Nam Hải, đình làng Bình Hưng, Miếu Bà, Đồng Cừu Suối Tiên. Tham gia vào các hoạt động tắm biển, lặn ngắm san hô hấp dẫn. Du khách sẽ được di chuyển bằng cano cao tốc, thưởng thức ẩm thực đặc sản miền biển với thực đơn hải sản phong phú như mực hấp, cá chiên, tôm rim, sò nướng,…Tour du lịch Đảo Bình Hưng hấp dẫn tại Nha Trang TravelTour có lịch trình chi tiết từ 7h30 đến 15h00, bao gồm xe đưa đón, bữa trưa, vé tham quan, cano, xe điện, hướng dẫn viên và bảo hiểm du lịch, với chính sách giá ưu đãi cho trẻ em theo chiều cao và lưu ý về việc tour ghép đoàn, không áp dụng cho khách nước ngoài và ngày lễ Tết, cùng những kinh nghiệm hữu ích để chuyến đi thêm trọn vẹn.

      Tour Bình Hưng Nha Trang 1 ngày là một lựa chọn du lịch hấp dẫn do Nha Trang Travel tổ chức, mang đến trải nghiệm nghỉ ngơi và thư giãn trong khung cảnh thiên nhiên tuyệt đẹp của đảo Bình Hưng, hòn đảo được ví như “Maldives Việt Nam” với diện tích nhỏ nhưng sở hữu vẻ đẹp quyến rũ. Trong tour, du khách sẽ được khám phá các địa điểm nổi tiếng như Bãi Kinh/Cây Me, Bãi Đá Trứng, Lăng Ông Nam Hải, đình làng Bình Hưng, Miếu Bà, Đồng Cừu Suối Tiên. Tham gia vào các hoạt động tắm biển, lặn ngắm san hô hấp dẫn. Du khách sẽ được di chuyển bằng cano cao tốc, thưởng thức ẩm thực đặc sản miền biển với thực đơn hải sản phong phú như mực hấp, cá chiên, tôm rim, sò nướng,…

    1. Synthèse des auditions des responsables de la modération TikTok par la commission d’enquête

      1. Structure de la modération de contenu chez TikTok

      TikTok emploie une approche hybride pour la modération des contenus, combinant des systèmes automatisés (algorithmes et IA) avec l'intervention humaine.

      Nikessou, responsable de la sécurité juridique, a précisé que "98 % des contenus qui violent les conditions" sont supprimés de manière proactive grâce à ces systèmes automatisés.

      La modération humaine, qui implique 509 modérateurs francophones, se concentre sur les contenus les plus sensibles ou contextuels. Les contenus signalés ou devenus populaires font l'objet d'examens supplémentaires.

      Cependant, il y a une diminution du nombre de modérateurs humains, passant de 634 au premier semestre à 509 au deuxième semestre.

      TikTok justifie cette baisse par l'amélioration de ses outils d'IA, permettant une suppression plus rapide et cohérente des contenus problématiques, et minimisant l'exposition des utilisateurs et des employés à ces contenus.

      Les modérateurs reçoivent une formation initiale et des vérifications hebdomadaires et mensuelles de leur interprétation des règles. Un soutien psychologique est également mis en place pour les modérateurs exposés à des contenus difficiles.

      2. Efficacité de la modération et défis liés aux contenus problématiques

      TikTok affirme que "moins de 1 % du contenu ne respecte pas les lignes directrices", mais la commission a remis en question la pertinence de ce pourcentage en raison de l'algorithme de recommandation qui peut amplifier même un faible volume de contenu problématique.

      Un exemple majeur de ce défi est la tendance "Skinny Talk", qui a incité à l'anorexie et aux troubles alimentaires. TikTok a expliqué avoir initialement détecté un volume faible et un faible taux de non-conformité.

      Ce n'est qu'après l'augmentation du volume et l'émergence d'une communauté centrée sur de mauvaises habitudes alimentaires que des mesures, y compris le blocage du hashtag, ont été prises.

      Malgré ces efforts, des contenus problématiques liés à ce thème, comme le hashtag "fearfood", persistent, soulevant des questions sur l'efficacité de la modération et la capacité de TikTok à honorer son "obligation de résultat".

      La représentante de TikTok a admis que "bien sûr, nous faisons des erreurs, c'est inévitable".

      La commission a également soulevé le problème des "moyens de contournement" utilisés par les jeunes, tels que l'utilisation de symboles (ex: petit zèbre pour la scarification) pour aborder des sujets sensibles sans être détectés.

      Les responsables de TikTok reconnaissent cette problématique et affirment travailler à anticiper ces contournements.

      3. Gestion des signalements et relations avec les organisations externes

      TikTok collabore avec des organisations comme Stop Fisha, e-Enfance, Génération Numérique et Point de Contact, qui agissent comme "signaleurs de confiance". Ces organisations bénéficient d'un canal de signalement prioritaire, assurant une réponse rapide.

      Cependant, la commission a fait état de divergences entre les signalements effectués par des particuliers et ceux des organisations, ces dernières entraînant des suppressions de contenu plus fréquentes. TikTok justifie cette différence par l'expertise des signaleurs de confiance, qui aident à identifier plus précisément les violations des règles communautaires.

      4. Sanction des comptes et politiques de tolérance

      TikTok applique une politique de tolérance variable selon la gravité des infractions.

      Les violations mineures peuvent entraîner des avertissements et des opportunités de correction, tandis que les infractions graves comme les discours de haine ou la pédopornographie entraînent une "tolérance zéro" et une interdiction immédiate.

      Un document public détaillant cette gradation des sanctions existe et peut être partagé.

      La commission a exprimé sa préoccupation quant à la lenteur de réaction face à des comptes d'influenceurs connus, suivis par des millions de personnes, qui diffusent des contenus problématiques (ex: propos sexistes, incitation à la violence). TikTok a souligné la difficulté d'examiner l'intégralité du contenu d'un utilisateur et le caractère contextuel des violations.

      5. Modération et fonctionnalités de TikTok Live

      TikTok Live est un produit de diffusion en direct où les créateurs interagissent avec leur communauté. L'équipe de modération (TNS) est la même que pour les contenus préenregistrés et agit en toute indépendance.

      Des modèles dédiés sont utilisés pour détecter des signaux de violation pendant les diffusions en direct, permettant d'interrompre la vidéo ou de donner des retours aux créateurs. Les menaces à la vie sont signalées aux autorités locales.

      Une fonctionnalité notable est le "Live Match", où deux ou quatre créateurs s'affrontent pendant 5 minutes, accumulant des points via des cadeaux virtuels et des "J'aime" du public.

      Le vainqueur est celui qui a le plus de points. Les cadeaux virtuels vont d'une "rose virtuelle" valant environ 5 centimes à plusieurs centaines d'euros. TikTok prélève 50 % de la valeur des cadeaux.

      Les agences externes spécialisées dans le live streaming sont rémunérées par TikTok et peuvent recevoir des pénalités financières si leurs créateurs enfreignent les règles. Un "score de santé" est attribué aux agences, démarrant à 100 points et diminuant en cas de violation.

        1. Préoccupations liées à l'addiction et à la protection des mineurs sur TikTok Live

      La commission a exprimé de vives inquiétudes quant au caractère addictif de TikTok, en particulier des Lives. Les responsables de TikTok ont souligné plusieurs mesures de protection:

      • Interdiction des Lives pour les moins de 18 ans: Les créateurs doivent vérifier leur identité (pièce d'identité et selfie) pour lancer un Live.
      • Interdiction de l'envoi de cadeaux virtuels pour les mineurs: Seuls les majeurs peuvent acheter et envoyer des cadeaux.
      • Limitation du temps d'écran: Les utilisateurs de 13 à 17 ans ont une limite de 60 minutes par jour, activée par défaut, avec des rappels réguliers.
      • Contenu non personnalisé: Dans le cadre du DSA, TikTok propose des flux non personnalisés pour permettre aux utilisateurs de découvrir une diversité de contenus.
      • Cependant, la commission a confronté TikTok à des témoignages directs de mineurs participant à des Lives et dépensant de l'argent via le compte Apple Pay de leurs parents, ou étant incités à changer leur date de naissance pour accéder à certaines fonctionnalités. La vérification de l'âge reste un défi majeur. TikTok a reconnu la persistance du problème, indiquant que "642 000 comptes" de moins de 13 ans ont été supprimés en France l'année dernière, et 6 millions par mois dans le monde.

      • La commission a également interrogé le modèle de rémunération des Live, où les "top créateurs" peuvent gagner "plusieurs dizaines de milliers d'euros par mois", et la nature des "Live Match" qui, selon certains membres, s'apparentent à des "mécanismes similaires à ceux des jeux d'argent". TikTok a réfuté cette assimilation, arguant qu'il n'y a pas d'espérance de gain pour les donateurs et que les jeux d'argent sont strictement interdits.

      Le remerciement des donateurs par les streamers, même s'il est considéré par TikTok comme de la "politesse", est perçu par la commission comme une "forme de gratification" et d' "encouragement au don".

      7. Transparence et obligations légales

      TikTok publie des rapports de transparence trimestriels et des rapports dédiés sur les demandes de retrait gouvernementales, les demandes d'information, les suppressions pour propriété intellectuelle, la lutte contre les opérations d'influence et les abus sexuels sur mineurs.

      La plateforme est également soumise aux obligations du DSA (Digital Services Act) et du code de pratique de lutte contre la désinformation de l'Union européenne.

      Conclusion

      • L'audition a mis en lumière la complexité de la modération de contenu sur une plateforme de l'ampleur de TikTok, confrontée à la fois à des défis technologiques (détection de contournements, vérification de l'âge) et humains (volume de contenu, contexte culturel).

      Si TikTok a détaillé ses efforts en matière de sécurité et de conformité réglementaire, la commission a exprimé de fortes réserves quant à l'efficacité réelle de ces mesures, en particulier concernant la protection des mineurs et la persistance de contenus problématiques.

      Des informations complémentaires ont été demandées à TikTok par écrit, avec la possibilité d'une reconvocation en cas de non-fourniture ou de divergence des réponses.

    1. Author response:

      The following is the authors’ response to the original reviews.

      We thank all reviewers for the highly detailed review and the time and effort which has been invested in this review. It is clear from the reviews that we’ve had the privilege to have our work extensively and thoroughly checked by knowledgeable experts, for which we are very grateful. We have read their perspectives, questions and suggested improvements with great interest. We have reflected on the public review in detail and have included detailed responses below. First, we would like to respond to four main issues pointed out by the editor and reviewers:

      (1) Lack of yield data in the manuscript: Yield data has been collected in most of the sites and years of our study, and these have already been published and cited in our manuscript. In the appendix of our manuscript, we included a table with yield data for the sites and years in which the beetle diversity was studied. These data show that strip cropping does not cause a systematic yield reduction.

      (2) Sampling design clarification: Our paper combines data from trials conducted at different locations and years. On the one hand this allows an analysis of a comprehensive dataset, but on the other hand in some cases this resulted in variations in how data were collected or processed (e.g. taxonomic level of species identification). We have added more details to the sections on sampling design and data analysis to increase clarity and transparency.

      (3) Additional data analysis: In the revised manuscript we present an analysis on the responses of abundances of the 12 most common ground beetle genera to strip cropping. This gives better insight in the variation of responses among ground beetle taxa.

      (4) Restrict findings to our system: We nuanced our findings further and focused more on the implications of our data on ground beetle communities, rather than on agrobiodiversity in a broader sense.

      Below we also respond to the editor and reviewers in more detail.

      Reviewing Editor Comments:

      (1) You only have analyzed ground beetle diversity, it would be important to add data on crop yields, which certainly must be available (note that in normal intercropping these would likely be enhanced as well).

      Most yield data have been published in three previous papers, which we already cited or cite now (one was not yet published at the time of submission). Our argumentation is based on these studies. We had also already included a table in the appendix that showed the yield data that relates specifically to our locations and years of measurement. The finding that strip cropping does not majorly affect yield is based on these findings. We revised the title of our manuscript to remove the explicit focus on yield.

      (2) Considering the heterogeneous data involving different experiments it is particularly important to describe the sampling design in detail and explain how various hierarchical levels were accounted for in the analysis.

      We agree that some important details to our analysis were not described in sufficient detail. Especially reviewer 2 pointed out several relevant points that we did account for in our analyses, but which were not clear from the text in the methods section. We are convinced that our data analyses are robust and that our conclusions are supported by the data. We revised the methods section to make our approach clearer and more transparent.

      (3) In addition to relative changes in richness and density of ground beetles you should also present the data from which these have been derived. Furthermore, you could also analyze and interpret the response of the different individual taxa to strip cropping.

      With our heterogeneous dataset it was quite complicated to show overall patterns of absolute changes in ground beetle abundance and richness, especially for the field-level analyses. As the sampling design was not always the same and occasionally samples were missing, the number of year series that made up a datapoint were different among locations and years. However, we always made sure that for the comparison of a paired monoculture and strip cropping field, the number of year series was always made equal through rarefaction. That is, the number of ground beetle(s) (species) are always expressed as the number per 2 to 6 samples. Therefore, we prefer to stick to relative changes as we are convinced that this gives a fairer representation of our complex dataset.

      We agree with the second point that both the editor and several reviewers pointed out. The indicator species analyses that we used were biased by rare species, and we now omit this analysis. Instead, we included a GLM analysis on the responses of abundances of the 12 most common ground beetle genera to strip cropping. We chose for genera here (and not species) as we could then include all locations and years within the analyses, and in most cases a genus was dominated by a single species (but notable exceptions were Amara and Harpalus, which were often made up of several species). We illustrate these analyses still in a similar fashion as we did for the indicator species analysis.

      (4) Keep to your findings and don't overstate them but try to better connect them to basic ecological hypotheses potentially explaining them.

      After careful consideration of the important points that reviewers point out, we decided to nuance our reasoning about biodiversity conservation along two key lines: (1) the extent to which ground beetles can be indicators of wider biodiversity changes; and (2) our findings that are not as straightforward positive as our narrative suggests. We still believe that strip cropping contributes positively to carabid communities, and have carefully checked the text to avoid overstatements.

      Reviewer #1 (Public review):

      Summary:

      This study demonstrates that strip cropping enhances the taxonomic diversity of ground beetles across organically-managed crop systems in the Netherlands. In particular, strip cropping supported 15% more ground beetle species and 30% more individuals compared to monocultures.

      Strengths:

      A well-written study with well-analyzed data of a complex design. The data could have been analyzed differently e.g. by not pooling samples, but there are pros and cons for each type of analysis and I am convinced this will not affect the main findings. A strong point is that data were collected for 4 years. This is especially strong as most data on biodiversity in cropping systems are only collected for one or two seasons. Another strong point is that several crops were included.

      We thank reviewer 1 for their kind words and agree with this strength of the paper. The paper combines data from trials conducted at different locations and years. On the one hand this allows an analysis of a comprehensive dataset, but on the other hand in some cases there were slight variations in how data were collected or processed (e.g. taxonomic level of species identification).

      Weaknesses:

      This study focused on the biodiversity of ground beetles and did not examine crop productivity. Therefore, I disagree with the claim that this study demonstrates biodiversity enhancement without compromising yield. The authors should present results on yield or, at the very least, provide a stronger justification for this statement.

      We acknowledge that we indeed did not formally analyze yield in our study, but we have good reason for this. The claim that strip cropping does not compromise yield comes from several extensive studies (Juventia & van Apeldoorn, 2024; Ditzler et al., 2023; Carillo-Reche et al., 2023) that were conducted in nearly all the sites and years that we included in our study. We chose not to include formal analyses of productivity for two key reasons: (1) a yield analysis would duplicate already published analyses, and (2) we prefer to focus more on the ecology of ground beetles and the effect of strip cropping on biodiversity, rather than diverging our focus also towards crop productivity. Nevertheless, we have shown the results on yield in Table S6 and refer extensively to the studies that have previously analyzed this data (line 203-207, 217-221).

      Reviwer #1 (Recommendations for the authors):

      This is a well-written study on the effects of strip cropping on ground-beetle diversity. As stated above the study is well analyzed, presented, and written but you should not pretend that you analyzed yield e.g. lines 25-27 "We show that strip cropping...enhance ground beetle biodiversity without incurring major yield loss.

      We understand the confusion caused by this sentence, and it was never our intention to give the impression that we analyzed yield losses. These findings were based on previous research by ourselves and colleagues, and we have now changed the sentence to reflect this (line 25-27).

      I think you assume that yield does not differ between strip cropping and monoculture. I am not sure this is correct as one crop might attract pests or predators spilling over to the other crop. I am also not sure if the sowing and harvest of the crop will come with the same costs. So if you assume this, you should only do it in the main manuscript and not the abstract, to justify this better.

      With three peer-reviewed papers on the same fields as we studied, we can convincingly state that strip cropping in organic agriculture generally does not result in major yield loss, although exceptions exist, which we refer to in the discussion.

      In the introduction lines 28-43, you refer to insect biomass decline. I wonder if you would like to add the study of Loboda et al. 2017 in Ecography. It seems not fitting as it is from the Artic but also the other studies you cite are not only coming from agricultural landscapes and this study is from the same time as the Hallmann et al. 2017 study and shows a decline in flies of 80%

      We have removed the sentence that this comment refers to, to streamline the introduction more.

      Lines 50-51. You only have one citation for biodiversity strategies in agricultural systems. I suggest citing Mupepele et al. 2021 in TREE. This study refers to management but also the policies and societal pressures behind it.

      We have added this citation and a recent paper by Cozim-Melges et al. (2024) here (line 49-52).

      In the methods, I am missing a section on species identifications. This would help to understand why you used "taxonomic richness".

      Thanks for pointing this out. We have now included a new section on ground beetle identification (line 304-309 in methods).

      Figure 1 is great and I like that you separated the field and crop-level data, although there is no statistical power for the crop-specific data. I personally would move k to the supplements. It is very detailed and small and therefore hard to read

      We chose to keep figure 1k, as in our view it gives a good impression of the scale of the experiment, the number of crops included and the absolute numbers of caught species.

      Reviewer #2 (Public review):

      Summary:

      The authors aimed to investigate the effects of organic strip cropping on carabid richness and density as well as on crop yields. They find on average higher carabid richness and density in strip cropping and organic farming, but not in all cases.

      We did not intend to investigate the effect of strip cropping on crop yields, but rather place our work in the framework of earlier studies that already studied yield. All the monocultures and strip cropping fields were organic farms. Our findings thus compare crop diversity effects within the context of organic farming.

      Strengths:

      Based on highly resolved species-level carabid data, the authors present estimates for many different crop types, some of them rarely studied, at the same time. The authors did a great job investigating different aspects of the assemblages (although some questions remain concerning the analyses) and they present their results in a visually pleasing and intuitive way.

      We appreciate the kind words of reviewer 2 and their acknowledgement of the extensiveness of our dataset. In our opinion, the inclusion of many different crops is indeed a strength, rarely seen in similar studies; and we are happy that the figures are appreciated.

      Weaknesses:

      The authors used data from four different strip cropping experiments and there is no real replication in space as all of these differed in many aspects (different crops, different areas between years, different combinations, design of the strip cropping (orientation and width), sampling effort and sample sizes of beetles (differing more than 35 fold between sites; L 100f); for more differences see L 237ff). The reader gets the impression that the authors stitched data from various places together that were not made to fit together. This may not be a problem per se but it surely limits the strength of the data as results for various crops may only be based on small samples from one or two sites (it is generally unclear how many samples were used for each crop/crop combination).

      The paper indeed combines data from trials conducted at different locations and years. On the one hand this allows an analysis of a comprehensive dataset, but on the other hand in some cases there were slight differences in the experimental design. At the time that we did our research, there were only a handful of farmers that were employing strip cropping within the Netherlands, which greatly reduced the number of fields for our study. Therefore, we worked in the sites that were available and studied as many crops on these sites. Since there was variation in the crops grown in the sites, for some crops we have limited replication. In the revision we have explained this more clearly (line 297-300).

      One of my major concerns is that it is completely unclear where carabids were collected. As some strips were 3m wide, some others were 6m and the monoculture plots large, it can be expected that carabids were collected at different distances from the plot edge. This alone, however, was conclusively shown to affect carabid assemblages dramatically and could easily outweigh the differences shown here if not accounted for in the models (see e.g. Boetzl et al. (2024) or Knapp et al. (2019) among many other studies on within field-distributions of carabids).

      Point well taken. Samples were always taken at least 10 meters into the field, and always in the middle of the strip. This would indeed mean that there is a small difference between the 3- and 6m wide strips regarding distance from another strip, but this was then only a difference of 1.5 to 3 meters from the edge. A difference that, based on our own extensive experience with ground beetle communities, will not have a large impact on the findings of ground beetles. The distance from field/plot edges was similar between monocultures and strip cropped fields. We present a more detailed description of the sampling design in the methods of the revised manuscript (line 294-297).

      The authors hint at a related but somewhat different problem in L 137ff - carabid assemblages sampled in strips were sampled in closer proximity to each other than assemblages in monoculture fields which is very likely a problem. The authors did not check whether their results are spatially autocorrelated and this shortcoming is hard to account for as it would have required a much bigger, spatially replicated design in which distances are maintained from the beginning. This limitation needs to be stated more clearly in the manuscript.

      To be clear, this limitation relates to the comparison that we did for the community compositions of ground beetles in two crops either in strip cropping or monocultures. In this case, it was impossible to avoid potential autocorrelation due to our field design. We also acknowledge this limitation in the results section (line 130-133). However, for our other analyses we corrected for spatial autocorrelation by including variables per location, year and crop. This grouped samples that were spatially autocorrelated. Therefore, we don’t see this as a discrepancy of our other analyses.

      Similarly, we know that carabid richness and density depend strongly on crop type (see e.g. Toivonen et al. (2022)) which could have biased results if the design is not balanced (this information is missing but it seems to be the case, see e.g. Celeriac in Almere in 2022).

      We agree and acknowledge that crop type can influence carabid richness and density, which is why we have included variables to account for differences caused by crops. However, we did not observe consistent differences between crops in how strip cropping affected ground beetle richness and density. Therefore, we don’t think that crop types would have influenced our conclusions on the overall effect of strip cropping.

      A more basic problem is that the reader neither learns where traps were located, how missing traps were treated for analyses how many samples there were per crop or crop combination (in a simple way, not through Table S7 - there has to have been a logic in each of these field trials) or why there are differences in the number of samples from the same location and year (see Table S7). This information needs to be added to the methods section.

      Point well taken. We have clarified this further in the revised manuscript (line 294-301, 318-322). As we combined data from several experimental designs that originally had slightly different research questions, this in part caused differences between numbers of rounds or samples per crop, location or year.

      As carabid assemblages undergo rapid phenological changes across the year, assemblages that are collected at different phenological points within and across years cannot easily be compared. The authors would need to standardize for this and make sure that the assemblages they analyze are comparable prior to analyses. Otherwise, I see the possibility that the reported differences might simply be biased by phenology.

      We agree and we dealt with this issue by using year series instead of using individual samples of different rounds. This approach allowed us to get a good impression of the entire ground beetle community across seasons. For our analyses we had the choice to only include data from sampling rounds that were conducted at the same time, or to include all available data. We chose to analyze all data, and made sure that the number of samples between strip cropping and monoculture fields per location, year and crop was always the same by pooling and rarefaction.

      Surrounding landscape structure is known to affect carabid richness and density and could thus also bias observed differences between treatments at the same locations (lower overall richness => lower differences between treatments). Landscape structure has not been taken into account in any way.

      We did not include landscape structure as there are only 4 sites, which does not allow a meaningful analysis of potential effects landscape structure. Studying how landscape interacts with strip cropping to influence insect biodiversity would require at least, say 15 to 20 sites, which was not feasible for this study. However, such an analysis may be possible in an ongoing project (CropMix) which includes many farms that work with strip cropping.

      In the statistical analyses, it is unclear whether the authors used estimated marginal means (as they should) - this needs to be clarified.

      In the revised manuscript we further clarified this point (line 365-366, 373-374).

      In addition, and as mentioned by Dr. Rasmann in the previous round (comment 1), the manuscript, in its current form, still suffers from simplified generalizations that 'oversell' the impact of the study and should be avoided. The authors restricted their analyses to ground beetles and based their conclusions on a design with many 'heterogeneities' - they should not draw conclusions for farmland biodiversity but stick to their system and report what they found. Although I understand the authors have previously stated that this is 'not practically feasible', the reason for this comment is simply to say that the authors should not oversell their findings.

      In the revised manuscript, we nuanced our findings by explaining that strip cropping is a potentially useful tool to support ground beetle biodiversity in agricultural fields (line 33-35).

      Reviewer #2 (Recommendations for the authors):

      In addition to the points stated under 'Weaknesses' above, I provide smaller comments and recommendations:

      Overall comments:

      (i) The carabid images used in the figures were created by Ortwin Bleich and are copyrighted. I could not find him accredited in the acknowledgements; the figure legends simply state that the images were taken from his webpage. Was his permission obtained? This should be stated.

      We have received written permission from Ortwin Bleich for using his pictures in our figures, and have accredited him for this in the acknowledgements (line 455-456).

      (ii) There is a great confusion in the field concerning terminology. The authors here use intercropping and strip cropping, a specific form of intercropping, interchangeably. I advise the authors to stick to strip cropping as it is more precise and avoids confusion with other forms of intercropping.

      We agree with the definitions given by reviewer 2 and had already used them as such in the text. We defined strip cropping in the first paragraph of the introduction and do not use the term “intercropping” after this definition to avoid confusion.

      Comments to specific lines:

      Line 19: While this is likely true, there is so far not enough compelling evidence for such a strong statement blaming agriculture. Please rephrase.

      Changed the sentence to indicate more clearly that it is one of the major drivers, but that the “blame” is not solely on agriculture (line 18-19).

      Line 22: Is this the case? I am aware of strip cropping being used in other countries, many of them in Europe. Why the focus on 'Dutch'?

      Indeed, strip cropping is now being pioneered by farmers throughout Europe. However in the Netherlands, some farmers have been pioneering strip cropping already since 2014. We have added this information to indicate that our setting is in the Netherlands, and as in our opinion it gives a bit more context to our manuscript.

      Line 24: I would argue that carabids are actually not good indicators for overall biodiversity in crop fields as they respond in a very specific way, contrasting with other taxa. It is commonly observed that carabids prefer more disturbed habitats and richness often increases with management intensity and in more agriculturally dominated landscapes - in stark contrast to other taxa like wild bees or butterflies.

      We have reworded this sentence to reflect that they are not necessarily indicators of wide agricultural biodiversity, but that they do hold keystone positions within food webs in agricultural systems (line 23-25).

      Line 31: This statement here is also too strong - carabids are not overall biodiversity and patterns found for carabids likely differ strongly from patterns that would be observed in other taxa. This study is on carabids and the conclusion should thus also refer to these in order to avoid such over-simplified generalizations.

      We agree and have nuanced this sentence to indicate that our findings are only on ground beetles (line 33-35). However, we would like to point out that the statement that “patterns found for carabids likely differ strongly from patterns that would be observed in other taxa” assumes a disassociation between carabids and other taxa.

      Line 41: I am sure the authors are aware of the various methodological shortcomings of the dataset used in Hallmann et al. (2017) which likely led to an overestimation of the actual decline. Analysing the same data, Müller et al. (2023) found that weather can explain fluctuations in biomass just as well as time. I thus advise not putting too much focus on these results here as they seem questionable.

      We have removed this sentence to streamline the introduction, thus no longer mentioning the percentages given by Hallmann et al. (2017).

      Line 46: Surely likely but to my knowledge this is actually remarkably hard to prove. Instead of using the IPBES report here that simply states this as a fact, it would be better to see some actual evidence referenced.

      We removed IPBES as a source and changed this for Dirzo et al. (2014), a review that shows the consequences of biodiversity decline on a range of different ecosystem services and ecological functions (line 45-47).

      Line 52ff: I am not sure whether this old land-sparing vs. land-sharing debate is necessary here. The authors could simply skip it and directly refer to the need of agricultural areas, the dominating land-use in many regions, to become more biodiversity-friendly. It can be linked directly to Line 61 in my opinion which would result in a more concise and arguably stronger introduction.

      After reconsidering, we agree with reviewer 2 that this section was redundant and we have removed the lines on land-sparing vs land-sharing.

      Line 59: Just a note here: this argument is not meaningful when talking about strip cropping in the Netherlands as there is virtually no land left that could be converted (if anything, agricultural land is lost to construction). The debate on land-use change towards agriculture is nowadays mostly focused on the tropics and the Global South.

      We argue that strip cropping could play an important role as a measure that does not necessarily follow the trade-off between biodiversity and agriculture for a context beyond the Netherlands (line 52-58).

      Line 69: Does this statement really need 8 references?

      Line 71: ... and this one 5 additional ones?

      We have removed excess references in these two lines (line 62-66).

      Line 74: But also likely provides the necessary crop continuity for many crop pests - the authors should keep in mind that when practitioners read agricultural biodiversity, they predominantly think of weeds and insect pests.

      We agree with reviewer 2 that agricultural biodiversity is still a controversial topic. However, as the focus in this manuscript is more on biodiversity conservation, rather than pest management, we prefer to keep this sentence as is. In other published papers and future work we focus more on the role of strip cropping for pest management.

      Line 83: Consider replacing 'moments' maybe - phenological stages or development stages?

      Although we understand the point of reviewer 2, we prefer to keep it at moments, as we did not focus on phenological stages and we only wanted to say that we set pitfall traps at several moments throughout the year. However, by placing the pitfall traps at several moments throughout the year, we did capture several phenological stages.

      Line 86: Not only farming practices - there are also massive fluctuations between years in the same crop with the same management due to effects of the weather in the previous reproductive season. Interpreting carabid assemblage changes is therefore not straightforward.

      We absolutely agree that interpreting carabid assemblage is not straightforward, but as we did not study year or crop legacy effects we chose to keep this sentence to maintain focus on our research goals.

      Line 88: 'ecolocal'?

      Typo, should have been ecological. Changed (line 81).

      Line 90: 'As such, they are often used as indicator group for wider insect diversity in agroecosystems' - this is the third repetition of this statement and the second one in this paragraph - please remove. Having worked on carabids extensively myself, I also think that this is not the true reason - they are simply easy to collect passively.

      We agree with the reviewer and have removed this sentence.

      Line 141: I have doubts about the value of the ISA looking at the results. Anchomenus dorsalis is a species extremely common in cereal monoculture fields in large parts of Europe, especially in warmer and drier conditions (H. griseus was likely only returned as it is generally rare and likely only occurred in few plots that, by chance, were strip-cropped). It can hardly be considered an indicator for diverse cropping systems but it was returned as one here (which I do not doubt). This often happens with ISA in my experience as they are very sensitive to the specific context of the data they are run on. The returned species are, however, often not really useable as indicators in other contexts. I thus believe they actually have very limited value. Apart from this, we see here that both monocultures and strip cropping have their indicators, as would likely all crop types. I wonder what message we would draw from this ...

      On close reconsideration, we agree with the reviewer that the ISAs might have been too sensitive to rare species that by chance occur in one of two crop configurations. To still get an idea on what happens with specific ground beetle groups, we chose to replace the ISAs with analyses on the 12 most common ground beetle genera. For this purpose we have added new sections to the methods (line 368-374) and results (line 135-143), replaced figure 2 and table S5, and updated the discussion (line 182-200).

      Line 165: Carabid activity is high when carabids are more active. Carabids can be more active either when (i) there are simply more carabid individuals or /and (ii) when they are starved and need to search more for prey. More carabid activity does thus not necessarily indicate more individuals, it can indicate that there is less prey. This aspect is missing here and should be discussed. It is also not true that crop diversification always increases prey biomass - especially strip cropping has previously been shown to decrease pest densities (Alarcón-Segura et al., 2022). Of course, this is a chicken-egg problem (less pests => less carabids or more carabids => less pests ?) ... this should at least be discussed.

      We have rewritten this paragraph to further discuss activity density in relation to food availability (line 175-185).

      Line 178: These species are not exclusively granivorous - this speculation may be too strong here.

      Line 185: true for all but C. melanocephalus - this species is usually more associated with hedgerows, forests etc.

      After removing the ISA’s, we also chose to remove this paragraph and replace it with a paragraph that is linked to the analyses on the 12 most common genera (line 182-200).

      Line 202: These statements are too strong for my taste - the authors should add an 'on average' here. The data show that they likely do not always enhance richness by 15 % and as the authors state, some monocultures still had higher richness and densities.

      “on average” added (line 211)

      Line 203: 'can lead' - the authors cannot tell based on their results if this is always true for all taxa.

      Changed to “can lead” (line 213)

      Line 205: What is 'diversification' here?

      This concerns measures like hedgerows or flower strips. We altered the sentence to make this clearer (line 215-216).

      Line 208: Does this statement need 5 references? (as in the introduction, the reader gets the impression the authors aimed to increase the citation count of other articles here).

      We have removed excess references (line 219-221).

      Line 222: How many are 'a few'? Maybe state a proportion.

      We only found two species, we’ve changed the sentence accordingly (line 232-233).

      Line 224: As stated above, I would not overstress the results of the ISAs - the authors stated themselves that the result for A. dorsalis is likely only based on one site ...

      We removed this sentence after removing the ISAs.

      Line 305: I think there is an additional nested random level missing - the transect or individual plot the traps were located in (or was there only one replicate for each crop/strip in each experiment)? Hard to tell as the authors provide no information on the actual sample sizes.

      Indeed, there was one field or plot per cropping system per crop per location per year from which all the samples were taken. Therefore the analysis does not miss a nested random level. We provided information on sample sizes in Table S7.

      Line 314ff: The authors describe that they basically followed a (slightly extended) Chao-Hill approach (species richness, Shannon entropy & inverse Simpson) without the sampling effort / sample completeness standardization implemented in this approach and as a reader I wonder why they did not simply just use the customary Chao-Hill approach.

      We were not aware of the Chao-Hill approach, and we see it as a compliment that we independently came up with an approach similar to a now accepted approach.

      Line 329: Unclear what was nested in what here - location / year / crop or year / location / crop ?

      For the crop-level analyses, the nested structure was location > year > crop. This nested structure was chosen as every location was sampled across different years and (for some locations) the crops differed among years. However, as we pooled the samples from the same field in the field-level analyses, using the same random structure would have resulted in each individual sampling unit being distinguished as a group. Therefore, the random structure here was only location > year. We explain this now more clearly in lines 329 and 355-357.

      Line 334: I can see why the authors used these distributions but it is presented here without any justification. As a side note: Gamma (with log link) would likely be better for the Shannon model as well (I guess it cannot be 0 or negative ...).

      We explain this now better in lines 360-364.

      Line 341: Why Hellinger and not simply proportions?

      We used Hellinger transformation to give more weight to rarer species. Our pitfall traps were often dominated by large numbers of a few very abundant / active species. If we had used proportions, these species would have dominated the community analyses. We clarified this in the text (line 379-381).

      Line 348: An RDA is constrained by the assumptions / model the authors proposed and "forces" the data into a spatial ordination that resembles this model best. As the authors previously used an unconstrained PERMANOVA, it would be better to also use an NMDS that goes along with the PERMANOVA.

      The initial goal of the RDA was not to directly visualize the results of the PERMANOVA, but to show whether an overall crop configuration effect occurred, both for the whole dataset and per location. We have now added NMDS figures to link them to the PERMANOVA and added these to the supplementary figures (fig S6-S8). We also mention this approach in the methods section (line 387-390).

      Line 355f: This is also a clear indication of the strong annual fluctuations in carabid assemblages as mentioned above.

      Indeed.

      Line 361: 'pairwise'.

      Typo, we changed this.

      Line 362: reference missing.

      Reference added (line 405)

      References

      Alarcón-Segura, V., Grass, I., Breustedt, G., Rohlfs, M., Tscharntke, T., 2022. Strip intercropping of wheat and oilseed rape enhances biodiversity and biological pest control in a conventionally managed farm scenario. J. Appl. Ecol. 59, 1513-1523.

      Boetzl, F.A., Sponsler, D., Albrecht, M., Batáry, P., Birkhofer, K., Knapp, M., Krauss, J., Maas, B., Martin, E.A., Sirami, C., Sutter, L., Bertrand, C., Baillod, A.B., Bota, G., Bretagnolle, V., Brotons, L., Frank, T., Fusser, M., Giralt, D., González, E., Hof, A.R., Luka, H., Marrec, R., Nash, M.A., Ng, K., Plantegenest, M., Poulin, B., Siriwardena, G.M., Tscharntke, T., Tschumi, M., Vialatte, A., Van Vooren, L., Zubair-Anjum, M., Entling, M.H., Steffan-Dewenter, I., Schirmel, J., 2024. Distance functions of carabids in crop fields depend on functional traits, crop type and adjacent habitat: a synthesis. Proceedings of the Royal Society B: Biological Sciences 291, 20232383.

      Hallmann, C.A., Sorg, M., Jongejans, E., Siepel, H., Hofland, N., Schwan, H., Stenmans, W., Müller, A., Sumser, H., Hörren, T., Goulson, D., de Kroon, H., 2017. More than 75 percent decline over 27 years in total flying insect biomass in protected areas. PLoS One 12, e0185809.

      Knapp, M., Seidl, M., Knappová, J., Macek, M., Saska, P., 2019. Temporal changes in the spatial distribution of carabid beetles around arable field-woodlot boundaries. Scientific Reports 9, 8967.

      Müller, J., Hothorn, T., Yuan, Y., Seibold, S., Mitesser, O., Rothacher, J., Freund, J., Wild, C., Wolz, M., Menzel, A., 2023. Weather explains the decline and rise of insect biomass over 34 years. Nature.

      Toivonen, M., Huusela, E., Hyvönen, T., Marjamäki, P., Järvinen, A., Kuussaari, M., 2022. Effects of crop type and production method on arable biodiversity in boreal farmland. Agriculture, Ecosystems & Environment 337, 108061.

      Reviewer #3 (Public review):

      Summary:

      In this paper, the authors made a sincere effort to show the effects of strip cropping, a technique of alternating crops in small strips of several meters wide, on ground beetle diversity. They state that strip cropping can be a useful tool for bending the curve of biodiversity loss in agricultural systems as strip cropping shows a relative increase in species diversity (i.e. abundance and species richness) of the ground beetle communities compared to monocultures. Moreover, strip cropping has the added advantage of not having to compromise on agricultural yields.

      Strengths:

      The article is well written; it has an easily readable tone of voice without too much jargon or overly complicated sentence structure. Moreover, as far as reviewing the models in depth without raw data and R scripts allows, the statistical work done by the authors looks good. They have well thought out how to handle heterogenous, yet spatially and temporarily correlated field data. The models applied and the model checks performed are appropriate for the data at hand. Combining RDA and PCA axes together is a nice touch.

      We thank reviewer 3 for their kind words and appreciation for the simple language and analysis that we used.

      Weaknesses:

      The evidence for strip cropping bringing added value for biodiversity is mixed at best. Yes, there is an increase in relative abundance and species richness at the field level, but it is not convincingly shown this difference is robust or can be linked to clear structural and hypothesised advantages of the strip cropping system. The same results could have been used to conclude that there are only very limited signs of real added value of strip cropping compared to monocultures.

      Point well taken. We agree that the effect of strip cropping on carabid beetle communities are subtle and we nuanced the text in the revised version to reflect this. See below for more details on how we revised the manuscript to reflect this point.

      There are a number of reasons for this:

      (1) Significant differences disappear at crop level, as the authors themselves clearly acknowledge, meaning that there are no differences between pairs of similar crops in the strip cropping fields and their respective monoculture. This would mean the strips effectively function as "mini-monocultures".

      This is indeed in line with our conclusions. Based on our data and results, the advantages of strip cropping seem mostly to occur because crops with different communities are now on the same field, rather than that within the strips you get mixtures of communities related to different crops. We discussed this in the first paragraph of the discussion in the original submission (line 161-164).

      The significant relative differences at the field level could be an artifact of aggregation instead of structural differences between strip cropping and monocultures; with enough data points things tend to get significant despite large variance. This should have been elaborated further upon by the authors with additional analyses, designed to find out where differences originate and what it tells about the functioning of the system. Or it should have provided ample reason for cautioning in drawing conclusions about the supposed effectiveness of strip cropping based on these findings.

      We believe that this is a misunderstanding of our approach. In the field-level analyses we pooled samples from the same field (i.e. pseudo-replicates were pooled), resulting in a relatively small sample size of 50 samples. We revised the methods section to better explain this (line 318-322). Therefore, the statement “with enough data points things tend to get significant” is not applicable here.

      (2) The authors report percentages calculated as relative change of species richness and abundance in strip cropping compared to monocultures after rarefaction. This is in itself correct, however, it can be rather tricky to interpret because the perspective on actual species richness and abundance in the fields and treatments is completely lost; the reported percentages are dimensionless. The authors could have provided the average cumulative number of species and abundance after rarefaction. Also, range and/or standard error would have been useful to provide information as to the scale of differences between treatments. This could provide a new perspective on the magnitude of differences between the two treatments which a dimensionless percentage cannot.

      We agree that this would be the preferred approach if we would have had a perfectly balanced dataset. However, this approach is not feasible with our unbalanced design and differences in sampling effort. While we acknowledge the limitation of the interpretation of percentages, it does allow reporting relative changes for each combination of location, year and crop. The number of samples on which the percentages were based were always kept equal (through rarefaction) between the cropping systems (for each combination of location, year and crop), but not among crops, years and location. This approach allowed us to make a better estimation whenever more samples were available, as we did not always have an equal number of samples available between both cropping systems. For example, sometimes we had 2 samples from a strip cropped field and 6 from the monoculture, here we would use rarefaction up to 2 samples (where we would just have a better estimation from the monoculture). In other cases, we had 4 samples in both strip cropped and monoculture fields, and we chose to use rarefaction to 4 samples to get a better estimation altogether. Adding a value for actual richness or abundance to the figures would have distorted these findings, as the variation would be huge (as it would represent the number of ground beetle(s) species per 2 to 6 pitfall samples). Furthermore, the dimension that reviewer 3 describes would thus be “The number of ground beetle species / individuals per 2 to 6 samples”, not a very informative unit either.

      (3) The authors appear to not have modelled the abundance of any of the dominant ground beetle species themselves. Therefore it becomes impossible to assess which important species are responsible (if any) for the differences found in activity density between strip cropping and monocultures and the possible life history traits related reasons for the differences, or lack thereof, that are found. A big advantage of using ground beetles is that many life history traits are well studied and these should be used whenever there is reason, as there clearly is in this case. Moreover, it is unclear which species are responsible for the difference in species richness found at the field level. Are these dominant species or singletons? Do the strip cropping fields contain species that are absent in the monoculture fields and are not the cause of random variation or sampling? Unfortunately, the authors do not report on any of these details of the communities that were found, which makes the results much less robust.

      Thank you for raising this point. We have reconsidered our indicator species analysis and found that it is rather sensitive for rare species and insensitive to changes in common species. Therefore, we have replaced the indicator species analyses with a GLM analysis for the 12 most common genera of ground beetles in the revised manuscript. This will allow us to go more in depth on specific traits of the genera which abundances change depending on the cropping system. In the revised manuscript, we will also discuss these common genera more in depth, rather than focusing on rarer species (line 135-143, 182-200 in discussion). Furthermore, we have added information on rarity and habitat preference to the table that shows species abundances per location (Table S2), and mention these aspects briefly in the results (line 145-153).

      (4) In the discussion they conclude that there is only a limited amount of interstrip movement by ground beetles. Otherwise, the results of the crop-level statistical tests would have shown significant deviation from corresponding monocultures. This is a clear indication that the strips function more like mini-monocultures instead of being more than the sum of its parts.

      This is in line with our point in the first paragraph of the discussion and an important message of our manuscript.

      (5) The RDA results show a modelled variable of differences in community composition between strip cropping and monoculture. Percentages of explained variation of the first RDA axis are extremely low, and even then, the effect of location and/or year appear to peak through (Figure S3), even though these are not part of the modelling. Moreover, there is no indication of clustering of strip cropping on the RDA axis, or in fact on the first principal component axis in the larger RDA models. This means the explanatory power of different treatments is also extremely low. The crop level RDA's show some clustering, but hardly any consistent pattern in either communities of crops or species correlations, indicating that differences between strip cropping and monocultures are very small.

      We agree and we make a similar point in the first paragraph of the discussion (line 160-162).

      Furthermore, there are a number of additional weaknesses in the paper that should be addressed:

      The introduction lacks focus on the issues at hand. Too much space is taken up by facts on insect decline and land sharing vs. land sparing and not enough attention is spent on the scientific discussion underlying the statements made about crop diversification as a restoration strategy. They are simply stated as facts or as hypotheses with many references that are not mentioned or linked to in the text. An explicit link to the results found in the large number of references should be provided.

      We revised the introduction by omitting the land sharing vs. land sparing topic and better linking references to our research findings.

      The mechanistic understanding of strip cropping is what is at stake here. Does strip cropping behave similarly to intercropping, a technique that has been proven to be beneficial to biodiversity because of added effects due to increased resource efficiency and greater plant species richness? This should be the main testing point and agenda of strip cropping. Do the biodiversity benefits that have been shown for intercropping also work in strip cropping fields? The ground beetles are one way to test this. Hypotheses should originate from this and should be stated clearly and mechanistically.

      We agree with the reviewer and clarified this research direction clearer in the introduction of the revised manuscript (line 66-72).

      One could question how useful indicator species analysis (ISA) is for a study in which predominantly highly eurytopic species are found. These are by definition uncritical of their habitat. Is there any mechanistic hypothesis underlying a suspected difference to be found in preferences for either strip cropping or monocultures of the species that were expected to be caught? In other words, did the authors have any a priori reasons to suspect differences, or has this been an exploratory exercise from which unexplained significant results should be used with great caution?

      Point well taken. We agree that the indicator species analysis has limitations and therefore now replaced this with GLM analysis for the 12 most common ground beetle genera.

      However, setting these objections aside there are in fact significant results with strong species associations both with monocultures and strip cropping. Unfortunately, the authors do not dig deeper into the patterns found a posteriori either. Why would some species associate so strongly with strip cropping? Do these species show a pattern of pitfall catches that deviate from other species, in that they are found in a wide range of strips with different crops in one strip cropping field and therefore may benefit from an increased abundance of food or shelter? Also, why would so many species associate with monocultures? Is this in any way logical? Could it be an artifact of the data instead of a meaningful pattern? Unfortunately, the authors do not progress along these lines in the methods and discussion at all.

      We thank reviewer 3 for these valuable perspectives. In the revised manuscript, we further explored the species/genera that respond to cropping systems and discuss these findings in more detail in the revised manuscript (line 182-200 in discussion).

      A second question raised in the introduction is whether the arable fields that form part of this study contain rare species. Unfortunately, the authors do not elaborate further on this. Do they expect rare species to be more prevalent in the strip cropping fields? Why? Has it been shown elsewhere that intercropping provides room for additional rare species?

      The answer is simply no, we did not find more rare species in strip cropping. In the revised manuscript, we added a column for rarity (according to waarneming.nl) in the table showing abundances of species per location (table S2). We only found two rare species, one of which we only found a single individual and one that was more related to the open habitat created by a failed wheat field. We discuss this more in depth in the revised results (line 145-153).

      Considering the implications the results of this research can have on the wider discussion of bending the curve and the effects of agroecological measures, bold claims should be made with extreme restraint and be based on extensive proof and robust findings. I am not convinced by the evidence provided in this article that the claim made by the authors that strip cropping is a useful tool for bending the curve of biodiversity loss is warranted.

      We believe that strip cropping can be a useful tool because farmers readily adopt it and it can result in modest biodiversity gains without yield loss. However, strip cropping is indeed not a silver bullet (which we also don’t claim). We nuanced the implications of our study in the revised manuscript (line 30-35, 232-237).

      Reviewer #3 (Recommendations for the authors):

      General comments:

      (1) I am missing the R script and data files in the manuscript. This is a serious drawback in assessing the quality of the work.

      Datasets and R scripts will be made available upon completion of the manuscript.

      (2) I have doubts about the clarity of the title. It more or less states that strip cropping is designed in order to maintain productivity. However, the main objective of strip cropping is to achieve ecological goals without losing productivity. I suggest a rethink of the title and what it is the authors want to convey.

      As the title lead to false expectations for multiple reviewers regarding analyses on yield, we chose to alter the title and removed any mention of yield in the title.

      (3) Line 22: I would add something along the lines of: "As an alternative to intercropping, strip cropping is pioneerd by Dutch farmers... " This makes the distinction and the connection between the two more clear.

      In our opinion, strip cropping is a form of intercropping. We have changed this sentence to reflect this point better. (line 21-22)

      (4) Line 24: "these" should read "they"

      After changing this sentence, this typo is no longer there (line 24).

      (5) Line 34-48. I think this introduction is too long. The paper is not directly about insect decline, so the authors could consider starting with line 43 and summarising 34-42 in one or two sentences.

      Removed a sentence on insect declines here to make the introduction more streamlined.

      (6) Line 51-59. I am not convinced the land sparing - land sharing idea adds anything to the paper. It is not used in the discussion and solicits much discussion in and of itself unnecessary in this paper. The point the authors want to make is not arable fields compared to natural biodiversity, but with increases in biodiversity in an already heavily degraded ecosystem; intensive agriculture. I think the introduction should focus on that narrative, instead of the land sparing-sharing dichotomy, especially because too little attention is spent on this narrative.

      We removed the section on land-sparing vs land-sharing as it was indeed off-topic.

      (7) Line 85. Dynamics is not correctly used here. It should read Ground beetle communities are sensitive.

      Changed accordingly (line 78-79).

      (8) Line 90-91. Here, it should be added that ground beetles are used as indicators for ground-dwelling insect diversity, not wider insect diversity in agricultural systems. In fact, Gerlach et al., the reference included, clearly warn against using indicator groups in a context that is too wide for a single indicator group to cover and Van Klink (2022) has recently shown in a meta-analysis that the correlation between trends in insect groups is often rather poor.

      We removed the sentence that claimed ground beetles to be indicators of general biodiversity, and have focused the text in general more on ground beetle biodiversity, rather than general biodiversity.

      (9) Line 178: was there a high weed abundance measured in the stripcropping fields? Or has there been reports on higher weed abundance in general? The references provided do not appear to support this claim.

      To our knowledge, there is only one paper on the effect of strip cropping on weeds (Ditzler et al., 2023). This paper shows strip cropping (and more diverse cropping systems) reduce weed cover, but increase weed richness and diversity. We mistakenly mentioned that crop diversification increases weed seed biomass, but have changed this accordingly to weed seed richness. The paper from Carbonne et al. (2022) indeed doesn’t show an effect of crop diversification on weeds. However, it does show a positive relation between weed seed richness and ground beetle activity density. We have moved this citation to the right place in the sentence (line 172-175).

      (10) Line 279-288. The description of sampling with pitfalls is inadequate. Please follow the guidelines for properly incorporating sufficient detail on pitfall sampling protocols as described in Brown & Matthews 2016,

      We were sadly not aware of this paper prior to the experiments, but have at least added information on all characteristics of the pitfall traps as mentioned in the paper (line 290-294).

      (11) Lines 307-310. What reasoning lies behind the choice to focus on the most beetle-rich monocultures? Do the authors have references for this way of comparing treatments? Is there much variation in the monocultures that solicits this approach? It would be preferable if the authors could elaborate on why this method is used, provide references that it is a generally accepted statistical technique and provide additional assesments of the variation in the data so it can be properly related to more familiar exploratory data analysis techniques.

      We ran two analyses for the field-level richness and abundance. First we used all combinations of monocultures and strip cropping. However, as strip cropping is made up of (at least) 2 crops, we had 2 constituent monocultures. As we would count a comparison with the same strip cropped field twice when we included both monocultures, we also chose to run the analyses again with only those monocultures that had the highest richness and abundance. This choice was done to get a conservative estimate of ground beetle richness increases through strip cropping. We explained this methodology further in the statistical analysis section (line 329-335).

      In Figure S6 the order of crop combinations is altered between 2021 on the left and 2022 on the right. This is not helpful to discover any possible patterns.

      We originally chose this order as it represented also the crop rotations, but it is indeed not helpful without that context. Therefore, we chose to change the order to have the same crop combinations within the rows.

    1. Author response:

      The following is the authors’ response to the previous reviews.

      Public Reviews:

      Reviewer #1 (Public review):

      Summary:

      Recent work has demonstrated that the hummingbird hawkmoth, Macroglossum stellatarum, like many other flying insects, use ventrolateral optic flow cues for flight control. However, unlike other flying insects, the same stimulus presented in the dorsal visual field, elicits a directional response. Bigge et al., use behavioral flight experiments to set these two pathways in conflict in order to understand whether these two pathways (ventrolateral and dorsal) work together to direct flight and if so, how. The authors characterize the visual environment (the amount of contrast and translational optic flow) of the hawkmoth and find that different regions of the visual field are matched to relevant visual cues in their natural environment and that the integration of the two pathways reflects a prioritization for generating behavior that supports hawkmoth safety rather than the prevalence for a particular visual cue that is more prevalent in the environment.

      Strengths:

      This study creatively utilizes previous findings that the hawkmoth partitions their visual field as a way to examine parallel processing. The behavioral assay is well-established and the authors take the extra steps to characterize the visual ecology of the hawkmoth habitat to draw exciting conclusions about the hierarchy of each pathway as it contributes to flight control.

      Reviewer #2 (Public review):

      Summary

      Bigge and colleagues use a sophisticated free-flight setup to study visuo-motor responses elicited in different parts of the visual field in the hummingbird hawkmoth. Hawkmoths have been previously shown to rely on translational optic flow information for flight control exclusively in the ventral and lateral parts of their visual field. Dorsally presented patterns, elicit a formerly completely unknown response - instead of using dorsal patterns to maintain straight flight paths, hawkmoths fly, more often, in a direction aligned with the main axis of the pattern presented (Bigge et al, 2021). Here, the authors go further and put ventral/lateral and dorsal visual cues into conflict. They found that the different visuomotor pathways act in parallel, and they identified a 'hierarchy': the avoidance of dorsal patterns had the strongest weight and optic flow-based speed regulation the lowest weight. The authors linked their behavioral results to visual scene statistics in the hawkmoths' natural environment. The partition of ventral and dorsal visuomotor pathways is well in line with differences in visual cue frequencies. The response hierarchy, however, seems to be dominated by dorsal features, that are less frequent, but presumably highly relevant for the animals' flight safety.

      Strengths

      The data are very interesting and unique. The manuscript provides a thorough analysis of free-flight behavior in a non-model organism that is extremely interesting for comparative reasons (and on its own). These data are both difficult to obtain and very valuable to the field.

      Weaknesses

      While the present manuscript clearly goes beyond Bigge et al, 2021, the advance could have perhaps been even stronger with a more fine-grained investigation of the visual responses in the dorsal visual field. Do hawkmoths, for example, show optomotor responses to rotational optic flow in the dorsal visual field?

      I find the majority of the data, which are also the data supporting the main claims of the paper, compelling. However, the measurements of flight height are less solid than the rest and I think these data should be interpreted more carefully.

      Reviewer #3 (Public review):

      The authors have significantly improved the paper in revising to make its contributions distinct from their prior paper. They have also responded to my concerns about quantification and parameter dependency of the integration conclusion. While I think there is still more that could be done in this capacity, especially in terms of the temporal statistics and quantification of the conflict responses, they have a made a case for the conclusions as stated. The paper still stands as an important paper with solid evidence a bit limited by these concerns.

      Recommendations for the authors:

      Reviewer #1 (Recommendations for the authors):

      The edits have significantly improved the clarity of the manuscript. A few small notes:

      Figure 2B legend - describe what the orange dashed line represents

      We added a description.

      Figure 2B legend - references Table 1 but I believe this should reference Table S1. There are other places in the manuscript where Table 1 is referenced and it should reference S1

      We changed this for all instances in the main paper and supplement, where the reference was wrong.

      Figure S1 legend - some figure panel letters are in parentheses while others are not

      We unified the notation to not use parentheses for any of the panel letters.

      Reviewer #2 (Recommendations for the authors):

      I couldn't find the l, r, d, v indications in Fig. 1a. This was just a suggestion, but since you wrote you added them, I was wondering if this is the old figure version.

      We added them to what is now Fig. 2, which was originally part of Fig. 1. After restructuring, we did indeed not add an additional set to Fig. 1, which we have now adjusted.

      Fig. 2: Adding 'optic flow' and 'edges' to the y-axis in panels E and F, would make it faster for me to parse the figure. Maybe also add the units for the magnitudes? Same for Figure 6B

      We added 'optic flow' and 'edges' to the panels E and F in Fig. 2 and Fig. 6.

      Fig. 2: Very minor - could you use the same pictograms in D and E&F (i.e. all circles for example, instead of switching to "tunnels" in EF)?

      We used the tunnel pictograms, because we associated those with the short notations for the different conditions summarised in Table S1. Because we wanted to keep this consistent across the paper, we used the “tunnel” pictograms here too.

      In the manuscript, you still draw lots of conclusions based on these area measurements (L132-142, L204-209 etc). This does not fully reflect what you wrote in your reply to the reviewers. If you think of these measurements as qualitative rather than quantitative, I would say so in the manuscript and not use quantitative statistics etc. My suggestion would be to be more specific about potential issues that can influence the measurement (you mentioned body size, image contrast, motion blur, pitch across conditions etc) and give that data not the same weight as the rest of the measurements.

      We do express explicit caution with this measure in the methods section (l. 657-659) and the results section (l. 135-137). Nevertheless, as the trends in the data are consistent with optic flow responses in the other planes, and with responses reported in the literature, we felt that it is valuable to report the data, as well as the statistics for all readers, who can – given out cautionary statement – assess the data accordingly.

      The area measurements suggest that moths fly lower with unilateral vertical gratings (Fig. S1, G1 and G2 versus the rest). If you leave the data in can you speculate why that would be? (Sorry if I missed that)

      We agree, this seems quite consistent, but we do not have a good explanation for this observation. It would certainly require some additional experiments and variable conditions to understand what causes this phenomenon.

      Fig.4 - is panel B somehow flipped? Shouldn't the flight paths start out further away from the grating and then be moved closer to midline (as in A). That plot shows the opposite.

      Absolutely right, thank you for spotting this, it was indeed an intermediate and not the final figure which was uploaded to the manuscript. It also had outdated letter-number identifiers, which we now updated.

      L198 - should be "they avoided"

      Corrected.

    1. Sin embargo, estos resultados no reflejan el comportamiento esperado. Por un lado, seanticipaba que el valor de FR disminuyera sistemáticamente al aumentar la capacidad, y porotro, que todos los valores con capacitor fueran inferiores al caso sin capacitor. Esto noocurrió

      Veo que en los gráficos la figura 9 y 10 la señal de salida muestra valores negativos, imagino que midieron solo la componente AC de la señal de salida para tener una mayor resolución. Tenían que haber aclarado eso en el texto, es importante transparentar este tipo de cosas. En este caso, es importante también mostrar la señal con la componente de continua para visualizar mejor el efecto del ripple sobre la señal original.

    2. Particularmente, como, la aproximaciónτ𝑐=10μ𝐹 = (0. 01168 ± 0. 00058)𝑠 ≫ 𝑇 = (0. 001695 ± 0. 000085)𝑠resulta adecuada y parala aproximaciónτ𝑐=100μ𝐹 = (0. 1168 ± 0. 0058) 𝑠 ≫ 𝑇 = (0. 001695 ± 0. 000085) 𝑠resulta aún mejor.

      Esto queda un poco desprolijo, mejor escribir esas ecuaciones línea a línea

    3. Si la resolución delinstrumental lo permitiera, se podrían comparar directamente con la expresión generalmediante mediciones más precisas de ΔV y Vmed.12

      Esto parece ser más un problema de ruido en el circuito que de resolución de instrumental

    4. Fig. 4:

      Indicar en la leyenda que la barra de error es la barra de no es recomendable. Los títulos en los gráficos tampoco. Hubiese estado bien indicar que la figura tiene dos paneles (a) y (b). Que el gráfico de arriba, que es el más importante, no tenga ticks labels en el eje x no ayuda nada al lector

    1. Author response:

      The following is the authors’ response to the original reviews.

      Public Reviews:

      Reviewer #1 (Public review):

      (1) Why was V1 separated from the rest of the visual cortex, and why the rest of the areas were simply lumped into an EVC ROI? It would be helpful to understand the separation into ROIs.

      We thank the reviewer for raising the concerns regarding the definition of ROI. Our approach to analyze V1 separately was based on two key considerations. First, previous studies consistently identify V1 as the main locus of sensory-like templates during featurespecific preparatory attention (Kok et al., 2014; Aitken et al., 2020). Second, V1 shows the strongest orientation selectivity within the visual hierarchy (Priebe, 2016). In contrast, the extrastriate visual cortex (EVC; comprising V2, V2, V3AB and V4) demonstrates broader selectivity, such as complex features like contour and texture (Grill-Spector & Malach, 2004). Thus, we think it would be particularly informative to analyze V1 data separately as our experiment examines orientation-based attention. We should also note that we conducted MVPA separately for each visual ROIs (V2, V3, V3AB and V4). After observing similar patterns of results across these regions, we averaged the decoding accuracies into a single value and labeled it as EVC. This approach allowed us to simplify data presentation while preserving the overall data pattern in decoding performance. We now added the related explanations on the ROI definition in the revised texts (Page 26; Line 576-581).

      (2) It would have been helpful to have a behavioral measure of the "attended" orientation to show that participants in fact attended to a particular orientation and were faster in the cued condition. The cue here was 100% valid, so no such behavioral measure of attention is available here.

      We thank the reviewer for the comments. We agree that including valid and neutral cue trials would have provided valuable behavioral measures of attention; Yet, our current design was aimed at maximizing the number of trials for decoding analysis due to fMRI time constraints. Thus, we could not fit additional conditions to measure the behavioral effects of attention. However, we note that in our previous studies using a similar feature cueing paradigm, we observed benefits of attentional cueing on behavioral performance when comparing valid and neutral conditions (Liu et al., 2007; Jigo et al., 2018). Furthermore, our neural data indeed demonstrated attention-related modulation (as indicated by MVPA results, Fig. 2 in the main texts) so we are confident that on average participants followed the instruction and deployed their attention accordingly. We now added the related explanations on this point in the revised texts (Page 23; Line 492-498).

      (3) As I was reading the manuscript I kept thinking that the word attention in this manuscript can be easily replaced with visual working memory. Have the authors considered what it is about their task or cognitive demand that makes this investigation about attention or working memory?

      We thank the reviewer for this comment. We added the following extensive discussion on this point in the revised texts (Page 18; Line 363-381).

      “It could be argued that preparatory attention relies on the same mechanisms as working memory maintenance. While these functions are intuitively similar and likely overlap, there is also evidence indicating that they can be dissociated (Battistoni et al., 2017). In particular, we note that in our task, attention is guided by symbolic cues (color-orientation associations), while working memory tasks typically present the actual visual stimulus as the memorandum. A central finding in working memory studies is that neural signals during WM maintenance are sensory in nature, as demonstrated by generalizable neural activity patterns from stimulus encoding to maintenance in visual cortex (Harrison & Tong, 2009; Serences et al., 2009; Rademaker et al., 2019). However, in our task, neural signals during preparation were nonsensory, as demonstrated by a lack of such generalization in the No-Ping session (see also Gong et al., 2022). We believe that the differences in cue format and task demand in these studies may account for such differences. In addition to the difference in the sensory nature of the preparatory versus delay-period activity, our ping-related results also exhibited divergence from working memory studies (Wolff et al., 2017; 2020). While these studies used the visual impulse to differentiate active and latent representations of different items (e.g., attended vs. unattended memory item), our study demonstrated the active and latent representations of a single item in different formats (i.e., non-sensory vs. sensory-like). Moreover, unlike our study, the impulse did not evoke sensory-like neural patterns during memory retention (Wolff et al., 2017). These observations suggest that the cognitive and neural processes underlying preparatory attention and working memory maintenance could very well diverge. Future studies are necessary to delineate the relationship between these functions both at the behavioral and neural level.”

      (4) If I understand correctly, the only ROI that showed a significant difference for the crosstask generalization is V1. Was it predicted that only V1 would have two functional states? It should also be made clear that the only difference where the two states differ is V1.

      We thank the reviewer for this comment. We would like to clarify that our analyses revealed similar patterns of preparatory attentional representations in V1 and EVC. During the Ping session, the cross-task generalization analyses revealed decodable information in both V1 and EVC (ps < 0.001), significantly higher than that in the No-Ping session for V1 (independent t-test: t(38) = 3.145, p = 0.003; Cohen’s d = 0.995) and EVC (independent t-test: t(38) = 2.153, p = 0.038, Cohen’s d = 0.681) (Page 10; Line 194-196). While both areas maintained similar representations, additional measures (Mahalanobis distance, neural-behavior relationship and connectivity changes) showed more robust ping-evoked changes in V1 compared to EVC. This differential pattern likely reflects the primary role of V1 in orientation processing, with EVC showing a similar but weaker response profile. We have revised the text to clarity this point (Page 16; Line 327-329).

      (5) My primary concern about the interpretation of the finding is that the result, differences in cross-task decoding within V1 between the ping and no-ping condition might simply be explained by the fact that the ping condition refocuses attention during the long delay thus "resharpening" the template. In the no-ping condition during the 5.5 to 7.5 seconds long delay, attention for orientation might start getting less "crisp." In the ping condition, however, the ping itself might simply serve to refocus attention. So, the result is not showing the difference between the latent and non-latent stages, rather it is the difference between a decaying template representation and a representation during the refocused attentional state. It is important to address this point. Would a simple tone during the delay do the same? If so, the interpretation of the results will be different.

      We thank the reviewer for this comment. The reviewer proposed an alternative account suggesting that visual pings may function to refocus attention, rather than reactivate latent information during the preparatory period. If this account holds (i.e., attention became weaker in the no-ping condition and it was strengthened by the ping due to re-focusing), we would expect to observe a general enhancement of attentional decoding during the preparatory period. However, our data reveal no significant differences in overall attention decoding between two conditions during this period (ps > 0.519; BF<sub>excl</sub> > 3.247), arguing against such a possibility.

      The reviewer also raised an interesting question about whether an auditory tone during preparation could produce effects similar to those observed with visual pings. Although our study did not directly test this possibility, existing literature provides some relevant evidence. In particular, prior studies have shown that latent visual working memory contents are selectively reactivated by visual impulses, but not by auditory stimuli (Wolff et al., 2020). This finding supports the modality-specificity for visually encoded contents, suggesting that sensory impulses must match the representational domain to effectively access latent visual information, which also argues against the refocusing hypothesis above. However, we do think that this is an important question that merits direct investigation in future studies. We now added the related discussion on this point in the revised texts (Page 10, Line 202-203; Page 19, Line 392395).

      (6) The neural pattern distances measured using Mahalanobis values are really great! Have the authors tried to use all of the data, rather than the high AMI and low AMI to possibly show a linear relationship between response times and AMI?

      We thank the reviewer for this comment. We took the reviewer’s suggestion to explore the relationship between attentional modulation index (AMI) and RTs across participants for each session (see Figure 3). In the No-Ping session, we observed no significant correlation between AMI and RT (r = -0.366, p = 0.113). By contrast, the same analysis in the Ping condition revealed a significantly negative correlation (r = -0.518, p = 0.019). These results indicate that the attentional modulations evoked by visual impulse was associated with faster RTs, supporting the functional relevance of activating sensory-like representations during preparation. We have now included these inter-subject correlations in the main texts (Page 13, Line 258-264; Fig 3D and 3E) along with within-subject correlations in the Supplementary Information (Page 6, Line, 85-98; S3 Fig).

      (7) After reading the whole manuscript I still don't understand what the authors think the ping is actually doing, mechanistically. I would have liked a more thorough discussion, rather than referencing previous papers (all by the co-author).

      We thank the reviewer for this comment regarding the mechanistic basis of visual pings. We agree that this warrants deeper discussion. One possibility, as informed by theoretical studies of working memory, is that the sensory-like template could be maintained via an “activity-silent” mechanism through short-term changes in synaptic weights (Mongillo et al., 2008). In this framework, a visual impulse may function as nonspecific inputs that momentarily convert latent traces into detectable activity patterns (Rademaker & Serences, 2017). Related to our findings, it is unlikely that the orientation-specific templates observed during the Ping session emerged from purely non-sensory representations and were entirely induced by an exogenous ping, which was devoid of any orientation signal. Instead, the more parsimonious explanation is that visual impulse reactivated pre-existing latent sensory signals. To our knowledge, the detailed circuit-level mechanism of such reactivation is still unclear; existing evidence only suggests a relationship between ping-evoked inputs and the neural output (Wolff et al., 2017; Fan et al., 2021; Duncan et al., 2023). We now included the discussion on this point in the main texts (Page 19, Line 383-401).

      Reviewer #2 (Public review):

      (1) The origin of the latent sensory-like representation. By 'pinging' the neural activity with a high-contrast, task-irrelevant visual stimulus during the preparation period, the authors identified the representation of the attentional feature target that contains the same information as perceptual representations. The authors interpreted this finding as a 'sensory-like' template is inherently hosted in a latent form in the visual system, which is revealed by the pinging impulse. However, I am not sure whether such a sensory-like template is essentially created, rather than revealed, by the pinging impulses. First, unlike the classical employment of the pinging technique in working memory studies, the (latent) representation of the memoranda during the maintenance period is undisputed because participants could not have performed well in the subsequent memory test otherwise. However, this appears not to be the case in the present study. As shown in Figure 1C, there was no significant difference in behavioral performance between the ping and the no-ping sessions (see also lines 110-125, pg. 5-6). In other words, it seems to me that the subsequent attentional task performance does not necessarily rely on the generation of such sensory-like representations in the preparatory period and that the emergence of such sensory-like representations does not facilitate subsequent attentional performance either. In such a case, one might wonder whether such sensory-like templates are really created, hosted, and eventually utilized during the attentional process. Second, because the reference orientations (i.e. 45 degrees and 135 degrees) have remained unchanged throughout the experiment, it is highly possible that participants implicitly memorized these two orientations as they completed more and more trials. In such a case, one might wonder whether the 'sensory-like' templates are essentially latent working memory representations activated by the pinging as was reported in Wolff et al. (2017), rather than a functional signature of the attentional process.

      We thank the reviewer for this comment. We agree that the question of whether the sensory-like template is created or merely revealed by visual pinging is crucial for the understanding our findings. First, we acknowledge that our task may not be optimized for detecting changes in accuracy, as the task difficulty was controlled using individually adjusted thresholds (i.e., angular difference). Nevertheless, we observed some evidence supporting the neural-behavioral relationships. In particular, the impulse-driven sensory-like template in V1 contributed to facilitated faster RTs during stimulus selection (Page 12, Fig. 3D and 3E in the main texts; also see our response to R1, Point 6).

      Second, the reviewer raised an important concern about whether the attended feature might be stored in the memory system due to the trial-by-trial repetition of attention conditions (attend 45º or attend 135º). Although this is plausible, we don’t think it is likely. We note that neuroimaging evidence shows that attended working memory contents maintain sensory-like representations in visual cortex (Harrison & Tong, 2009; Serences et al., 2009; Rademaker et al., 2019), with generalizable neural activity patterns from perception to working memory delay-period, whereas unattended items in multi-item working memory tasks are stored in a latent state for prospective use (Wolff et al., 2017). Importantly, our task only required maintaining a single attentional template at a time. Thus, there was no need to store it via latent representations, if participants simply used a working memory mechanism for preparatory attention. Had they done so, we should expect to find evidence for a sensory template, i.e., generalizable neural pattern between perception and preparation in the No-Ping condition, which was not what we found. We have mentioned this point in the main texts (Page 18, Line 367-372).

      (2) The coexistence of the two types of attentional templates. The authors interpreted their findings as the outcome of a dual-format mechanism in which 'a non-sensory template' and a latent 'sensory-like' template coexist (e.g. lines 103-106, pg. 5). While I find this interpretation interesting and conceptually elegant, I am not sure whether it is appropriate to term it 'coexistence'. First, it is theoretically possible that there is only one representation in either session (i.e. a non-sensory template in the no-ping session and a sensory-like template in the ping session) in any of the brain regions considered. Second, it seems that there is no direct evidence concerning the temporal relationship between these two types of templates, provided that they commonly emerge in both sessions. Besides, due to the sluggish nature of fMRI data, it is difficult to tell whether the two types of templates temporally overlap.

      We thank the reviewer for the comment regarding our interpretation of the ‘coexistence’ of non-sensory and sensory-like attentional template. While we acknowledge the limitations of fMRI in resolving temporal relationships between these two types of templates, several aspects of our data support a dual-format interpretation.

      First, our key findings remained consistent for the subset of participants (N=14) who completed both No-Ping and Ping sessions in counterbalanced order. It thus seems improbable that participants systematically switched cognitive strategies (e.g., using non-sensory templates in the No-Ping session versus sensory-like templates in the Ping session) in response to the task-irrelevant, uninformative visual impulse. Second, while we agree with the reviewer that the temporal dynamics between these two templates remain unclear, it is difficult to imagine that orientation-specific templates observed during the Ping session emerged de novo from a purely non-sensory templates and an exogenous ping. In other words, if there is no orientation information at all to begin with, how does it come into being from an orientation-less external ping? It seems to us that the more parsimonious explanation is that there was already some orientation signal in a latent format, and it was activated by the ping, in line with the models of “activity-silent” working memory. To address these concerns, we have added the related discussion of these alternative interpretations in the main texts (Page 19, Line 387-391)

      (3) The representational distance. The authors used Mahalanobis distance to quantify the similarity of neural representation between different conditions. According to the authors' hypothesis, one would expect greater pattern similarity between 'attend leftward' and 'perceived leftward' in the ping session in comparison to the no-ping session. However, this appears not to be the case. As shown in Figures 3B and C, there was no major difference in Mahalanobis distance between the two sessions in either ROI and the authors did not report a significant main effect of the session in any of the ANOVAs. Besides, in all the ANOVAs, the authors reported only the statistic term corresponding to the interaction effect without showing the descriptive statistics related to the interaction effect. It is strongly advised that these descriptive statistics related to the interaction effect should be included to facilitate a more effective and intuitive understanding of their data.

      We thank the reviewer for this comment. We expected greater pattern similarity between 'attend leftward' and 'perceived leftward' in the Ping session in comparison to the Noping session. This prediction was supported by a significant three-way interaction effect between session × attended orientation × perceived orientation (F(1,38) = 5.00, p = 0.031, η<sub>p</sub><sup>2</sup> = 0.116). In particular, there was a significant interaction between attended orientation × perceived orientation (F(1,19) = 9.335, p = 0.007, η<sub>p</sub><sup>2</sup> = 0.329) in the Ping session, but not in the No-Ping session (F(1,19) = 0.017, p = 0.898, η<sub>p</sub><sup>2</sup> = 0.001). These above-mentioned statistical results were reported in the original texts. In addition, this three-way mixed ANOVA (session × attended orientation × perceived orientation) on Mahalanobis distance in V1 revealed no significant main effects (session: F(1,38) = 0.009, p = 0.923, η<sub>p</sub><sup>2</sup> < 0.001; attended orientation: F(1,38) = 0.116, p = 0.735, η<sub>p</sub><sup>2</sup> = 0.003; perceived orientation: (F(1,38) = 1.106, p = 0.300, η<sub>p</sub><sup>2</sup> = 0.028). We agree with the reviewer that a complete reporting of analyses enhances understanding of the data. Therefore, we have now included the main effects in the main texts (Page 11, Line 233).

      We thank the reviewer for the suggestion regarding the inclusion of descriptive statistics for interaction effects. However, since the data were already visualized in Fig. 3B and 3C in the main texts, to maintain conciseness and consistency with the reporting style of other analyses in the texts, we have opted to include these statistics in the Supplementary Information (Page 5, Table 1).

      Reviewer #3 (Public review):

      (1) The title is "Dual-format Attentional Template," yet the supporting evidence for the nonsensory format and its guiding function is quite weak. The author could consider conducting further generalization analysis from stimulus selection to preparation stages to explore whether additional information emerges.

      We thank the reviewer for this comment. Our approach to investigate whether preparatory attention is encoded in sensory or non-sensory format - by training classifier using separate runs of perception task – closely followed methods from previous studies (Stokes et al., 2009; Peelen et al., 2011; Kok et al., 2017). Following the reviewer’s suggestion, we performed generalization analyses by training classifiers on activity during the stimulus selection period and testing them preparatory activity. However, we observed no significant generalization effects in either No-Ping and Ping sessions (ps > 0.780). This null result may stem from a key difference in the neural representations: classifiers trained on neural activity from stimulus selection period necessarily encode both target and distractor information, thus relying on somewhat different information than classifier trained exclusively on isolated target information in the perception task.

      (2) In Figure 2, the author did not find any decodable sensory-like coding in IPS and PFC, even during the impulse-driven session, indicating that these regions do not represent sensory-like information. However, in the final section, the author claimed that the impulse-driven sensorylike template strengthens informational connectivity between sensory and frontoparietal areas. This raises a question: how can we reconcile the lack of decodable coding in these frontoparietal regions with the reported enhancement in network communication? It would be helpful if the author provided a clearer explanation or additional evidence to bridge this gap.

      We thank the reviewer for this comment. We would like to clarity that although we did not observe sensory-like coding during preparation in frontoparietal areas, we did observe attentional signals in these regions, as evidenced by the above-chance within-task attention decoding performance (Fig. 2 in the main texts). This could reflect different neural codes in different areas, and suggests that inter-regional communication does not necessarily require identical representational formats. It seems plausible that the representation of a non-sensory attentional template in frontoparietal areas supports top-down attentional control, consistent with theories suggesting increasing abstraction as the cortical hierarchy ascends (Badre, 2008; Brincat et al., 2018), and their interaction with the sensory representation in the visual areas is enhanced by the visual impulse.

      (3) Given that the impulse-driven sensory-like template facilitated behavior, the author proposed that it might also enhance network communication. Indeed, they observed changes in informational connectivity. However, it remains unclear whether these changes in network communication have a direct and robust relationship with behavioral improvements.

      We thank the reviewer for the suggestion. To examine how network communication relates to behavior, we performed a correlation analysis between information connectivity (IC) and RTs across participants (see Figure S5). We observed a trend of correlations between V1-PFC connectivity and RTs in the Ping session (r = -0.394, p = 0.086), but not in the NoPing session (r = -0.046, <i.p\</i> = 0.846). No significant correlations were found between V1-IPS and RTs (\ps\ > 0.400) or between ICs and accuracy (ps > 0.399). These results suggests that ping-enhanced connectivity might contributed to facilitated responses. Although we may not have sufficient statistical power to warrant a strong conclusion, we think this result is still highly suggestive, so we now added the texts in the Supplementary Information (Page 8, Line 116121; S5 Fig) and mentioned this result in the main texts (Page 14, Line 292-293).

      (4) I'm uncertain about the definition of the sensory-like template in this paper. Is it referring to the Ping impulse-driven condition or the decodable performance in the early visual cortex? If it is the former, even in working memory, whether pinging identifies an activity-silent mechanism is currently debated. If it's the latter, the authors should consider whether a causal relationship - such as "activating the sensory-like template strengthens the informational connectivity between sensory and frontoparietal areas" - is reasonable.

      We apologize for the confusions. The sensory-like template by itself does not directly refer to representations under Ping session or the attentional decoding in early visual cortex. Instead, it pertains to the representational format of attentional signals during preparation. Specifically, its existence is inferred from cross-task generalization, where neural patterns from a perception task (perceive 45º or perceive 135º) generalize to an attention task (attend 45 º or attend 135º). We think this is a reasonable and accepted operational definition of the representational format. Our findings suggest that the sensory-like template likely existed in a latent state and was reactivated by visual pings, aligning more closely with the first account raised by the reviewer.

      We agree with the reviewer that whether ping identifies an activity-silent mechanism is currently debated (Schneegans & Bays, 2017; Barbosa et al., 2021). It is possible that visual impulse amplified a subtle but active representation of the sensory template during attentional preparation and resulted in decodable performance in visual cortex. Distinguishing between these two accounts likely requires neurophysiological measurements, which are beyond the scope of the current study. We have explicitly addressed this limitation in our Discussion (Page 19, Line 395-399).

      Nevertheless, the latent sensory-like template account remains plausible for three reasons. First, our interpretation aligns with theoretical framework proposing that the brain maintains more veridical, detailed target templates than those typically utilized for guiding attention (Wolfe, 2021; Yu et al., 2023). Second, this explanation is consistent with the proposed utility of latent working memory for prospective use, as maintaining a latent sensory-like template during preparation would be useful for subsequent stimulus selection. The latter point was further supported by the reviewer’s suggestion about whether “activating the sensory-like template strengthens the informational connectivity between sensory and frontoparietal areas is reasonable”. Our additional analyses (also refer to our response to Reviewer 3, Point 3) suggested that impulse-enhanced V1-PFC connectivity was associated with a trend of faster behavioral responses (r = -0.394, p = 0.086; see Supplementary Information, Page 8, Line 116-121; S5 Fig). Considering these findings in totality, we think it is reasonable to suggest that visual impulse may strengthen information flow among areas to enhance attentional control.

      Recommendation for the Authors:

      Reviewer #1 (Recommendation for the authors):

      I hate to suggest another fMRI experiment, but in order to make strong claims about two states, I would want to see the methodological and interpretation confounds addressed. Ping condition - would a tone lead to the same result of sharpening the template? If so, then why? Can a ping be manipulated in its effectiveness? That would be an excellent manipulation condition.

      We thank the reviewer for the comments. Please refer to our reply to Reviewer 1, Point 5 for detailed explanation.

      Reviewer #2 (Recommendation for the authors):

      It is strongly advised that these descriptive statistics related to the interaction effect should be included to facilitate a more effective understanding of their data.

      We thank the reviewer for the comments. We now included the relevant descriptive statistics in the Supplementary Information, Table 1.

      Reviewer #3 (Recommendation for the authors):

      In addition to p-values, I see many instances of 'ps'. Does this indicate the plural form of p?

      We used ‘ps’ to denote the minimal p-value across multiple statistical analyses, such as when applying identical tests to different region groups.

      References

      Aitken, F., Menelaou, G., Warrington, O., Koolschijn, R. S., Corbin, N., Callaghan, M. F., & Kok, P. (2020). Prior expectations evoke stimulus-specific activity in the deep layers of the primary visual cortex. PLoS Biology, 18(12), e3001023.

      Badre, D. (2008). Cognitive control, hierarchy, and the rostro–caudal organization of the frontal lobes. Trends in Cognitive Sciences, 12(5), 193-200.

      Barbosa, J., Lozano-Soldevilla, D., & Compte, A. (2021). Pinging the brain with visual impulses reveals electrically active, not activity-silent, working memories. PLoS Biology, 19(10), e3001436.

      Battistoni, E., Stein, T., & Peelen, M. V. (2017). Preparatory attention in visual cortex. Annals of the New York Academy of Sciences, 1396(1), 92-107.

      Brincat, S. L., Siegel, M., von Nicolai, C., & Miller, E. K. (2018). Gradual progression from sensory to task-related processing in cerebral cortex. Proceedings of the National Academy of Sciences, 115(30), E7202-E7211.

      Duncan, D. H., van Moorselaar, D., & Theeuwes, J. (2023). Pinging the brain to reveal the hidden attentional priority map using encephalography. Nature Communications, 14(1), 4749.

      Grill-Spector, K., & Malach, R. (2004). The human visual cortex. Annual Review of Neuroscience, 27(1), 649-677.

      Gong, M., Chen, Y., & Liu, T. (2022). Preparatory attention to visual features primarily relies on nonsensory representation. Scientific Reports, 12(1), 21726.

      Fan, Y., Han, Q., Guo, S., & Luo, H. (2021). Distinct Neural Representations of Content and Ordinal Structure in Auditory Sequence Memory. Journal of Neuroscience, 41(29), 6290–6303.

      Harrison, S. A., & Tong, F. (2009). Decoding reveals the contents of visual working memory in early visual areas. Nature, 458(7238), 632-635.

      Jigo, M., Gong, M., & Liu, T. (2018). Neural determinants of task performance during feature-based attention in human cortex. eNeuro, 5(1).

      Kok, P., Failing, M. F., & de Lange, F. P. (2014). Prior expectations evoke stimulus templates in the primary visual cortex. Journal of Cognitive Neuroscience, 26(7), 1546-1554.

      Kok, P., Mostert, P., & De Lange, F. P. (2017). Prior expectations induce prestimulus sensory templates. Proceedings of the National Academy of Sciences, 114(39), 10473-10478.

      Liu, T., Stevens, S. T., & Carrasco, M. (2007). Comparing the time course and efficacy of spatial and feature-based attention. Vision Research, 47(1), 108-113.

      Mongillo, G., Barak, O., & Tsodyks, M. (2008). Synaptic theory of working memory. Science, 319(5869), 1543-1546.

      Peelen, M. V., & Kastner, S. (2011). A neural basis for real-world visual search in human occipitotemporal cortex. Proceedings of the National Academy of Sciences, 108(29), 12125-12130. Priebe, N. J. (2016). Mechanisms of orientation selectivity in the primary visual cortex. Annual Review of Vision Science, 2(1), 85-107.

      Rademaker, R. L., & Serences, J. T. (2017). Pinging the brain to reveal hidden memories. Nature Neuroscience, 20(6), 767-769.

      Rademaker, R. L., Chunharas, C., & Serences, J. T. (2019). Coexisting representations of sensory and mnemonic information in human visual cortex. Nature Neuroscience, 22(8), 1336-1344.

      Serences, J. T., Ester, E. F., Vogel, E. K., & Awh, E. (2009). Stimulus-specific delay activity in human primary visual cortex. Psychological Science, 20(2), 207-214.

      Schneegans, S., & Bays, P. M. (2017). Restoration of fMRI decodability does not imply latent working memory states. Journal of Cognitive Neuroscience, 29(12), 1977-1994.

      Stokes, M., Thompson, R., Nobre, A. C., & Duncan, J. (2009). Shape-specific preparatory activity mediates attention to targets in human visual cortex. Proceedings of the National Academy of Sciences, 106(46), 19569-19574.

      Wolfe, J. M. (2021). Guided Search 6.0: An updated model of visual search. Psychonomic Bulletin & Review, 28(4), 1060-1092.

      Wolff, M. J., Jochim, J., Akyürek, E. G., & Stokes, M. G. (2017). Dynamic hidden states underlying working-memory-guided behavior. Nature Neuroscience, 20(6), 864 – 871.

      Wolff, M. J., Kandemir, G., Stokes, M. G., & Akyürek, E. G. (2020). Unimodal and bimodal access to sensory working memories by auditory and visual impulses. Journal of Neuroscience, 40(3), 671-681.

      Yu, X., Zhou, Z., Becker, S. I., Boettcher, S. E., & Geng, J. J. (2023). Good-enough attentional guidance. Trends in Cognitive Sciences, 27(4), 391-403.

    1. 𝑦′(2𝑦 + 2𝑦)= 2𝑥

      Chain rule on the left side. We do not know y explicitly, so we factor out y'. However, we can easily solve for y' by implicit differentiation to check our solution.

    1. Compte Rendu Détaillé de l'Audition de la Présidente du Haut Conseil à l'Égalité entre les femmes et les hommes (HCE)

      • Ce document résume les points clés et les thèmes principaux abordés lors de l'audition de la Présidente du Haut Conseil à l'Égalité entre les femmes et les hommes (HCE) par la délégation aux droits des femmes.

      Il met en lumière les priorités du HCE, ses travaux récents et futurs, ainsi que les préoccupations soulevées par les parlementaires.

      I. Priorités et Rapports Clés du HCE

      La Présidente du HCE a souligné le rôle du Conseil comme « interlocuteur de premier plan pour les pouvoirs publics » et « moteur du débat démocratique sur les droits des femmes et les questions de genre ».

      Elle a mis en avant les domaines d'intervention du HCE et les synergies possibles avec les travaux parlementaires.

      A. Le Sexisme en France : Un état des lieux alarmant et polarisé

      • Rapport Majeur 2025 : Le rapport principal du HCE pour 2025 porte sur l'état des lieux du sexisme en France, publié le 20 janvier dernier. Basé sur un baromètre et des questions posées à plus de 3000 Français, il vise à évaluer l'évolution du sexisme.
      • Polarisation de la société : Le rapport a révélé une forte polarisation sur les questions d'égalité et de sexisme.
      • Jeunes femmes : Elles sont « de plus en plus conscientes que leur vie au quotidien est plus difficile que celle des hommes » et sont « plus engagées sur ces questions, plus sensibles au féminisme et au combat pour l'égalité des genres ».
      • Jeunes hommes : À l'inverse, ils « expriment un sentiment d'incompréhension des évolutions de la société voire de rejet », étant « de plus en plus attirés par les idées sexistes et masculinistes ».
      • Pilier du sexisme persistant : L'éducation : Une conclusion majeure est que « l'éducation était l'un des piliers de ce sexisme persistant et qu'il fallait agir de toute urgence ».
      • Appel aux ÉVARS : Le HCE appelle depuis des années à l'adoption d'un programme d'éducation à l'égalité, les cours à la vie affective, relationnelle et à la sexualité (ÉVARS). Ces cours permettraient de « déconstruire les stéréotypes et les normes sociales inégalitaires qui favorisent ce sexisme ».
      • Déploiement des ÉVARS : Moins de 15 % des élèves en bénéficient actuellement, malgré leur caractère obligatoire depuis 2001.

      La Présidente se réjouit de l'annonce par la Ministre de l'Éducation nationale du déploiement de ce programme dès la prochaine rentrée, car 9 Français sur 10 y sont favorables, et 70 % le considèrent comme la mesure la plus efficace.

      B. La Parentalité : L'« éléphant dans la pièce » des inégalités professionnelles

      • Facteur structurant des inégalités : Les inégalités liées à la naissance sont un « moment clé de cristallisation des inégalités pro entre les pères et les mères » et l'un des « facteurs les plus structurants des inégalités de salaire et de carrière ». La Présidente le qualifie d'« éléphant dans la pièce ».
      • Chiffres alarmants :Les écarts de revenus salariaux sont plus marqués entre parents, les mères ayant des temps de travail et des salaires « nettement inférieurs aux pères », ces écarts augmentant avec le nombre d'enfants.
      • Les mères salariées du secteur privé subissent une perte salariale d'environ 20 % cinq ans après la naissance, et jusqu'à 40 % pour les salaires les plus bas.
      • Les ajustements professionnels après l'arrivée d'un enfant sont 10 fois plus importants pour les mères.
      • 95,6 % des congés parentaux sont pris par les femmes, 70 % des tâches domestiques sont réalisées par les femmes, et 80 % des salariés à temps partiel sont des femmes.
      • Seulement 42,6 % des cadres sont des femmes, alors qu'elles sont plus diplômées que les hommes.
      • Réforme du congé parental : Le HCE préconise une réforme du congé parental, notamment la « réduction du temps mais qui soit mieux rémunéré pour qu'on ait davantage d'hommes à le prendre ».
      • Congé paternité : Le HCE s'interroge sur l'allongement du congé paternité à l'égalité du congé maternité, considérant que le congé maternité est aussi un temps de récupération pour la mère.

      Il souligne l'importance de le rendre accessible à toutes les catégories sociales, car il est moins pris par les plus précaires.

      C. Parité dans l'Encadrement Sportif : Un angle mort à combler

      • Sous-représentation des femmes : Bien que la pratique sportive des femmes progresse (moins de 40 % des licences en 2024), elles restent sous-représentées dans les disciplines fédérales de haut niveau et, surtout, dans les rôles décisionnaires.
      • 46 % des bénévoles sont des femmes, mais seulement 34 % des dirigeants de structure sportive.
      • Seulement 33 % des encadrants sportifs sont des femmes, un chiffre en baisse.
      • Problème de formation : Les femmes représentent seulement 32 % des étudiants en filières STAPS, et 20 % dans les filières d'entraînement sportif.
      • Recommandations urgentes :Instauration de « coprésidences mixtes des fédérations sportives nationales agréées » pour lutter contre le « plafond de verre » et les pressions subies par les femmes dirigeantes.
      • Création d'un programme d'accompagnement des jeunes filles vers le management et l'encadrement sportif.
      • Objectif de 25 % de femmes dans les filières STAPS d'ici 2026, et 40 % d'ici 2030.
      • Mise en place de « budgets sensibles au genre » au niveau communal et municipal pour inciter la féminisation des clubs à la base.

      D. Lutte contre les Violences Sexuelles et Sexistes : Améliorer la prise en charge judiciaire

      La commission "violences faites aux femmes" du HCE a travaillé sur le traitement judiciaire des viols et agressions sexuelles et rendra ses conclusions et recommandations publiques prochainement, visant une « meilleure prise en charge des victimes ».

      II. Discussions et Questions des Parlementaires

      Les parlementaires ont salué la qualité des travaux du HCE et ont soulevé des questions spécifiques, souvent en écho aux préoccupations du Conseil.

      A. Parité Sportive et Accompagnement Local

      • Graziella Melker (Groupe Ensemble pour la République) : A souligné le « cercle vicieux du sexisme dans le sport » et la nécessité de travailler à l'échelle locale pour accompagner les femmes confrontées à des situations de violence ou de manque de soutien dans les instances régionales.

      B. Pénalité Parentale et Réforme des Congés

      • Sarah Lin (Groupe La France Insoumise) et Delphine Ligoman (Groupe Les Démocrates) : Co-rapporteures d'une mission d'information sur la parentalité, elles ont rappelé que 90 % des inégalités de revenus entre femmes et hommes sont liées à la parentalité.
      • Réforme du congé paternité : Elles ont interrogé le HCE sur l'efficacité du congé paternité comme outil pour un partage égalitaire, suggérant une augmentation de la part automatique obligatoire et une partie de ce congé à l'issue du congé maternité.
      • Mères solos : Elles ont demandé des pistes de réflexion pour les mères solos, qui subissent encore plus fortement la pénalité parentale.
      • Parentalité en entreprise : Delphine Ligoman a interrogé sur les leviers pour inciter les entreprises à mieux intégrer la parentalité, proposant la généralisation d'une charte de la parentalité, l'intégration de la parentalité dans l'index égalité professionnelle, et une reprise progressive après les congés liés à la naissance.
      • Réponse du HCE sur la parentalité :La Présidente du HCE souhaite que le Conseil travaille davantage sur la parentalité, reconnaissant que le sujet n'a pas été « spécifiquement traité jusqu'à [présent] ».
      • Elle confirme l'importance de la réforme du congé parental, visant une réduction du temps mais une meilleure rémunération pour inciter les hommes à le prendre.
      • Elle exprime des doutes sur l'allongement du congé paternité à la même durée que le congé maternité, considérant que le congé maternité est aussi un temps de récupération pour la mère.
      • Elle souligne l'importance de toucher toutes les catégories sociales et s'inquiète de la situation des modes de garde en France, qualifiant la disparition prochaine de 40 % des assistantes maternelles de « bombe à retardement ».

      C. Diplomatie Féministe et Soutien aux Associations

      • Sénine Thiebau Martinez (Groupe Socialiste) : A interrogé sur l'impact de l'élection de Donald Trump sur la diplomatie féministe et la diminution des moyens pour les ONG. Elle a demandé si le HCE a été saisi de la question d'un événement sur la diplomatie féministe en France et sa position sur le sujet. Elle a également demandé si le HCE allait se saisir de l'étude de la Fondation des femmes sur la seniorité des femmes.
      • Réponse du HCE sur la diplomatie féministe :La Présidente a confirmé la tenue d'un événement à l'automne et la participation du HCE.
      • Elle a souligné le rôle important de la France et la volonté du HCE de travailler avec son homologue canadien pour porter la diplomatie féministe dans les pays francophones, notamment par la coordination des budgets et des actions des ambassadeurs.
      • Le HCE a recommandé de pérenniser les budgets alloués à ces politiques.

      D. Conséquences Genrées de la COVID et Santé Mentale des Femmes

      • Sandrine Rousseau (Groupe Les Écologistes) et Cécile Violande (Groupe Horizon et apparentés) : Ont soulevé la question des conséquences genrées de la gestion de la COVID-19, notamment la dégradation de la santé mentale des femmes et des jeunes femmes liée à l'exposition aux violences intrafamiliales. Elles ont appelé le HCE à se saisir de ce sujet.
      • Réponse du HCE sur la santé mentale :La Présidente a reconnu l'importance du lien et a exprimé le souhait de travailler sur la « santé des femmes », notamment sur le « burnout des femmes », lié à la charge mentale et aux contraintes qu'elles subissent.
      • Elle envisage des travaux interdisciplinaires au sein du HCE sur la santé des femmes, « tout au long de la vie », des menstruations à l'âgisme.

      E. Soutien aux Associations Féministes et Âgisme

      • Sandrine Rousseau : A exprimé son inquiétude quant aux menaces pesant sur les associations féministes (Planning Familial, CIDFF) et leur financement, alors même que l'IVG est inscrit dans la Constitution.
      • Réponse du HCE sur les associations : La Présidente a reconnu les « difficultés réelles de financement » de ces associations, les qualifiant d'« indispensables » et de « clé », et a affirmé que le HCE ne peut pas travailler sans elles.

      F. Contraception Masculine

      • Cécile Violande : A demandé si le HCE se saisissait des travaux sur la contraception masculine.
      • Réponse du HCE : La Présidente a indiqué que des travaux avaient été engagés avant son arrivée mais qu'ils n'avaient pas été publiés car « la nature du rapport ne convenait pas à ceux qui avaient engagé le rapport » et qu'il ne faisait pas consensus parmi les co-signataires.

      Elle a reconnu que c'est un sujet à regarder, car la contraception reste « à la charge aujourd'hui des femmes et ressenti comme une contrainte féminine ».

      III. Perspectives et Orientations Futures du HCE

      La Présidente a réaffirmé sa volonté de redonner au HCE toute sa force dans le débat public et politique.

      • Décentralisation : Le HCE s'engage à se « déplacer partout en France » et non plus être une « instance très parisienne ».
      • Nouveaux travaux : L'arrivée de nouveaux membres permettra de décider rapidement des prochains travaux. Des sollicitations fortes concernent notamment l'intelligence artificielle, un sujet sur lequel le HCE n'a pas encore travaillé.
      • Interdisciplinarité : La Présidente souhaite développer les collaborations entre les différentes formations et commissions du HCE, à l'image des travaux parlementaires.
      • Importance de l'éducation : Elle a insisté sur la nécessité de « déconstruire un certain nombre de stéréotypes » dès le plus jeune âge, soulignant que les inégalités sont présentes dès 6 ans. Elle a mis en évidence le rôle des ÉVARS, mais aussi l'importance de changer les mentalités des futurs parents et d'agir sur les contenus numériques, la littérature jeunesse, les films et les séries.
      • Budget sensible au genre : La Présidente a salué l'annonce du travail sur un budget sensible au genre par trois ministères (Égalité, Budget, Éducation nationale) et a insisté pour que cela ne se limite pas à l'État, mais soit appliqué aussi aux collectivités locales.

      Elle a pris l'exemple des budgets alloués au sport, souvent déséquilibrés en faveur des pratiques masculines.

      • Sanctions : La Présidente a regretté le manque de sanctions pour la non-application de l'index égalité professionnelle.

      En conclusion, la Présidente du HCE a réaffirmé l'engagement du Conseil à éclairer le débat public et à faire avancer l'égalité réelle, en se concentrant sur des sujets structurants comme le sexisme, la parentalité, la parité sportive et la santé des femmes, tout en cherchant à impliquer l'ensemble des acteurs de la société.

    1. Synthèse des Priorités et Défis de la Haute-Commissaire à l'Enfance

      • La Haute-Commissaire à l'Enfance présente sa feuille de route en soulignant la mission fondamentale de son Haut-Commissariat : coordonner les politiques publiques pour placer l'enfant au cœur des réflexions, en sortant des "silos" administratifs habituels.

      La Haute-Commissaire insiste sur l'importance de l'interministérialité et de la pluridisciplinarité professionnelle comme leviers pour répondre aux défis complexes liés à l'enfance.

      1. Mission et Définition de l'Enfance

      • Rôle du Haut-Commissariat : Créé en février, le Haut-Commissariat à l'enfance vise à remédier aux "faiblesses dans nos politiques de protection et de prévention" en renforçant l'interministérialité.

      L'objectif est de "penser autrement ces politiques publiques et donc de coordonner en étant d'une certaine manière le garant que l'enfant était au cœur et du coup il était au centre de ses réflexions".

      Il réunit tous les acteurs (associatifs, administrations, éducatifs).

      • Définition de l'enfant : La définition retenue est celle de l'article 1er de la Convention relative aux droits des enfants de 1989, couvrant "de la naissance à finalement la majorité", incluant la petite enfance (0-3 ans) et l'adolescence.

      2. Priorités Thématiques et Actions Engagées

      La Haute-Commissaire aborde plusieurs chantiers prioritaires, souvent interdépendants :

      Service Public de la Petite Enfance (0-3 ans) :

      • Problématiques : Manque de places et besoin d'améliorer la qualité et la compétence. Forte demande de reconnaissance des professionnels.
      • Actions : Travail sur l'attractivité des métiers (VAE inversée, accompagnement des formations), aides aux communes pour la montée en charge des compétences, collaboration avec les fédérations pour la prochaine COG (Convention d'Objectifs et de Gestion), expérimentation de "solutions hybrides" comme les crèches familiales ou scolaires.

      • Écrans en petite enfance : Publication d'un "référentiel qualité" interdisant les écrans dans les lieux d'accueil des 0-3 ans, posant des règles claires et accompagnant les PMI.

      Soutien à la Parentalité :

      • Considéré comme "un des outils (...) les plus puissants en terme de prévention et d'accompagnement".
      • Plan National de Soutien à la Parentalité : En cours de finalisation, il vise à "reposer (...) des repères, des soutiens, des espaces de dialogue avec les parents" face aux nouveaux défis, notamment numériques. Refonte du site "Je protège mon enfant".

      Adoption et Accès aux Origines : * Adoption : Améliorer les pratiques professionnelles pour accélérer les procédures et la mise en œuvre du "fichier national des familles adoptantes". Diffuser les outils législatifs existants (Loi Limon sur l'adoption simple). * Accueil durable bénévole/Tiers digne de confiance : Étude des différentes hypothèses, en soulignant l'importance de l'accompagnement spécialisé pour les familles adoptantes si elles envisagent un accueil durable, et la nécessité de "remuscler toutes les possibilités" d'accueil.

      Recherche des "familles de cœur" pour apporter stabilité et favoriser la désinstitutionnalisation.

      • Accès et Droit aux Origines : Réflexion sur la place des tests ADN (actuellement non autorisés en France sauf décision de justice), en raison des demandes des associations d'enfants.

      Reposer la question compte tenu des nouvelles réalités et de l'évolution législative en Europe.

      Lutte contre les Violences Faites aux Enfants :

      • Urgence : Constat d'une augmentation des alertes sur des violences, notamment chez les nourrissons.
      • Actions : Diffusion prochaine d'un questionnaire national pour "objectiver cette évolution et spécifier ces violences" (sexuelles, intrafamiliales, institutionnelles, physiques, psychologiques).

      Poursuite des travaux de prévention, détection des "signaux faibles", et capacité à "mieux accueillir la parole des enfants".

      • Prise en charge : Déploiement des "Unités d'accueil spécialisées pour les enfants" (UEJ) dans toutes les juridictions, coordination du soin médical, psychologique, social et judiciaire. Renforcement du 119 (campagne d'information, amélioration des canaux dont le chat, traitement des rappels et priorisation).

      • Loi Votrein : Projet de loi en préparation par la Ministre Votrein proposant des mesures concrètes : autorisation du cumul d'activité pour l'accueil familial, droit au répit, réinterrogation des modalités d'indemnisation (y compris pour l'accueil durable bénévole), reconnaissance du tiers digne de confiance.

      Enjeux Numériques et Écrans :

      • Constat : Présence accrue des écrans (70% des 8-10 ans sur réseaux sociaux), explosion du cyberharcèlement, conséquences documentées (addictions, santé mentale, obésité, troubles de l'apprentissage).
      • Réponses :Éducation numérique : Essentielle, avec des travaux pour une cohérence des messages portés par l'Éducation Nationale et l'éducation populaire.
      • École : Saisine de l'Inspection de l'Éducation Nationale pour un rapport sur les ENT (Environnements Numériques de Travail), visant un "droit à la déconnexion pour les parents et pour les enfants" (pas d'information réactualisée entre 20h et 7h, fermeture le weekend). Généralisation de la "pause numérique" (pas de portable au collège).
      • Réseaux Sociaux : Mise en œuvre de la loi Marcangelie interdisant les réseaux sociaux aux moins de 15 ans. Négociations européennes (Digital Service Act), avec une "coalition nouvelle" pour aller dans ce sens.
      • Contrôle d'identité et d'âge : Stabilisation de l'outil technique grâce à l'ARCOM et des structures comme Docapost, permettant un contrôle fiable de l'âge.

      Cela a conduit au départ de certaines plateformes pornographiques ne souhaitant pas utiliser ces outils. Projet de "mini wallet européen".

      • Place de l'Enfant dans l'Espace Public : Engagement du Haut-Commissariat pour le respect des droits des enfants et leur place dans le débat public.

      Suivi des travaux de la Convention Citoyenne sur les temps de l'enfant avec la participation d'enfants.

      3. Défis et Critiques Adressées à la Haute-Commissaire

      Plusieurs députés expriment des préoccupations majeures, remettant en question l'action et les moyens du Haut-Commissariat :

      • Crise de l'Enfance en France : Caroline Parmentier dénonce un "état catastrophique" de l'enfance, l'absence de ministre dédié et la multiplication des drames (crèches, pauvreté infantile, dysfonctionnements de l'ASE).

      Elle questionne l'investissement total de la Haute-Commissaire, engagée dans la campagne des municipales.

      • Manque de Volontarisme et de Moyens : Arnaud Bonet juge les propositions de la Haute-Commissaire "dans le bon sens" mais reste "sceptique" faute de "mobilisation de l'ensemble de notre société" et de "moyens réels". Il évoque une "cécité volontaire collective" aux violences faites aux enfants.
      • Problématiques Spécifiques :Cyberharcèlement lié aux prénoms : Mme Dubré alerte sur les publications péjoratives en ligne et demande des mesures.
      • Mineurs Non Accompagnés (MNA) : Mme Dubré souligne le manque de données fiables, l'absence de présomption de minorité et la complexité de leur prise en charge. La Haute-Commissaire réitère la position de la France d'accueillir les enfants "quelle que soit leur situation".
      • Santé Mentale des Jeunes Placés : Mme Dubré fait état d'un suivi psychologique insuffisant (40% n'en ont jamais bénéficié) et propose une meilleure formation des professionnels, un accès réel aux soins et des liens stables.

      La Haute-Commissaire évoque le déploiement de "Santé Protégée Péas" et le rôle des coordinateurs.

      • Défaillances de la Protection de l'Enfance (ASE) :Mme Hamdane dénonce une "politique de l'enfance symbolique, médiatique mais déconnectée de l'urgence", rappelant que 400 000 enfants sont en danger, que la France ne respecte pas ses engagements internationaux ni ses propres lois (loi Taquet inappliquée).

      Elle cite le rapport accablant de la commission d'enquête sur les "manques de pilotage national, rupture de parcours, recours abusif au placement à l'hôtel".

      • Mme Maximie exprime sa "colère" face à la mort d'une enfant placée (Aiden, 7 ans) et le silence public de la Haute-Commissaire et de la Ministre Votrein. Elle dénonce une inaction malgré des constats répétés. La Haute-Commissaire répond qu'elle travaille avec les acteurs concernés (ADF, départements, associations) mais ne communique pas systématiquement publiquement. Elle insiste sur la responsabilité de chacun.
      • Scolarisation des Enfants Vulnérables : Mme Piron alerte sur les "délais d'inscription et d'affectation scolaire anormalement longs" pour les enfants hébergés en urgence ou vivant dans des habitats précaires, ainsi que sur la situation "dramatique" à Mayotte (5000 enfants privés d'école).

      Elle demande des leviers pour garantir la scolarisation effective et la volonté d'intervenir à Mayotte. La Haute-Commissaire prend note des alertes et évoque un travail avec le Ministre des Outre-Mers pour renforcer les équipes et la priorité donnée à ces territoires.

      • Moyens du Haut-Commissariat : Mme Met interroge sur les "moyens humains et financiers" du Haut-Commissariat. La Haute-Commissaire précise disposer de six conseillers directs, d'un soutien de l'Éducation Nationale, et d'un renforcement à venir par des représentants des Outre-Mers et de la Justice, pour favoriser l'interministérialité.

      4. Réponse de la Haute-Commissaire aux Critiques

      La Haute-Commissaire se défend des accusations de manque d'investissement ou d'action, affirmant être pleinement engagée dans sa mission de coordination. Elle insiste sur :

      • La coordination des acteurs : Sa mission est de "réunir tout ce monde-là et de rappeler à chacun ses responsabilités et ses missions".
      • L'évaluation et le suivi : Provoquer les contrôles nécessaires, évaluer les politiques, suivre la mise en œuvre des engagements (y compris la loi Taquet).
      • La mobilisation collective : Nécessité d'une "prise de conscience générale" et que "chacun prend pleinement sa place et sa part".
      • Le soutien ministériel : Souligne le soutien de la Ministre Votrein et l'organisation d'un "comité interministériel sur l'enfance" pour évaluer les politiques publiques avec des indicateurs de suivi.
      • La complémentarité des actions : Défend la complémentarité entre la lutte contre le "no kids" ou la régulation des écrans et la protection de l'enfance la plus vulnérable. Elle précise que son action ne se limite pas à la communication publique.
      • Les freins à l'accompagnement des jeunes majeurs : Identification de problèmes d'accès à l'identité, au logement, manque de préparation à la sortie, inégalité de traitement entre départements. Elle évoque les travaux en cours pour améliorer cet accompagnement (soutien aux associations, parrainage).

      En conclusion, la Haute-Commissaire à l'Enfance se positionne comme une figure de coordination interministérielle, cherchant à décloisonner les politiques publiques pour une approche centrée sur l'enfant.

      Elle met en avant des chantiers concrets sur la petite enfance, la parentalité, l'adoption, la lutte contre les violences et le numérique.

      Néanmoins, elle fait face à des critiques virulentes de députés qui soulignent l'urgence d'une crise de l'enfance, le manque de moyens concrets et des défaillances institutionnelles persistantes, notamment dans la protection de l'enfance, remettant en cause l'effectivité de son action.

    1. Author response:

      The following is the authors’ response to the original reviews.

      Reviewer #1 (Public review):

      Wang et al. investigated how sexual failure influences sweet taste perception in male Drosophila. The study revealed that courtship failure leads to decreased sweet sensitivity and feeding behavior via dopaminergic signaling. Specifically, the authors identified a group of dopaminergic neurons projecting to the suboesophageal zone that interacts with sweet-sensing Gr5a+ neurons. These dopaminergic neurons positively regulate the sweet sensitivity of Gr5a+ neurons via DopR1 and Dop2R receptors. Sexual failure diminishes the activity of these dopaminergic neurons, leading to reduced sweet-taste sensitivity and sugar-feeding behavior in male flies. These findings highlight the role of dopaminergic neurons in integrating reproductive experiences to modulate appetitive sensory responses.

      Previous studies have explored the dopaminergic-to-Gr5a+ neuronal pathways in regulating sugar feeding under hunger conditions. Starvation has been shown to increase dopamine release from a subset of TH-GAL4 labeled neurons, known as TH-VUM, in the suboesophageal zone. This enhanced dopamine release activates dopamine receptors in Gr5a+ neurons, heightening their sensitivity to sugar and promoting sucrose acceptance in flies. Since the function of the dopaminergic-to-Gr5a+ circuit motif has been well established, the primary contribution of Wang et al. is to show that mating failure in male flies can also engage this circuit to modulate sugar-feeding behavior. This contribution is valuable because it highlights the role of dopaminergic neurons in integrating diverse internal state signals to inform behavioral decisions.

      An intriguing discrepancy between Wang et al. and earlier studies lies in the involvement of dopamine receptors in Gr5a+ neurons. Prior research has shown that Dop2R and DopEcR, but not DopR1, mediate starvation-induced enhancement of sugar sensitivity in Gr5a+ neurons. In contrast, Wang et al. found that DopR1 and Dop2R, but not DopEcR, are involved in the sexual failure-induced decrease in sugar sensitivity in these neurons. I wish the authors had further explored or discussed this discrepancy, as it is unclear how dopamine release selectively engages different receptors to modulate neuronal sensitivity in a context-dependent manner.

      Our immunostaining experiments showed that three dopamine receptors, Dop1R1, Dop2R, and DopEcR were expressed in Gr5a<sup>+</sup> neurons in the proboscis, which was consistent with previous findings by using RT-PCR (Inagaki et al 2012). As the reviewer pointed out, we found that Dop1R1 and Dop2R were required for courtship failure-induced suppression of sugar sensitivity, whereas Marella et al 2012 and Inagaki et al 2012 found that Dop2R and DopEcR were required for starvation-induced enhancement of sugar sensitivity. These results may suggest that different internal states (courtship failure vs. starvation) modulate the peripheral sensory system via different signaling pathways (e.g. different subsets of dopaminergic neurons; different dopamine release mechanisms; and different dopamine receptors). We have discussed these possibilities in the revised manuscript.

      The data presented by Wang et al. are solid and effectively support their conclusions. However, certain aspects of their experimental design, data analysis, and interpretation warrant further review, as outlined below.

      (1) The authors did not explicitly indicate the feeding status of the flies, but it appears they were not starved. However, the naive and satisfied flies in this study displayed high feeding and PER baselines, similar to those observed in starved flies in other studies. This raises the concern that sexually failed flies may have consumed additional food during the 4.5-hour conditioning period, potentially lowering their baseline hunger levels and subsequently reducing PER responses. This alternative explanation is worth considering, as an earlier study demonstrated that sexually deprived males consumed more alcohol, and both alcohol and food are known rewards for flies. To address this concern, the authors could remove food during the conditioning phase to rule out its influence on the results.

      This is an important consideration. To rule out potential confound from food intake during courtship conditioning, we have now also conducted courtship conditioning in vials absent of food. In the absence of any feeding opportunity over the 4.5-hour courtship conditioning period, sexually rejected males still exhibited a robust decrease in sweet taste sensitivity compared with Naïve and Satisfied controls (Figure 1-supplement 1C). These data confirm that the suppression of PER is driven by courtship failure per se, rather than by differences in feeding during the conditioning phase.

      (2) Figure 1B reveals that approximately half of the males in the Failed group did not consume sucrose yet Figure 1-S1A suggests that the total volume consumed remained unchanged. Were the flies that did not consume sucrose omitted from the dataset presented in Figure 1-S1A? If so, does this imply that only half of the male flies experience sexual failure, or that sexual failure affects only half of males while the others remain unaffected? The authors should clarify this point.

      Our initial description of the experimental setup might be a bit confusing. Here is a brief clarification of our experimental design and we have further clarified the details in the revised manuscript, which should resolve the reviewer’s concerns:

      After the behavioral conditioning, male flies were divided for two assays. On the one hand, we quantified PER responses of individual flies. As shown in Figure 1C, Failed males exhibited decreased sweet sensitivity (as demonstrated by the right shift of the dose-response curve). On the other hand, we sought to quantify food consumption of individual flies by using the MAFE assay (Qi et al 2005).

      In the initial submission, we used 400 mM sucrose for the MAFE assay. When presented with 400 mM sucrose, approximately 100% of the flies in the Naïve and Satisfied groups, and 50% of the flies in the Failed group, extended their proboscis and started feeding, as a natural consequence of decreased sugar sensitivity (Figure 1B). We were able to quantify the actual volume of food consumed of these flies showing PER responses towards 400 mM sucrose and observed no change (Figure 1-supplement 1A, left). To avoid potential confusion, we have now repeated the MAFE assay with 800 mM sucrose, which elicited feeding in ~100% of flies among all three groups, as shown in Figure 1C. Again, we observed no change in food intake (Figure 1-supplement 1A, right).

      These experiments in combination suggest that sexual failure suppresses sweet sensitivity of the Failed males. Meanwhile, as long as they still responded to a certain food stimulus and initiated feeding, the volume of food consumption remained unchanged. These results led us to focus on the modulatory effect of sexual failure on the sensory system, the main topic of this present study.

      (3) The evidence linking TH-GAL4 labeled dopaminergic neurons to reduced sugar sensitivity in Gr5a+ neurons in sexually failed males could be further strengthened. Ideally, the authors would have activated TH-GAL4 neurons and observed whether this restored GCaMP responses in Gr5a+ neurons in sexually failed males. Instead, the authors performed a less direct experiment, shown in Figures 3-S1C and D. The manuscript does not describe the condition of the flies used in this experiment, but it appears that they were not sexually conditioned. I have two concerns with this experiment. First, no statistical analysis was provided to support the enhancement of sucrose responses following activation of TH-GAL4 neurons. Second, without performing this experiment in sexually failed males, the authors lack direct evidence to confirm that the dampened response of Gr5a+ neurons to sucrose results from decreased activity in TH-GAL4 neurons.

      We have now quantified the effect of TH<sup>+</sup> neuron activation on Gr5a<sup>+</sup> neuron calcium responses. in Naïve males, dTRPA1-mediated activation of TH<sup>+</sup> cells significantly enhanced sucrose-induced calcium responses (Figure 3-supplement 1C); while in Failed males, the baseline activity of Gr5a<sup>+</sup> neurons was lower (Figure 3C), the same activation also produced significant (even slightly larger) effect on the calcium responses of Gr5a<sup>+</sup> neurons (Figure 3-supplement 1D).

      Taken together, we would argue that these experiments using both Naïve and Failed males were adequate to show a functional link between TH<sup>+</sup> neurons and Gr5a<sup>+</sup> neurons. Combining with the results that these neurons form active synapses (Figure 3-supplement 1B) and that the activity of TH<sup>+</sup> neurons was dampened in sexually failed males (Figure 3G-I), our data support the notion that sexual failure suppresses sweet sensitivity via TH-Gr5a circuitry.

      (4) The statistical methods used in this study are poorly described, making it unclear which method was used for each experiment. I suggest that the authors include a clear description of the statistical methods used for each experiment in the figure legends. Furthermore, as I have pointed out, there is a lack of statistical comparisons in Figures 3-S1C and D, a similar problem exists for Figures 6E and F.

      We have added detailed information of statistical analysis in each figure legend.

      (5) The experiments in Figure 5 lack specificity. The target neurons in this study are Gr5a+ neurons, which are directly involved in sugar sensing. However, the authors used the less specific Dop1R1- and Dop2R-GAL4 lines for their manipulations. Using Gr5a-GAL4 to specifically target Gr5a+ neurons would provide greater precision and ensure that the observed effects are directly attributable to the modulation of Gr5a+ neurons, rather than being influenced by potential off-target effects from other neuronal populations expressing these dopamine receptors.

      We agree with the reviewer that manipulating Dop1R1 and Dop2R genes (Figure 4) and the neurons expressing them (Figure 5) might have broader impacts. For specificity, we have also tested the role of Dop1R1 and Dop2R in Gr5a<sup>+</sup> neurons by RNAi experiments (Figure 6). As shown by both behavioral and calcium imaging experiments, knocking down Dop1R1 and Dop2R in Gr5a<sup>+</sup> neurons both eliminated the effect of sexual failure to dampen sweet sensitivity, further confirming the role of these two receptors in Gr5a<sup>+</sup> neurons.

      (6) I found the results presented in Fig. 6F puzzling. The knockdown of Dop2R in Gr5a+ neurons would be expected to decrease sucrose responses in naive and satisfied flies, given the role of Dop2R in enhancing sweet sensitivity. However, the figure shows an apparent increase in responses across all three groups, which contradicts this expectation. The authors may want to provide an explanation for this unexpected result.

      We agree that there might be some potential discrepancies. We have now addressed the issues by re-conducting these calcium imaging experiments again with a head-to-head comparison with the controls (Gr5a-GCaMP, +/- Dop1R1 and Dop2R RNAi).

      In these new experiments, Dop1R1 or Dop2R knockdown completely prevented the suppression of Gr5a<sup>+</sup> neuron responsiveness by courtship failure (Figure 6E), whereas the activities of Gr5a<sup>+</sup> neurons in Naïve/Satisfied groups were not altered. These results demonstrate that Dop1R1 and Dop2R are specifically required to mediate the decrease in sweet sensitivity following courtship failure.

      (7) In several instances in the manuscript, the authors described the effects of silencing dopamine signaling pathways or knocking down dopamine receptors in Gr5a neurons with phrases such as 'no longer exhibited reduced sweet sensitivity' (e.g., L269 and L288), 'prevent the reduction of sweet sensitivity' (e.g., L292), or 'this suppression was reversed' (e.g. L299). I found these descriptions misleading, as they suggest that sweet sensitivity in naive and satisfied groups remains normal while the reduction in failed flies is specifically prevented or reversed. However, this is not the case. The data indicate that these manipulations result in an overall decrease in sweet sensitivity across all groups, such that a further reduction in failed flies is not observed. I recommend revising these descriptions to accurately reflect the observed phenotypes and avoid any confusion regarding the effects of these manipulations.

      We have changed the wording in the revised manuscript. In brief, we think that these manipulations have two consequences: suppressing the overall sweet sensitivity, and eliminating the effect of sexual failure on sweet sensitivity.

      Reviewer #2 (Public review):

      Summary:

      The authors exposed naïve male flies to different groups of females, either mated or virgin. Male flies can successfully copulate with virgin females; however, they are rejected by mated females. This rejection reduces sugar preference and sensitivity in males. Investigating the underlying neural circuits, the authors show that dopamine signaling onto GR5a sensory neurons is required for reduced sugar preference. GR5a sensory neurons respond less to sugar exposure when they lack dopamine receptors.

      Strengths:

      The findings add another strong phenotype to the existing dataset about brain-wide neuromodulatory effects of mating. The authors use several state-of-the-art methods, such as activity-dependent GRASP to decipher the underlying neural circuitry. They further perform rigorous behavioral tests and provide convincing evidence for the local labellar circuit.

      Weaknesses:

      The authors focus on the circuit connection between dopamine and gustatory sensory neurons in the male SEZ. Therefore, it is still unknown how mating modulates dopamine signaling and what possible implications on other behaviors might result from a reduced sugar preference.

      We agree with the reviewer that in the current study, we did not examine the exact mechanism of how mating experience suppressed the activity of dopaminergic neurons in the SEZ. The current study mainly focused on the behavioral characterization (sexual failure suppresses sweet sensitivity) and the downstream mechanism (TH-Gr5a pathway). We think that examining the upstream modulatory mechanism may be more suitable for a separate future study.

      We believe that a sustained reduction in sweet sensitivity (not limited to sucrose but extend to other sweet compounds Figure 1-supplement 1D-E) upon courtship failure suggests a generalized and sustained consequence on reward-related behaviors. Sexual failure may thus resemble a state of “primitive emotion” in fruit flies. We have further discussed this possibility in the revised manuscript.

      Reviewer #3 (Public review):

      Summary

      In this work, the authors asked how mating experience impacts reward perception and processing. For this, they employ fruit flies as a model, with a combination of behavioral, immunostaining, and live calcium imaging approaches.

      Their study allowed them to demonstrate that courtship failure decreases the fraction of flies motivated to eat sweet compounds, revealing a link between reproductive stress and reward-related behaviors. This effect is mediated by a small group of dopaminergic neurons projecting to the SEZ. After courtship failure, these dopaminergic neurons exhibit reduced activity, leading to decreased Gr5a+ neuron activity via Dop1R1 and Dop2R signaling, and leading to reduced sweet sensitivity. The authors therefore showed how mating failure influences broader behavioral outputs through suppression of the dopamine-mediated reward system and underscores the interactions between reproductive and reward pathways.

      Concern

      My main concern regarding this study lies in the way the authors chose to present their results. If I understood correctly, they provided evidence that mating failure induces a decrease in the fraction of flies exhibiting PER. However, they also showed that food consumption was not affected (Fig. 1, supplement), suggesting that individuals who did eat consumed more. This raises questions about the analysis and interpretation of the results. Should we consider the group as a whole, with a reduced sensitivity to sweetness, or should we focus on individuals, with each one eating more? I am also concerned about how this could influence the results obtained using live imaging approaches, as the flies being imaged might or might not have been motivated to eat during the feeding assays. I would like the authors to clarify their choice of analysis and discuss this critical point, as the interpretation of the results could potentially be the opposite of what is presented in the manuscript.

      Please refer to our responses to the Public Review (Reviewer 1, Point 2) for details.

      Recommendations for the authors:

      Reviewer #1 (Recommendations for the authors):

      (1) The label for the y-axis in Figure 1B should be "fraction", not "percentage".

      We have revised the figure as suggested.

      (2) I suggest that the authors indicate the ROIs they used to quantify the signal intensity in Figure 3E and G.

      We have revised the figures as suggested.

      (3) There is a typo in Figure 4A: it should be "Wilde type", not "Wide type".

      We have revised the figure as suggested.

      (4) The elav-GAL4/+ data in Figure 4-S1B, C, and D appears to be reused across these panels. However, the number of asterisks indicating significance in the MAT plots differs between them (three in panels B and C, and four in panel D). Is this a typo?

      It is indeed a typo, and we have revised the figure accordingly.

      Reviewer #2 (Recommendations for the authors):

      Additional comments:

      The authors should add this missing literature about dopamine and neuromodulation in courtship:

      Boehm et al., 2022 (eLife) - this study shows that mating affects olfactory behavior in females.

      Cazalé-Debat et al., 2024 (Nature) - Mating proximity blinds threat perception.

      Gautham et al., 2024 (Nature) - A dopamine-gated learning circuit underpins reproductive state-dependent odor preference in Drosophila females.

      We have added these references in the introduction section.

      Has the mating behavior been quantified? How often did males copulate with mated and virgin females?

      We tried to examine the copulation behavior based on our video recordings. In the “Failed” group (males paired with mated females), we observed virtually no successful copulation events at all, confirming that nearly 100% of those males experienced sexual failure. In contrast, males in the “Satisfied” group (paired with virgin females) mated on average 2-3 times during the 4.5-hour conditioning period. We have added some explanations in the manuscript.

      Do the rejected males live shorter? Is the effect also visible when they are fed with normal fly food, or is it only working with sugar?

      We did not directly measure the lifespan of these males. But we conducted a relevant assay (starvation resistance), in which “Failed” males died significantly faster than both Naïve and Satisfied controls, indicating a clear reduction in their ability to endure food deprivation (Figure 1-supplement 1B). Since sweet taste is a primary cue for food detection in Drosophila, and sugar makes up a large portion of their standard diet, the drop in sugar sensitivity we observed in Failed males could likewise impair their perception and consumption of regular fly food, hence their resistance to starvation.

      Also, the authors mention that the reward pathway is affected, this is probably the case as sugar sensation is impaired. One interesting experiment would be (and maybe has been done?) to test rejected males in normal odor-fructose conditioning. The data would suggest that they would do worse.

      We have already measured how courtship failure affected fructose sensitivity (Figure 1 supplement 1D), and we found that the reduction in fructose perception was even more profound than for sucrose. We have not yet tested whether Failed males showed deficits in odor-fructose associative conditioning. That was indeed a very interesting direction to explore. But olfactory reward learning relies on molecular and circuit mechanisms distinct from those governing taste. We therefore argue such experiments would be more suitable in a separate, follow up study.

      The authors could have added another group where males are exposed to other males. It would be interesting if this is also a "stressful" context and if it would also reduce sugar preference - probably beyond the scope of this paper.

      In our experiments, all flies, including those in the Naïve, Failed, and Satisfied groups, were housed in groups of 25 males per vial before the conditioning period (and the Naïve group remained in the same group housing until PER testing). This means every cohort experienced the same level of “social stress” from male-male interactions. While it would indeed be interesting to compare that to solitary housing or other male-only exposures, isolation itself imposes a different kind of stress, and disentangling these effects on sugar preference would require a separate, dedicated study beyond the scope of the present work.

      Would the behavior effect also show up with experienced males? Maybe this has been tested before. Does mating rejection in formerly successful males have the same impact?

      As suggested by the reviewer, we performed an additional experiment in which males that had previously mated successfully were subsequently subjected to courtship rejection. As shown in Figure 1 supplement 1F, prior successful mating did not prevent the decline in sweet sensitivity induced by subsequent mating failure, indicating that even experienced males exhibit the reduction in sugar sensitivity after rejection.

      Is the same circuit present and functioning in females? Does manipulating dopamine receptors in GR5a neurons in females lead to the same phenotype? This would suggest that different internal states in males and females could lead to the same phenotype and circuit modulations.

      This is indeed a very interesting suggestion. In male flies, Gr5a-specific knockdown of dopamine receptors did not alter baseline sweet sensitivity, but it selectively prevented the reduction in sugar perception that followed mating failure (Figure 6C-D), indicating that this dopaminergic pathway is engaged only in the context of courtship rejection. By extension, knocking down the same receptors in female GR5a neurons would likewise be expected to leave their basal sugar sensitivity unchanged. Moreover, because there is currently no established paradigm for inducing mating failure in female flies, we cannot yet test whether sexual rejection similarly modulates sweet taste in females, or whether it operates via the same circuit.

      Reviewer #3 (Recommendations for the authors):

      Suggestions to the authors:

      Introduction, line 61. I suggest the authors add references in fruit flies concerning the rewarding nature of mating. For example, the paper from Zhang et al, 2016 "Dopaminergic Circuitry Underlying Mating Drive" demonstrates the role of the dopamine rewarding system in mating drive. There is a large body of literature showing the link between dopamine and mating.

      We have added this literature in the introduction section.

      Figure 1B and Figure Supplement 1: If I understood correctly, Figure Supplement 1A shows that the total food consumption across all tested flies remains unchanged. However, fewer flies that failed to mate consumed sucrose. I would be curious to see the results for sucrose consumption per individual fly that did eat. According to their results, individual flies that failed to mate should consume more sucrose. This would change the conclusion. The authors currently show that a group of flies that failed to mate consumed less sucrose overall, but since fewer males actually ate, those that failed to mate and did eat consumed more sucrose. The authors should distinguish between failed and satisfied flies in two groups: those that ate and those that did not.

      Please see our responses to the Public Review for details (Reviewer 1, Point 2).

      Figure 1C, right: For a better understanding of all the "MAT" figures, I suggest the authors start the Y axis with the unit 25 and increase it to 400. This would match better the text (line 114) saying that it was significantly elevated in the failed group. As it is, we have the impression of a decrease in the graph.

      We have revised the figures accordingly.

      Line 103: When suggesting a reduced likelihood of meal initiation of these males, do these males take longer to eat when they did it? In other words, is the latency to eat increased in failed males? That would be a good measure of motivational state.

      We tried to analyze feeding latency in the MAFE assay by measuring the time from sucrose presentation to the first proboscis extension, but it was too short to be accurately accounted. Nevertheless, when conducting the experiments, we did not feel/observe any significant difference in the feeding latency between Failed males and Naïve or Satisfied controls.

      Line 117. I don't understand which results the authors refer to when writing "an overall elevation in the threshold to initiate feeding upon appetitive cues". Please specify.

      This phrase refers to the fact that for every sweet tastant we tested, including sucrose (Figure 1C), fructose and glucose (Figure 1 supplement 1D-E), the concentration-response curve in Failed males shifted to the right, and the Mean Acceptance Threshold (MAT) was significantly higher. In other words, for these different appetitive cues, mating failure raised the concentration of sugar required to trigger a proboscis extension, indicating a general elevation in the threshold to initiate feeding upon an appetitive cue.

      Figure 1D. Please specify the time for the satisfied group.

      For clarity, the Naïve and Satisfied groups in Figure 1D each represent pooled data from 0 to 72 hours post-treatment, as their sweet sensitivity remained stable throughout this period. Only the Failed group was shown with time-resolved data, since it was the only group exhibiting a dynamic change in sugar sensitivity over time. We have now specified this in the figure legend.

      Figure 1F. The phenotype was not totally reversed in failed-re-copulated males. Could it be due to the timing between failure and re-copulation? I suggest the authors mention in the figure or in the text, the time interval between failure and re-copulation.

      We’d like to clarify that the interval between the initial treatment (“Failed”) and the opportunity for re copulation was within 30 minutes. The incomplete reversal in the Failed-re-copulated group indeed raised interesting questions. One possible explanation is that mating failure reduces synaptic transmissions between the SEZ dopaminergic neurons and Gr5a<sup>+</sup> sweet sensory neurons (Figure 3), and the regeneration of these transmissions takes a longer time. We have added this information to the figure legend and the Method section.

      Line 227-228 and Figure 3E. The authors showed that the synaptic connections between dopaminergic neurons and Gr5a+ GRNs were significantly weakened. I am wondering about the delay between mating failure and the GFP observation. It would be informative to know this timing to interpret this decrease in synaptic connections. If the timing is relatively long, it is possible that we can observe a neuronal plasticity. However, if this timing is very short, I would not expect such synaptic plasticity.

      The interval between the behavioral treatment and the GRASP-GFP experiment was approximately 20 hours. We chose this time window because it was sufficient for both GFP expression and accumulation. Therefore, the observed reduction in synaptic connections between dopaminergic neurons and Gr5a<sup>+</sup> GRNs likely reflects a genuine, experience-induced structural and functional change rather than an immediate, transient effect. We have added this information to the revised manuscript for clarity in the Method section.

      Line 240-243: The authors demonstrated that there is a reduction of CaLexA-mediated GFP signals in dopaminergic neurons in the SEZ after mating failure, but not a reduction in Gr5a+ GRNs. I suggest replacing "indicate" with "suggest' in line 240.

      We have made the change accordingly. Meanwhile, we would like to clarify that while we observed a reduction of NFAT signal in SEZ dopaminergic neurons (Figure 3G), we did not directly test NFAT signal in Gr5a<sup>+</sup> neurons. Notably, the results that the synaptic transmissions from SEZ dopaminergic neurons to Gr5a<sup>+</sup> neurons were weakened (Figure 3E-F), and the reduction of NFAT signal in SEZ dopaminergic neurons (Figure 3G-I), were in line with a reduction in sweet sensitivity of Gr5a<sup>+</sup> neurons upon courtship failure (Figure 3B-D).

      Line 243: replace "consecutive" with "constitutive".

      We have revised it accordingly.

      Figure 5: I have trouble understanding the results obtained in Figure 5. Both constitutive activation and inhibition of Dop1R1 and Dop2R neurons lead to the same results, knowing that males who failed mating no longer exhibit decreased sweet sensitivity. I would have expected contrary results for both experimental conditions. I suggest the author to discuss their results.

      Both activation and inhibition of Dop1R1 and Dop2R neurons eliminated the effect of courtship failure on sweet sensitivity (Figure 5). These results are in line with our hypothesis that courtship failure leads to changes in dopamine signaling and hence sweet sensitivity. If dopamine signaling via Dop1R1 and Dop2R was locked, either to a silenced or a constitutively activated state, the effect of courtship failure on sweet sensitivity was eliminated.

      Nevertheless, as the reviewer pointed out, constitutive activation/inhibition should in principle lead to the opposite effect on Naïve flies. In fact, when Dop1R1<sup>+</sup>/Dop2R<sup>+</sup> neurons were silenced in Naïve flies, PER to sucrose was significantly reduced (Figure 5C-D), confirming that these neurons normally facilitate sweet sensation. Meanwhile, while neuronal activation by NaChBac did show a trend towards enhanced PER compared to the GAL4/+ controls, it did not exhibit a difference compared to +>UAS-NaChBac controls that showed a high PER level, likely due to a potential ceiling effect. We have added the discussions to the manuscript.

      Figure 7: I suggest the authors modify their figure a bit. It is not clear why in failed mating, the red arrow in "behavioral modulation" goes to the fly. The authors should find another way to show that mating failure decreased the percentage of flies that are motivated to eat sugar.

      We have modified the figure as suggested.

      Overall, I would suggest the authors be precautious with their conclusion. For example, line 337= "sexual failure suppressed feeding behavior". This is not what is shown by this study. Here, the study shows that mating failure decreases the fraction of flies to eat sucrose. Unless the authors demonstrate that this decrease is generalizable to other metabolites, I suggest the authors modify their conclusion.

      While we primarily used sucrose as the stimulant in our experiments, we also tested responses to two other sugars: fructose and glucose (Figure 1 supplement 1D-E). In all three cases, mating failure led to a significant reduction in sweet perception, suggesting that the effect of courtship failure is not limited to a single metabolite but rather reflects a general decrease in sweet sensitivity. Meanwhile, reduced sweet sensitivity indeed led to a reduction of feeding initiation (Figure 1).

      • Synthèse des Thèmes Principaux
      • Système de Santé en Crise et Désorganisation
      • Le système de santé français, autrefois "protecteur et solidaire", ne tient plus ses promesses.
      • La désorganisation est le cœur du problème, plus que le manque de moyens, qui sont pourtant limités face à des missions illimitées. "La France consacre à la santé plus que beaucoup de pays européens mais sans de meilleurs résultats car c’est avant tout l’organisation qui est défaillante et dans un système désorganisé rajouter des moyens c’est verser de l’eau dans un seau percé."
      • L'épuisement des professionnels est généralisé.
      • Rôle et Souffrance de l'Hôpital Public
      • L'hôpital public est un pilier du "pacte républicain" et le "dernier recours quand tout vacille".
      • Il souffre d'un manque de reconnaissance et est perçu comme un "gouffre financier" ou un "tableau Excel".
      • Il est saturé par des missions qui ne sont pas les siennes, se substituant aux carences d'autres structures (manque de solutions à domicile, en SSR, en EHPAD). "L’hôpital est en permanence saturé de patients pour lesquels il n’est pas le lieu pertinent faute de soins et domicile ou de solutions sociales adapté."
      • Les déficits hospitaliers sont quasi généralisés car le financement n'est pas à la hauteur des exigences.
      • Propositions de Réorganisation Hospitalière
      • Moins d'hôpital, mais mieux d'hôpital : Il ne s'agit pas de fermer des hôpitaux mais de "repenser l'offre de soins".
      • Développement de l'ambulatoire et de l'HAD : Poursuivre le développement de l'hospitalisation à domicile et des activités ambulatoires.
      • Réorientation des capacités : Adapter la répartition des lits au profit de la médecine polyvalente et de la gériatrie. "La solution n’est donc pas d’ouvrir à tout-va des lits de médecine aiguë mais de repenser son environnement pour améliorer l’accès aux soins hospitaliers."
      • Gradation des soins : Arrêter de croire que "l'on pourra tout faire partout". La gradation des soins est une "garantie de qualité" et non une "punition territoriale".
      • Gestion des lits : Impératif d'ordonnancer les parcours patients au sein des établissements et de manière solidaire entre acteurs du territoire.
      • Accès aux Soins Non Programmés et Urgences
      • Le recours systématique aux urgences est une "absurdité" : 30 à 40% des passages pourraient être évités.
      • Les urgences sont un "symptôme mais pas la solution".
      • Tous les médecins (hospitaliers et libéraux) doivent participer à l'organisation des soins non programmés, y compris en journée.
      • Attractivité des Métiers de la Santé et Formation
      • Le modèle hospitalier n'attire plus en raison de la contrainte et du manque de reconnaissance. "Mes propres enfants m’ont dit 'On ne restera pas à l’hôpital car on ne veut pas la vie que tu as eu.'"
      • Nécessité de redonner du sens, de la reconnaissance et de la confiance aux professionnels.
      • La formation doit être repensée :
      • Former "autrement", ancré dans les territoires et selon les besoins réels (généralistes, gériatres, psychiatres, pédiatres).
      • Développer la polyvalence et la polypathologie dans les formations.
      • Intégrer des modules de management, de relations humaines et de travail en équipe dès les études médicales.
      • Explorer des cursus communs et pluriprofessionnels.
      • Développer de "nouveaux métiers" et les "IPA" (Infirmiers en Pratique Avancée) sont sous-exploités.
      • Gouvernance et Coopération Territoriale
      • La gouvernance du système est "illisible" avec trop d'intervenants et de strates.
      • Les Agences Régionales de Santé (ARS) doivent être des régulateurs et des accompagnateurs des transformations, non des contrôleurs permanents.
      • Nécessité de fusionner les agences d'État redondantes et d'unifier la stratégie entre le ministère et l'assurance maladie.
      • Le "territoire" est le bon niveau pour organiser les parcours de soins. Un projet territorial de santé obligatoire, articulé avec les dispositifs existants (CPTS, contrats locaux de santé, GHT), est nécessaire.
      • Groupements Hospitaliers de Territoire (GHT) :Les GHT doivent évoluer vers une "deuxième génération", en abandonnant le modèle "monolithique" actuel.
      • Imaginer "plusieurs types de GHT" avec des gouvernances adaptées (personnalité morale, outils communs de décision).
      • Intégrer les élus locaux dans les prises de décision territoriales.
      • Développer de "vraies équipes spécialisées de territoire" capables de mutualiser les expertises.
      • Coopérations : Elles ne se décrètent pas, mais nécessitent un cadre incitatif et le dépassement des peurs (peur de la fermeture, tentations économiques). "Personne n’a intérêt à agir, personne n’est incité véritablement à agir."
      • Mettre fin à la dichotomie "ville-hôpital" et aux "silos étanches". La "véritable source d’efficience réside dans les coopérations étroites".
      • Financement et Efficience
      • Les politiques d'efficience focalisées uniquement sur la "performance financière" ont dégradé les finances hospitalières et désengagé les professionnels.
      • La Tarification à l'Activité (T2A) a été un progrès mais a des limites, notamment avec les baisses de tarifs ("travailler plus pour gagner moins") et la mauvaise rémunération de certaines spécialités (maternités, réanimation).
      • Il faut évoluer vers des dotations socles, des dotations populationnelles et des financements à la qualité et à la pertinence des soins. "Aujourd’hui on n’est pas incité à coopérer, on n’est pas incité à travailler avec le privé, on est incité à se concurrencer."
      • Le paiement à l'acte, dans certains secteurs, "tue l'hôpital public", notamment en encourageant la création de centres de soins non programmés privés par d'anciens urgentistes hospitaliers.
      • Maternités et Réorganisation
      • La question de la fermeture des maternités est complexe et délicate. Il ne s'agit pas d'un simple critère de nombre d'accouchements, mais de la réunion des "trois compétences" (pédiatres, anesthésistes, gynécologues-obstétriciens) et de la sécurité des équipes et des patientes.
      • Maintenir des maternités sans personnel qualifié suffisant est dangereux. "Quand on n’a pas les professionnels il est plus dangereux de fermer de laisser ouvert."
      • Nécessité de réorganiser en amont pour éviter les fermetures subies et de cartographier les besoins territoriaux.
      • Le "ratio" personnel/patient n'est pas la seule solution aux charges de travail ; il faut aussi considérer l'organisation, l'architecture, les équipements et le climat social.
      • Numérique en Santé
      • Le numérique est un "levier de la transformation hospitalière" mais est actuellement une "jungle et un désert".
      • Nécessité d'un "dossier patient unique interopérable intégré entre tous les acteurs" pour un meilleur partage d'informations, la qualité, la sécurité et la qualité de vie au travail des soignants.
      • La télémédecine et l'intelligence artificielle doivent être pensées comme des outils au service de l'accès aux soins, et non comme des gadgets.
      • Citations Clés
      • "La France consacre à la santé plus que beaucoup de pays européens mais sans de meilleurs résultats car c’est avant tout l’organisation qui est défaillante et dans un système désorganisé rajouter des moyens c’est verser de l’eau dans un seau percé." (Thierry God)
      • "L’hôpital est en permanence saturé de patients pour lesquels il n’est pas le lieu pertinent faute de soins et domicile ou de solutions sociales adapté." (Thierry God)
      • "Il faut moins d’hôpital mais pour mieux d’hôpital." (Thierry God)
      • "La gradation des soins n’est pas une punition territoriale c’est une garantie de qualité." (Thierry God)
      • "Cesson de parler de la crise des urgences les urgences sont un symptôme mais pas la solution." (Thierry God)
      • "Mes propres enfants m’ont dit 'On ne restera pas à l’hôpital car on ne veut pas la vie que tu as eu.'" (Thierry God)
      • "La véritable source d’efficience réside dans les coopérations étroites dans les par les acteurs par des complémentarités et par la gradation des soins moins de cloisonnement et plus de responsabilités partagées et d’incitations à agir ensemble moins de technocratie mais plus de confiance moins d’hôpital mais mieux d’hôpital." (Thierry God)
      • "Diriger un hôpital c’est trois défis que nous devons relever simultanément… Le premier défi c’est améliorer continuellement la prise en charge de nos patients… Le deuxième défi… la qualité de vie au travail… Le troisième défi… avoir des établissements de santé en bonne santé financière." (Francis Saintubert)
      • "Il y a des acteurs qui cumulent les avantages si vous me permettez de dire à la fois ils sont payés à l’acte et ils peuvent parfaitement choisir les secteurs les activités qu’ils veulent prendre en charge et en face vous avez des acteurs qui cumulent les contraintes ils ont des enveloppes et ils doivent tout traiter." (Francis Saintubert)
      • "Un hôpital ce n’est pas un centre commercial où chaque service chaque boutique gère son profit son son activité non l’hôpital tous les services sont interdépendants." (Francis Saintubert)
      • "Quand on n’a pas les professionnels il est plus dangereux de fermer de laisser ouvert." (Thierry God)
      • "Personne n’a intérêt à agir, personne n’est incité véritablement à agir." (Thierry God)
      • "Il faut juste donner la possibilité aux ARS d’arrêter je ne remets pas en cause tous les centres de soins non programmés à côté nous avons des centres de soins non programmés qui ont été montés avec la participation de la médecine de ville où évidemment en fonction du temps qu’il passe il y a un contrat il y a un paiement qui est lié à non pas aux actes mais à ce qu’il rendent le temps qu’il passe." (Francis Saintubert)
      • En somme, les intervenants appellent à un "choc d'organisation et un choc de confiance" pour refonder un système de santé qui privilégie la pertinence, la coopération territoriale et la reconnaissance des professionnels, plutôt que de se contenter de "colmater" les brèches ou de poursuivre une logique purement comptable.
    1. Compte rendu détaillé : La justice face aux violences sexuelles, entre tradition punitive et voie restaurative

      • Ce compte rendu explore les principaux thèmes et idées abordés lors de l'émission "Les matins de France Culture" avec Antoine Garapon, magistrat honoraire et président de la commission reconnaissance et réparation, et Aude Douinge, chargée de plaidoyer et de communication de l'association "Face à l'Inceste".

      La discussion se focalise sur les limites de la justice punitive traditionnelle face aux crimes de violences sexuelles, en particulier l'inceste, et propose des alternatives telles que la justice restaurative et des évolutions législatives.

      1. La nature et l'ampleur des crimes sexuels, en particulier l'inceste

      • Les intervenants soulignent l'ampleur effrayante des violences sexuelles, notamment sur les enfants.

      Antoine Garapon mentionne le chiffre de "160 000 enfants subissent des violences sexuelles chaque année" en France, une statistique qu'il met en perspective avec les 1600 homicides annuels, soulignant que les violences sexuelles sont "10 000 fois plus" fréquentes.

      Ces crimes sont caractérisés par :

      • L'identité de l'agresseur : Majoritairement des hommes, souvent majeurs. Les pères (27%), les frères (19%) et les oncles (13%) sont fréquemment cités comme agresseurs.

      • Leur nature "fondatrice" et paradoxale : Antoine Garapon les décrit comme des crimes "réputés les plus graves, les plus fondateurs", mais paradoxalement "les moins condamnés, étaient même les moins dénoncés".

      L'exemple des crimes sexuels commis par des prêtres est particulièrement mis en avant, car une institution qui doit annoncer le salut "sème la mort", ce qui est une contradiction totale.

      • L'inimaginable et le "système du silence" : Pendant longtemps, ces crimes étaient considérés comme "au-delà du périmètre de ce qu'on était prêt à croire".

      Un "système du silence" prévalait, souvent lié à un "conflit de loyauté", où la loyauté envers l'institution (comme l'Église) ou la famille était "supérieure à au crédit porté à un enfant".

      L'affaire de l'Abbé Pierre est citée comme un exemple criant où "tout le monde savait" mais les autorités n'ont pas agi, abordant le crime uniquement par rapport à la loi morale, "pas un mot pour les victimes".

      • La notion de "pharmakos" : La victime, appartenant au vocabulaire sacrificiel, était perçue comme "l'objet du sacrifice".

      La thèse audacieuse de Dorothée Dussy, partagée par Garapon, suggère que les enfants victimes étaient en quelque sorte "le prix de l'ordre familial, de l'ordre ecclésial", participant par leur silence à l'ordre social général.

      2. L'évolution de la "conscience commune" et le rôle du mouvement #MeToo

      La perception de ces crimes a radicalement évolué. Reprenant la définition de Durkheim, qui définit le crime comme "ce qui choque la conscience commune", Antoine Garapon affirme qu'aujourd'hui, "ces crimes sont considérés comme étant les plus choquants dans la conscience générale. Peut-être même plus que les homicides".

      • Cette évolution est attribuée à une période de "rêve d'une société postsacrificielle" et, de manière significative, au mouvement " #MeToo" qui a marqué "un grand tournant" en montrant une évolution de la sensibilité.

      La société ne supporte plus que des dominés (enfants, femmes) soient l'objet de violences impunies, d'autant plus que le viol est quasi équivalent au crime en termes de répression pénale.

      3. Les limites de la justice pénale traditionnelle et les souffrances des victimes

      La justice pénale traditionnelle, bien qu'essentielle, montre ses limites :

      • Centrée sur le coupable et l'ordre public : Elle est "très centrée sur le coupable, sur l'ordre public", plutôt que sur la victime.
      • La "thérapie judiciaire" : L'expression "c'est de la thérapie judiciaire" était utilisée par certains magistrats pour déprécier l'intérêt porté aux victimes, sous-entendant que le rôle du juge n'était pas de s'occuper du rétablissement des personnes.

      Cependant, Antoine Garapon soutient que "s'intéresser au rétablissement des personnes à commencer par celui de la victime, c'est de la justice".

      • Difficulté d'accès à la plainte et amnésie traumatique : Les victimes souffrent d'un "empêchement d'être" et d'une "impossibilité même d'accéder à la plainte, même d'accéder à son propre souvenir".

      L'"amnésie traumatique" peut durer des années, empêchant même la conscience des faits.

      • Le fardeau de la preuve : Il est "très difficile de savoir ce qui s'est passé dans un collège, dans un dortoir d'un collège, dans un confessionnal, dans une famille il y a 30 ou 40 ans".

      Les aveux de l'auteur restent souvent la preuve maîtresse.

      • Impact dévastateur sur les victimes : Une agression sexuelle peut "détruire" une victime, et savoir que son agresseur est "couvert de gloire", "un saint homme", révolte encore plus.
      • La reproduction des violences : Les auteurs de violences incestueuses ou sexuelles ont souvent eux-mêmes été abusés (au minimum la moitié des cas), créant un "engrenage" et un "climat incestuel" dans certaines familles.
      • Santé mentale et espérance de vie : Aude Douinge souligne que l'inceste est "profondément traumatisant" et se cumule en moyenne avec "trois ou quatre autres traumatismes dans l'enfance".

      Plus le nombre de traumatismes est élevé, plus les conséquences à l'âge adulte sont graves.

      Une personne ayant subi deux traumatismes majeurs dans l'enfance a "20 ans d'espérance de vie de moins que la population générale".

      Plus de la moitié des victimes d'inceste font ou ont fait une tentative de suicide.

      4. La justice restaurative : une alternative centrée sur la victime

      Antoine Garapon promeut la justice restaurative comme une "alternative" ou un complément à la justice pénale :

      • Centrée sur la victime : Son but est de "rétablir, de réhabiliter la victime" et de lui "restituer sa parole, lui restituer une parole propre et pas une parole toujours déléguée ou substituée comme dans le procès ordinaire".
      • Nomination et reconnaissance : Elle vise à ce qu'il y ait une "nomination, c'est-à-dire qu'on nomme les choses. Oui, c'était une reconnaissance. Oui, c'est bien. Le premier des besoins des victimes, c'est que la société reconnaisse". Il s'agit d'une "validation sociale de ce qui s'est passé".
      • Objectif de "restituer à une victime l'énergie de vivre" : La justice restaurative est "beaucoup plus dynamique" et vise à libérer la victime de la solitude paralysante.
      • Importance de la parole : Elle ne se caractérise pas par la "mise en suspicion systématique de la parole" de la victime, contrairement au processus pénal.
      • Non-obligatoire : Aude Douinge insiste sur le fait que la justice restaurative "ne peut être obligatoire", car "on ne peut obliger les victimes au pardon".

      5. Les évolutions législatives et les défis de la prescription

      Les intervenants abordent les débats actuels autour de la prescription des crimes sexuels :

      • L'imprescriptibilité : L'association "Face à l'Inceste" milite pour l'"imprescriptibilité pour les crimes d'inceste et la protection immédiate des enfants". Actuellement, le délai de prescription est de 30 ans après les 18 ans de la victime, soit jusqu'à 48 ans.
      • Distinction pénal/civil : Le gouvernement réfléchit à une imprescriptibilité pour la justice civile, permettant des réparations financières, mais à charge pour la victime d'apporter des preuves. Les intervenants estiment que cela ne "prend pas le problème de face" en raison des difficultés de preuve et du risque d'aggraver la souffrance de la victime par un non-lieu.
      • La procédure pénale est fondamentale : Aude Douinge souligne que la "réponse pénale reste extrêmement importante et elle doit pouvoir être offerte aux victimes puisqu'il faut rappeler que la prescription, c'est aussi le droit à l'oubli pour l'agresseur".

      Elle ajoute que "le sentiment d'intranquillité qui habite la victime lui est à vie" et qu'il devrait "venir hanter l'agresseur".

      • Départ de la prescription à la "consolidation" : Une solution juridique proposée serait de faire partir le délai de prescription de la date de "consolidation", c'est-à-dire le moment où le traumatisme est estimé ne plus évoluer, plutôt que de la date des faits. Cependant, la blessure psychique est fluctuante.
      • L'abus de bien social comme exemple : L'exemple de l'abus de bien social, imprescriptible à partir de la découverte du délit, est donné comme modèle pour les crimes sexuels.

      6. Le rôle des associations et les besoins des victimes

      L'association "Face à l'Inceste", créée il y a 25 ans par une victime, Isabelle Aubry, joue un rôle crucial :

      • Visibilisation de l'inceste : Leurs sondages ont révélé que "trois enfants par classe ont subi l'inceste" et que cela touche "un Français sur 10, 7,4 millions de Français".
      • Combats législatifs : Ils ont milité pour la réintégration du crime d'inceste au code pénal en 2016 et la notion de "solidarité".
      • Besoins des victimes : Au-delà de la réponse pénale, les victimes réclament "un soutien psychologique et un soutien indéniablement financier". La prise en charge psychologique est souvent peu soutenue et l'arrêt des thérapies est souvent dû à des raisons financières. Un formulaire pour le remboursement à 100% des soins pour les victimes d'inceste par la sécurité sociale existe mais est "trop peu connu".
      • Reconnaissance et réparation : Les victimes ont besoin d'abord et avant tout de "cette reconnaissance et que la société légitime ce qu'elles ont vécu et viennent leur dire oui, ce qui vous est arrivé et a existé et on va le reconnaître".

      7. Vers une "autre justice" et la "politisation de l'intime"

      Antoine Garapon plaide pour une "autre justice", plus "accomplie", qui intègre différentes facettes :

      • Réarticulation des justices : Il appelle à une "réarticulation entre la justice civile, la justice restaurative et la justice pénale".
      • "Politisation de l'intime" : Le défi est de savoir "comment les pouvoirs publics vont pouvoir s'emparer de relations intimes intelligemment pour mettre fin à cette ce très très grand nombre, ce trop grand nombre de violences sexuelles".
      • Respect des désirs de la victime : Il est crucial de "respecter les désirs de la victime", qu'il s'agisse d'une demande de punition, d'une demande protectrice pour se dégager et vivre dans l'anonymat.
      • Les droits de l'auteur : Tout en se concentrant sur la victime, il est rappelé que "l'auteur aussi a des droits" et bénéficie de la présomption d'innocence.

      En conclusion, la discussion met en lumière la nécessité d'une approche plus globale et empathique face aux violences sexuelles, qui ne se limite pas à la seule punition de l'agresseur mais qui inclut une reconnaissance profonde de la souffrance des victimes, un soutien adapté, et des mécanismes de réparation qui favorisent leur reconstruction et leur capacité à vivre.

    1. Synthèse : Le Consentement au Cœur du Débat en France

      • Ce document explore la notion de consentement, en soulignant son émergence comme un concept central dans le débat public français, notamment sous l'impulsion de mouvements féministes et de procès emblématiques.

      Il met en lumière la complexité de cette notion, les défis liés à sa compréhension et son application, ainsi que les efforts déployés pour l'intégrer pleinement dans la loi et les mentalités.

      1. Le Consentement : Une Notion Émergente et Centralisée

      • Le mouvement féministe et des affaires judiciaires retentissantes ont placé le consentement au premier plan des préoccupations sociétales.

      Le procès des viols de Mazan, avec la condamnation de Dominique Pélico pour avoir drogué et violé sa femme pendant dix ans, a été un catalyseur majeur.

      Une des personnes interrogées souligne la simplicité apparente mais la profondeur de la notion :

      "Quand une fille dit non, j'ai l'impression quand même que souvent ça sous-entend que c'est c'est non. Non.

      D'accord. Ah ouais. Ah faut bien c'est pas si simple. Faut bien choper le truc hein. Oui ou non ? Deux petits mots de trois lettres. Mais qui change absolument tout."

      Cette prise de conscience a conduit à des appels à inscrire le consentement dans la loi, exigeant que les agresseurs présumés prouvent avoir obtenu un accord explicite avant tout acte sexuel.

      Le slogan "Jamais sans mon consentement" est devenu un cri de ralliement dans les cortèges féministes.

      2. La Compréhension du Consentement : Défis et Manques

      • Malgré son importance croissante, la compréhension du consentement reste un défi, en particulier chez les jeunes.

      Pauline, victime de viol à 14 ans par son premier petit ami, témoigne de la difficulté à identifier le viol et à en parler, d'autant plus en l'absence d'éducation sexuelle adéquate : "Je savais pas ce que c'était les rapports.

      Donc pour moi c'était un peu la norme entre guillemets... je savais pas trop comment en parler et après j'ai mis du temps avant de d'accepter aussi le terme viol parce que c'est un mot quand même très fort."

      Elle évoque aussi l'influence de la pornographie, qui "ne parle pas du tout" du consentement à cet âge.

      Les témoignages révèlent que le "non" n'est pas toujours respecté, et que la peur peut paralyser les victimes, comme Elodie qui a été agressée sexuellement à 17 ans : "J'étais tellement peur que c'est comme si j'étais paralysée. J'arrivais pas à crier. J'étais vraiment tétanisée."

      3. L'Éducation et la Prévention : Des Outils Essentiels

      Face à ces lacunes, des interventions en milieu scolaire se multiplient. Une gendarme intervient dans un collège pour expliquer le consentement aux élèves de 3ème.

      Elle définit l'agression sexuelle comme "le fait de toucher les parties intimes sans consentement, sans son autorisation."

      Elle insiste sur la clarté du "oui" ou du "non", verbal ou par des gestes, et surtout, sur le fait qu'en l'absence de réponse, il faut considérer que c'est un "non".

      L'importance de parler "sans cacher les mots" est soulignée par la gendarme, car "on a beau dire non du plus plus fort qu'on peut, si l'autre en face n'entend pas, il fera quand même ce qu'il a envie de faire qui est illégal."

      Ces interventions sont jugées cruciales, car la discussion sur le consentement est "très peu abordée aussi bien par les parents à la maison qui peuvent être embarrassés... et même les établissements scolaires sont parfois dépourvus de moyens."

      4. La Réalité des Violences Sexuelles : Souvent le Fait de Proches

      Un point crucial est la démystification de l'image de l'agresseur. Contrairement à l'imaginaire collectif, un violeur n'est pas toujours un inconnu armé : "Dans 90 % des cas, l'agresseur connaît sa victime.

      Dans la moitié des cas, c'est son partenaire ou un ex amoureux." De plus, les femmes sont majoritairement les victimes, avec 91% des auteurs de violences sexuelles étant des hommes.

      5. La Complexité Juridique et la Subjectivité du Consentement

      • Les affaires de viol sont souvent complexes, mêlant souffrances et ressentiments. L'avocat Robin Binsard souligne que la "question de la preuve est toujours au centre des débats" et que la "vérité est parfois plurielle".

      Un accusé, qui nie les viols dont il est accusé malgré la condamnation à 7 ans de prison, exprime cette ambiguïté : "La notion de consentement est pour moi acquise...

      À aucun moment, ell m'ont elles m'ont dit non clairement." Il ajoute avoir dit à une victime "C'est comme un viol, ce n'en est pas un," illustrant la "limite très fine" de la compréhension.

      • La magistrate Genola Jolicose récuse la notion de "parole contre parole", affirmant que le rôle de la cour est de "contextualiser, de comprendre que ça n'est pas simplement une situation qui nous est décrite mais en réalité un système.

      Tout ça est adossé à la culture du viol, au patriarcat, à la domination des femmes et c'est ça qui change tout."

      6. L'Inscription Légale du Consentement : L'Exemple International

      Le débat sur l'inscription du consentement dans la loi française s'inspire de législations étrangères :

      • Suède (2018) : Nécessité d'un consentement verbal ou physique.
      • Espagne (2022) : Un rapport sexuel sans consentement explicite est un viol ("solo sí es sí").
      • Canada : Premier pays à définir le consentement pénalement comme donné "librement et avec enthousiasme, continu, précis, requis pour chaque activité et éclairé". Éléonore Noël, chercheuse en sciences sociales au Canada, explique que cela change tout car l'enjeu principal n'est plus la violence ou la contrainte, mais l'absence de consentement.

      7. Changer l'Imaginaire Collectif pour une Culture du Consentement

      • Pour lutter contre la "culture du viol" et promouvoir une "culture de consentement", il est essentiel de "développer un imaginaire positif autour du consentement".

      Les films et les médias sont critiqués pour leurs représentations stéréotypées où l'insistance masculine est glorifiée et le "non" féminin est souvent interprété comme un "oui" latent.

      Des initiatives, comme l'association Sex et Consentement, proposent des supports (cartes postales, préservatifs) avec des messages explicites pour normaliser la demande de consentement.

      Les jeunes interrogés y voient un moyen de "nous forcer à réfléchir et à demander à l'autre aussi si elle est d'accord oui ou non."

      En conclusion, l'émission souligne une transformation profonde des mentalités et du cadre légal autour du consentement en France, tirant des leçons des expériences individuelles et des législations internationales pour mieux protéger les victimes et éduquer les nouvelles générations.

    1. Compte Rendu Détaillé : L'école et les enfants d'immigrés en France

      • Ce compte rendu explore les thèmes centraux et les idées essentielles abordées dans l'émission "France culture être et savoir L'école d'aujourd'hui fait-elle moins bien avec les enfants d'immigrés".

      Les discussions, menées par Louis Touret, impliquent le sociologue Stéphane Beau, auteur de "La France des Béloui, portrait de famille 1977-207", et Véronique Desquer, enseignante en éducation prioritaire depuis 30 ans.

      Magid Cherfi, chanteur du groupe Zebda et écrivain, et Dominique Garcia, archéologue et président de l'INRAP, partagent également leurs expériences personnelles.

      L'émission s'articule autour de l'impact de l'école française sur les enfants d'immigrés, l'évolution du rôle des enseignants et de la politique en la matière, les défis de la ségrégation sociale et spatiale, et le rôle crucial de l'école dans l'intégration sociale.

      I. L'École comme Porte d'Entrée et Facteur de Réussite Sociale

      L'école est présentée comme un lieu d'espoir et de possibilités, particulièrement pour les enfants d'immigrés. Stéphane Beau souligne l'importance du diplôme dans la société française et le rôle majeur de l'école dans la transmission des savoirs en milieu populaire.

      • Le témoignage de Magid Cherfi : Né en 1962, il est le seul bachelier de sa cité à Toulouse en 1980. Il décrit l'école comme "une des portes qui nous permettent d'entrer en France".

      L'instituteur y incarne un principe d'égalité, contrastant avec les discriminations vécues dans la rue où ils sont traités comme des "bougoules" ou des "indigènes". Ce sentiment d'égalité est "presque martien" pour lui. * Le parcours exemplaire de Samira Beloui : Stéphane Beau raconte l'histoire de Samira, l'aînée d'une famille de huit enfants immigrés d'Algérie. Arrivée en France à 7 ans sans maîtriser le français, elle est "éblouie, entre guillemets, sauvée par un système scolaire français". Ses institutrices sont décrites comme des figures dévouées : "Moi, j'ai une une affection sans borne pour mes institutrices. Elles m'ont aidé, elles m'ont sauvé". L'une d'elles restait même "une heure avec cette jeune fille Samira lui apprenant le français, ne comptant pas son temps." Samira obtient un bac et devient infirmière, une "réussite éclatante" malgré ses responsabilités familiales. * La stratégie parentale et la mixité sociale : Le père des Beloui, bien qu'analphabète, a "choisi un HLM où il y a moins d'étrangers que dans les tours et les barres du même quartier", favorisant une école primaire "un peu plus mixte avec des enfants de classe moyenne pavillonnaires". Ce choix, combiné à l'engagement des instituteurs des années 70, a contribué à la réussite scolaire des aînés. * L'école, dernier service public : Véronique Desquer réfute l'idée que l'école aurait "démissionné" en soulignant qu'elle est souvent "le dernier service public qui est encore ouvert dans le quartier".

      II. L'Évolution du Rôle des Enseignants et les Conditions d'Enseignement

      L'émission met en lumière un changement significatif dans le profil et les conditions de travail des enseignants, particulièrement dans les quartiers populaires.

      • L'enseignant "militant" d'autrefois : Stéphane Beau et Véronique Desquer évoquent une époque où de nombreux instituteurs habitaient dans les cités, créant un lien plus fort avec les communautés. "Beaucoup d'instituteurs habitaient dans les cités", se souvient Véronique Desquer, soulignant que "ça changeait un certain nombre de choses dans les rapports sociaux".

      Ces enseignants étaient souvent issus de milieux populaires, des "miraculés scolaires" qui avaient "à cœur de transmettre ce savoir et notamment aux enfants de milieu populaire comme eux". L'esprit de corps et l'engagement pour la République étaient forts.

      • La suppression des écoles normales et ses conséquences : La fin des écoles normales et l'élévation du niveau de recrutement (Bac+3, Bac+4) ont modifié le profil des enseignants. Véronique Desquer explique que les instituteurs du 20e siècle étaient souvent "de bons élèves mais dont les parents n'ont pas les moyens financiers de les envoyer au lycée".

      L'école normale leur offrait des "études supérieures pour des gens qui n'ont pas les moyens d'aller à l'université". Aujourd'hui, beaucoup d'enseignants vivent leur métier comme un "déclassement" en raison des salaires faibles et des difficultés à trouver des postes près de chez eux.

      • Des conditions d'enseignement plus difficiles : Stéphane Beau insiste sur le fait que "les conditions matérielles d'enseignement sont aussi beaucoup plus difficiles" aujourd'hui, rendant le travail des enseignants dans ces quartiers "beaucoup plus difficile".

      III. Les Inégalités et la Ségrégation Sociale et Spatiale

      L'émission aborde la permanence et l'aggravation des inégalités scolaires, étroitement liées aux changements socio-spatiaux.

      • L'échec de l'école française pour les enfants de catégories populaires : Une étude du KNESCO est citée, indiquant que l'école française est "pas très forte pour faire réussir les enfants d'immigrés" car elle n'est "pas très performante à faire réussir les enfants de catégorie populaire où on trouve les enfants d'immigrés".

      • La précarisation des familles : Véronique Desquer et Stéphane Beau mettent en avant la "précarité" et "l'instabilité" croissante des familles populaires. Les parents, "tellement envahis par leurs propres problèmes", sont moins "disponibles psychiquement pour leurs enfants".

      Cette "accumulation de d'instabilité" affecte directement la scolarité des enfants.

      Stéphane Beau fait le parallèle avec la famille Beloui, qui, bien que "pauvre", a vécu une enfance "pas malheureuse" grâce à une "sécurisation affective" et un "avenir qui était ouvert devant eux".

      • Le changement de sens du mot "cité" : Stéphane Beau note un "anachronisme" dans l'utilisation du mot "cité", qui a pris un sens "dévalorisant" avec l'aggravation de la ségrégation.

      Auparavant, ces quartiers étaient vus comme des lieux où habitaient des professionnels de toutes sortes, y compris des footballeurs célèbres.

      Véronique Desquer ajoute que le mot "cité" désignait les "cités de transit" entre les bidonvilles et les ZUP, qui étaient alors "enviées par tout le monde".

      • Le cumul des difficultés : La "précarisation" des familles, combinée à une école "moins soutenue dans ces quartiers-là" et à l'aggravation de la "ségrégation scolaire", crée un "cumul de choses" qui rend la réussite plus difficile.

      IV. La Différence Filles/Garçons et son Explication Sociologique

      Une différence "majeure et cruciale" est observée dans les parcours scolaires au sein de la famille Beloui : "cinq filles Bachelière (...) et des garçons beaucoup moins diplômés".

      • Motivation et "voie de salut" pour les filles : Stéphane Beau explique que pour les filles, l'école est une "voie de salut".

      Elles savent que "ce n'est que par l'école qu'elles pourront réussir une vie professionnelle et surtout échapper pour cette génération des aînés au mariage qui les attend".

      Cette menace du mariage est une "formidable incitation à réussir à l'école". Les filles font preuve de "bonne volonté scolaire, une disposition scolaire, un suivi d'elle-même, un travail régulier".

      • L'influence des pairs et le rôle de l'extérieur pour les garçons : Les garçons, bons élèves en primaire, "se gâtent" au collège.

      C'est à ce moment que "va jouer à fond le rôle des pères [pairs], des amis, des copains et cetera et des sorties". Les filles ayant "beaucoup moins le droit de sortie", cette dynamique affecte davantage les garçons qui "vont progressivement dérailler".

      Les garçons ont tendance à "reprocher au système scolaire, aux enseignants" leur échec, mais certains finiront par admettre : "C'est vrai, j'ai déconné à l'école".

      • L'éducation genrée et le rôle des aînés : Véronique Desquer confirme que "l'éducation genrée est très forte" et que les activités périscolaires peuvent renforcer ces dynamiques.

      Les filles, moins sujettes aux sorties, ont "plus envie sans doute de progresser et d'apprendre pour s'en sortir parce que il y a un enfermement".

      Les sœurs aînées jouent un rôle de "protection" pour leurs frères, "elles vont suivre elles vont (...) surveiller les bulletins, qui vont rencontrer les enseignants".

      V. Le Rapport à la Politique et à la Gauche

      L'émission explore également l'interaction entre les familles immigrées et le monde politique, en particulier la gauche.

      • Politisation par l'école et les associations : Stéphane Beau observe que les parcours scolaires des filles Beloui leur permettent de "se socialiser d'entrer dans le jeu politique".

      Elles s'intéressent à la politique parce que "la politique va s'intéresser à eux". La fréquentation des clubs de sport et des associations militantes locales (souvent communistes ou de gauche) joue un rôle crucial.

      Leila, la deuxième sœur, est "très marquée par justement ce qu'on fait pour nous malgré tout, les vacances pour nous et cetera sans distinction à égalité".

      • Le "rendez-vous manqué" de la gauche : Véronique Desquer critique la gauche qui, dans les "banlieues rouges", n'a "pas accepté de voir que la classe ouvrière changeait et que les immigrants devenaient des Français et que leurs enfants devenaient des Français de souche".

      Elle estime que la mairie PC de Bobigny a perdu la ville car elle n'a pas su faire de place aux habitants issus de l'immigration. Stéphane Beau cite le livre "La gauche et les cités enquête sur un rendez-vous manqué" de Lilier Mascle, qui explique comment "le ratage la succession des générations ne s'est pas faite".

      • L'affaire Charlie et l'intégration sociale : Le rapport à "être Charlie" au sein de la famille Beloui est un révélateur des différences d'intégration sociale et de politisation.

      Les trois sœurs aînées se disent "Charlie" et manifestent, tandis que les autres, notamment les garçons moins diplômés, sont plus "réactifs" et "dans la théorie du complot", manifestant une "logique de provocation". Stéphane Beau insiste sur la complexité de ces positions, ni "Charlie" ni "anti-Charlie".

      VI. Le Récit du Réel et la Mobilité Sociale

      Les intervenants soulignent l'importance de raconter la réalité des familles populaires et immigrées pour contrer les discours sensationnalistes.

      • Le besoin de récits "ordinaires" : Stéphane Beau explique que son livre vise à raconter "l'histoire ordinaire d'une famille algérienne ordinaire, celle dont on ne parle jamais, qu'on ne raconte jamais".

      Il s'oppose aux récits sensationnalistes centrés sur la "tentation radicale", affirmant que "la France des Benoui, c'est la France majoritaire de ces familles immigrées, mais celle dont on parle jamais parce que tranquillement leurs enfants essayent de faire leur place dans la société française".

      Il y voit une "utilité publique" pour "donner une autre image de la société".

      • La mobilité sociale des familles immigrées : Véronique Desquer, bien que non sociologue, écrit pour "faire un récit du réel qui soit un réel étayé dans le temps".

      Elle déplore les "affirmations d'autant plus péremptoires qu'elles ne sont étayées par rien" de la part de "spécialistes de la banlieue auto-proclamés".

      Elle conclut sur une note positive, soulignant que les familles d'origine maghrébine "sont en train de quitter progressivement les HLM pour aller vivre ailleurs", ce qui est "la preuve d'une vraie mobilité sociale" et démontre que "l'école n'a rien réussi [mais] la mobilité sociale qui est celle de ces familles issues de l'immigration fera preuve puisque ils n'ont hérité de rien hein les béomis à part de l'école publique."

      VII. L'Archéologie de l'Enfance et la Découverte du Monde

      Le témoignage de Dominique Garcia offre une perspective différente sur l'impact de l'école.

      • Découverte de l'histoire et du paysage : Son parcours scolaire, dans une "école moderne" mais avec des "vieilles cartes" de Vidal de la Blache, lui a permis de découvrir que "nos paysages avaient été occupés avant nous".

      Un club d'archéologie au collège, animé par un professeur de lettres classiques, lui a ouvert le monde en lui montrant que "les Romains sont venus dans la région pour exploiter du cuivre c'est eux qui introduit la vigne".

      • Connexion au monde par l'histoire : L'école lui a fait comprendre qu'ils n'étaient "non pas le centre du monde mais le bout du monde".

      Cette "géographie était mêlée d'histoire", l'incitant à "élargir son champ de vision" et à voyager pour fouiller des sites archéologiques.

      • En somme, l'émission brosse un tableau complexe et nuancé de l'école française face aux défis de l'immigration et des inégalités sociales.

      Elle souligne le rôle crucial de l'école comme vecteur de mobilité sociale, tout en pointant du doigt les transformations qui ont rendu son action plus difficile, notamment la précarisation des familles et la ségrégation sociale.

      Le rôle des enseignants, l'évolution de la politique éducative et la nécessité de récits authentiques pour comprendre ces réalités sont également des fils conducteurs majeurs.

    1. Compte-rendu détaillé : Éducation Populaire et Liens avec l'École

      Source : Extraits de "France culture être et savoir Tuerie dans un lycée de Nantes L'éducation populaire, quelles relations avec l'école 11192-28.04.2025-ITEMA_24116950-2025C14993S0118-NET_MFC_1282E914-3484-4849-8E09-1FE806076BE5-21.mp3"

      Introduction : Un événement tragique comme point de départ et la nécessité de l'éducation populaire

      L'émission s'ouvre sur le rappel d'une attaque au couteau survenue le 24 avril dans un lycée privé de Nantes, Notre Dame de toutes aide, où un élève de seconde a poignardé quatre camarades, causant la mort d'une lycéenne.

      L'agresseur, Justin P., 16 ans, était inconnu des services de police et ses camarades le décrivent comme "un jeune homme perturbé".

      Suite à cet événement, la sociologue Nathalie Paton, spécialiste des school shootings aux États-Unis, intervient pour commenter les réactions politiques, notamment la proposition du Premier ministre d'installer des portiques de sécurité.

      Elle juge cette mesure "démesurée et presque légèrement délirante" dans le contexte français, soulignant que les school shootings sont un phénomène isolé en France, contrairement aux États-Unis où ils sont quotidiens et où de telles mesures n'ont pas prouvé leur efficacité, pouvant même générer un sentiment d'insécurité.

      L'analyse des motivations de l'agresseur tend vers une "belle psychose" et un "délire", comme en témoigne un manifeste mêlant des références disparates (Hitler, Écoid).

      Nathalie Paton souligne l'importance d'une approche psychiatrique pour comprendre cet acte, soulignant que le jeune homme était "clairement très mal, très délirant" et que son acte a été un "passage à l'acte" débordant d'une "grande angoisse".

      Thème central : Le sous-financement de la pédopsychiatrie et de la médecine scolaire

      Le cas de Nantes met en lumière les graves lacunes de la prise en charge de la santé mentale des jeunes en France. Nathalie Paton insiste sur l'état "extrêmement préoccupant" de la pédopsychiatrie française et le "délaiement" de la médecine scolaire.

      Elle s'interroge sur l'absence de repérage et de prise en charge préalable de l'agresseur : "Qu'est-ce qui fait que il n'avait pas été pris en charge avant ?

      Ça ça paraît difficile de penser que ça allait déborder pour la première fois ce jour-là."

      Elle dénonce le manque de psychologues scolaires et le fait que la psychiatrie soit considérée comme une "médecine pauvre" par les politiques publiques, manquant cruellement de "politiques et d'investissements".

      Cette première partie de l'émission sert de tremplin pour aborder le rôle crucial de l'éducation populaire dans la construction du lien social et la prévention, en complément de l'école.

      L'Éducation Populaire : Histoire, Valeurs et Fonctions L'émission explore ensuite en détail le monde de l'éducation populaire, souvent invisible mais pourtant essentiel pour deux tiers des enfants et adolescents français (périscolaire, centres de loisirs, colonies de vacances, activités sportives et artistiques).

      1. Fondements et mission historique : Former le citoyen éclairé

      • Hélène Lacassagne, présidente de la Ligue de l'enseignement (créée en 1866 par Jean Macé), souligne la vocation profondément politique et républicaine de l'éducation populaire : "Les fondements même sont des fondements tout à fait républicains.

      Il s'agit de faire en sorte que le vote populaire soit pas ne soit pas détourné parce que parce que ce vote populaire ne serait pas éclairé."

      L'objectif est de "favoriser la création d'une école d'une école publique laïque" et de "former les citoyens pour que la démocratie s'exerce vraiment dans la République."

      La Ligue agit "un mouvement complémentaire de l'école publique et elle agit y compris au sein de l'école publique."

      2. Une éducation "au côté ou à côté de l'école" : Complémentarité et différences

      L'éducation populaire se positionne en complément de l'école, mais avec des approches différentes. Wahid Ben Hamed, directeur du centre de formation des CEMÉA Île-de-France, insiste sur la nature des métiers de l'éducation populaire : "C'est des métiers du lien social.

      C'est des métiers de la cohésion sociale." Il met en avant la dimension collective de l'apprentissage : "On apprend ensemble on apprend lorsqu'on se met autour d'objets communs."

      Distinction fondamentale : L'absence de jugement et de compétition

      Une différence majeure avec l'école est l'absence de jugement et d'évaluation. Laurent Bess, maître de conférence en histoire contemporaine, explique que "les animateurs par principe refusent de juger que ce soit les pratiques ou les réalisations des enfants alors que bah l'enseignant, il dit ce qui est vrai, ce qui est faux, ce qui est juste, ce qui est bon."

      Cette approche favorise une "volonté de conserver la cohérence du groupe" en "abolissant ce jugement qui crée effectivement des différences entre les enfants."

      Wahid Ben Hamed renchérit en affirmant : "C'est pas un concours, c'est jamais c'est ce qui différencie par exemple de la profession d'enseignant."

      Pour lui, l'enjeu est de "réinterroger les représentations du groupe" pour "favoriser l'émancipation".

      Il cite l'exemple du sport où l'on peut "imaginer autre chose" que le simple fait de gagner ou de perdre.

      3. L'évolution de l'éducation populaire : Des cours du soir aux loisirs émancipateurs

      Laurent Bess retrace l'histoire de l'éducation populaire, situant son "âge d'or" entre l'entre-deux-guerres et les années 1970.

      Si au 19ème siècle, elle était davantage centrée sur des modèles scolaires (cours du soir), elle se transforme dans l'entre-deux-guerres autour de la "démocratisation des loisirs", visant à permettre aux enfants des milieux populaires d'accéder à de nouvelles pratiques (artistiques, sportives, plein air).

      Des instituteurs ont d'abord encadré ces activités via les "œuvres laïques", avant d'être progressivement remplacés par des professionnels, les "animateurs socioculturels".

      Aujourd'hui, l'accent est mis sur "l'aspect non scolaire de l'éducation populaire sur la reconnaissance des individus l'accent mis sur des relations qui se veulent horizontales des pratiques qui se veulent ludiques qui visent à former toujours."

      Bien que l'ambition de former le citoyen demeure, le contenu politique est "moins mise en avant".

      4. Le rôle crucial du "vivre ensemble" et de la "transformation sociale"

      Patricia Ménard, directrice du périscolaire pour l'école du Four au sein de la Fondation Léo Lagrange (fondée en 1936), insiste sur les valeurs de son institution : "le vivre ensemble, la découverte et l'épanouissement de l'enfant et la mixité culturelle."

      Elle définit le "vivre ensemble" comme "partager, c'est être ensemble, essayer de comprendre les autres, c'est vivre ensemble en tant que citoyen aussi sur un dans le loisir au sein de l'école, d'avoir les mêmes règles de l'école et du loisir, c'est être un enfant parmi toute une collectivité et être à plusieurs pour être bien en fait."

      • Mohamed Magassa, coordinateur au centre de ressources documentaires des CEMÉA Île-de-France et président de l'association Reconnectus, met en avant l'importance de "rendre acteurs" les jeunes, de les "accompagner sur ces actions" pour qu'ils "s'approprient l'émancipation".

      Il souligne que l'éducation populaire vise la "transformation sociale", en "essayant d'ouvrir une porte et de s'approprier en fait ce qu'on lui propose."

      Défis et Perspectives de l'Éducation Populaire

      1. La précarité des financements et ses conséquences

      La question du financement est jugée "cruciale" par Hélène Lacassagne. Mohamed Magassa explique que son association dépend "systématiquement" de "subventions" et "d'appels à projet".

      Hélène Lacassagne déplore que les appels à projet et les marchés publics se soient "substitués à la subvention", ce qui pose un "une vraie difficulté parce que le diagnostic n'est plus porté par l'association."

      Elle regrette que cela mette en danger la "capacité d'innovation" des associations, autrefois moteurs de dispositifs comme les bibliobus.

      • Elle critique également le fait que le système actuel "met en concurrence les associations là où naturellement quand on travaille sur un territoire... le travail de l'éducation populaire, c'est de mettre en réseau, c'est de construire du projet sur un diagnostic partagé avec d'autres associations, d'autres acteurs."

      Ce modèle, qui exige du temps, est menacé par des politiques publiques qui ne "rencontrent pas les personnes pour lesquelles elle a été inventée", car le "dernier kilomètre, c'est le premier" pour les acteurs de terrain.

      2. Le défi de l'attractivité des métiers et de l'innovation pédagogique

      Les métiers de l'éducation populaire sont "pas très bien payés".

      La motivation des professionnels comme Cyriel, une animatrice Léo Lagrange qui a créé l'atelier "raconte-toi", réside dans le sens de leur travail : "Je n'ai pas l'impression d'aller au travail.

      En fait tous les jours, on a une situation différente et moi je trouve que c'est une chance de pouvoir leur transmettre des valeurs et les écouter."

      Wahid Ben Hamed insiste sur "l'innovation pédagogique" au sein des centres de formation des CEMÉA, qui accueillent de nombreux jeunes ayant "une méfiance et une réticence au fait d'apprendre" suite à un "échec" ressenti vis-à-vis de l'Éducation Nationale.

      L'approche des CEMÉA est non-verticale : "on part du principe que les gens qui sont ici et les apprenants ont des choses à nous apprendre nous à formateur en tant que formateur. Ils ont des des choses à apprendre au groupe qui est là."

      L'exemple de la "Newton Room" au collège Jean-Mermoz d'Angers, un atelier scientifique scandinave, illustre cette volonté d'innover pour rendre les mathématiques "concrètes" et offrir des outils de qualité.

      Ce type de partenariat vise à valoriser l'école publique et à lui donner une "étiquette" pour "exister sur des des établissements qui ont pignon sur rue" (privés).

      3. Accueillir tous les publics et déconstruire les sujets sensibles

      • L'éducation populaire s'adresse à l'ensemble de la population, y compris les "milieux populaires" qui ressentent un fort "sentiment de relégation".

      Hélène Lacassagne souligne la nécessité d'une approche qui ne soit pas seulement "prestataire" mais qui permette de "recréer une relation, de remettre les de faire vraiment éducation populaire, c'est-à-dire de mettre les personnes en situation, de porter l'action, d'être non pas dans une relation de de consommation d'une action, mais d'être associé au diagnostic, au faire et à l'évaluation de la chose de façon à ce que les personnes se sentent reconnu en égale dignité avec les autres citoyennes, les autres citoyens."

      Mohamed Magassa explique comment son association Reconnectus aborde les "questions vives" avec les jeunes.

      Ces derniers "ramènent en fait les sujets qu'ils avaient entendu à l'école pour les déconstruire avec nous", abordant par exemple la discrimination avant la laïcité.

      Leur propre expérience de la discrimination leur permet de mieux accompagner les jeunes : "le sujet de la laïcité s'impose à travers la discrimination."

      Conclusion

      • L'émission met en lumière la fragilité de la pédopsychiatrie et de la médecine scolaire en France, des lacunes qui peuvent avoir des conséquences dramatiques comme le cas de Nantes.

      Face à cela, l'éducation populaire apparaît comme un pilier essentiel, bien que souvent sous-estimé et sous-financé.

      Son rôle complémentaire de l'école, axé sur le lien social, l'émancipation individuelle et collective, et l'absence de jugement, en fait un acteur clé pour répondre aux besoins des jeunes et des familles.

      Cependant, la pérennité et la capacité d'innovation de l'éducation populaire sont menacées par les modes de financement actuels, qui entravent la co-construction de projets adaptés aux réalités du terrain et au "premier kilomètre" des citoyens.

      Le plaidoyer des intervenants est clair : reconnaître et soutenir davantage ce secteur pour qu'il puisse continuer à former des citoyens éclairés et à renforcer le tissu social.

    1. Document d'information détaillé sur les études de genre :

      Ce document d'information examine les principales thématiques et les idées ou faits les plus importants concernant les études de genre, en s'appuyant sur les extraits de l'émission "France Culture Questions du soir : le débat Études de genre : pourquoi tant de polémiques".

      1. La nature controversée des études de genre :

      • Division de l'opinion : Les études de genre suscitent des réactions diverses.

      Certains les perçoivent comme une "remise en cause des repères", tandis que d'autres les considèrent comme un "outil utile pour penser les inégalités". * Controverses politiques et médiatiques : Aux États-Unis, des recherches ont été "freinées voire arrêtées sous l'administration Trump".

      En France, des "polémiques régulières alimentent la méfiance, même dans les sphères ministérielles".

      Le collectif "La Manif pour tous" s'oppose à l'intrusion du "gender à l'école", affirmant que cela "favoriserait l'indifférenciation entre les sexes et la théorie du genre", et que l'idéologie du genre à l'école "signifie propager l'idée aux enfants qu'ils peuvent changer d'identité sexuelle".

      • Menace perçue sur les repères anthropologiques : Pour les opposants, les études de genre menacent les "repères viscéraux auxquels nous sommes attachés en terme d'anthropologie, c'est-à-dire qu'est-ce que l'homme, qu'est-ce que la femme, de quoi a besoin un enfant".

      2. Qu'est-ce que les études de genre ?

      • Un champ d'étude multidisciplinaire : Éric Fassin, sociologue, décrit les études de genre comme un "champ d'étude" mobilisant "des disciplines différentes qui sont mobilisées.

      Ça va des sciences sociales, à la philosophie, mais aussi à la biologie ou à toutes sortes de disciplines."

      • Pluralité des théories : Il n'existe pas une "théorie du genre" monolithique, mais "des théories qui peuvent s'opposer". Sylviane Agacinski, philosophe, confirme qu'il s'agit d'une "caricature", d'une "simplification" de parler d'une idéologie monolithique, car "il y a plusieurs théories, c'est-à-dire il y a aussi plusieurs usages du mot genre."

      • Un concept central : le "genre" comme "sexe social" : Le concept de genre a été "approprié par le féminisme à partir des années 70" et s'est transformé. Il signifiait initialement le "sexe social", comme l'a utilisé Ann Oakley.

      Cette notion est cruciale pour comprendre que "quand on parle des femmes, on parle toujours à mon avis simultanément des femmes telles qu'elles sont dans telle ou telle société, dans telle ou telle culture.

      C'est-à-dire que en tant que sexe [...] elles sont toujours socialisées, de même que le masculin est toujours socialisé."

      • Origine dans les mouvements sociaux : Ce champ d'étude est né de "mouvements sociaux et en particulier du féminisme mais aussi des mouvements sociaux liés aux minorités sexuelles en général." Cela souligne le lien entre "le savoir et la politique".

      3. Le débat sur la biologie et le sexe :

      • Critique du "biologisme" : Le reproche courant est que les études de genre nieraient l'importance de la biologie. Cependant, Éric Fassin explique que ce qui est critiqué n'est pas la biologie en tant que fait, mais le "biologisme", c'est-à-dire "l'idée que nous serions tout entier posé par cette définition."

      • La perspective d'Anne Fausto-Sterling : Cette biologiste féministe utilise le concept de genre pour "déconstruire l'idée même de notre rapport à la biologie".

      Elle remet en question la dualité homme/femme, soulignant une "variété bien plus grande que le simple sexe mâle et femelle" et la possibilité de penser le sexe à "différents niveaux : chromosomal, hormonal, formation des organes génitaux, gonades, et développement humain".

      Elle propose que la discipline biologique propose "des manières d'organiser le réel" mais que cela "ne veut pas dire que c'est le réel".

      • Catégorisation et hiérarchie : Éric Fassin insiste sur le fait que "catégoriser, c'est-à-dire organiser le monde selon des catégories, c'est pas simplement décrire de manière neutre, c'est toujours déjà organiser des hiérarchies."

      • Le point de vue de Sylviane Agacinski sur la reproduction et le sexe : Agacinski rejette l'approche de Fausto-Sterling comme un "biologisme réductionnisme". Pour elle, "la définition du sexe se donne par la fécondité, par la reproduction".

      Elle considère que la distinction mâle/femelle est "universelle" et que les personnes intersexes, bien qu'humaines, sont des "exceptions" qui "confirment la règle".

      • Le sexe comme fait politique et d'état civil : Éric Fassin soutient que le sexe n'est pas "juste une donnée biologique, c'est un fait politique", citant la possibilité de "changer de sexe selon certaines conditions qui sont variables selon les pays et selon les époques".

      Il utilise l'exemple de Donald Trump qui veut "restaurer le sexe biologique", montrant que "c'est un fantasme la biologie" dans ce cas.

      La controverse sur "l'homme enceinte" découle de l'abandon de la stérilisation pour le changement de sexe, montrant que "c'est l'État, c'est la politique qui détermine le sexe." Sylviane Agacinski conteste l'idée que l'on puisse "changer de sexe" facilement, affirmant que les réalités physiologiques persistent.

      4. Les études de genre face à l'individualisme et aux normes sociales :

      • Critique de l'individualisme : Éric Marty suggère que les études de genre, avec leur aspiration à la "gender fluidité" et au "genderless", pourraient être en "parfaite harmonie avec le discours néolibéral" et le masque d'un "ordre social" ou une "idéologie".
      • Réponse des études de genre : Éric Fassin rejette cette critique comme un "contresens". Le féminisme et les études de genre ne visent pas à la disparition des normes, mais à questionner le fait que "ces normes, elles sont historiques et politiques, autrement dit, elles sont susceptibles de changer".
      • Renégociation des normes : Pour Fassin, il ne s'agit pas d'une "disparition des normes" mais d'une "renégociation des normes, les repenser, imaginer d'autres normes".

      Les violences sexuelles en sont un exemple, où il y a eu "une prise de conscience que il y a des normes démocratiques, c'est-à-dire de respecter la liberté, c'est-à-dire la capacité de consentir et l'égalité".

      • Asymétrie des sexes et violence : Sylviane Agacinski insiste sur l'asymétrie de force physique entre hommes et femmes, qui explique selon elle pourquoi les femmes "souffrent de violence sexuelle".

      5. Pourquoi les études de genre cristallisent-elles tant de polémiques ?

      • Touche à l'intimité et aux peurs : Éric Fassin explique que la controverse vient du fait que "ça touche à notre intimité et mobiliser l'intimité, les peurs sur l'intimité et sur les changements de l'ordre amoureux, de l'ordre sexuel et bien c'est politiquement efficace".

      • Un langage politique pour les rapports de pouvoir : Il souligne une deuxième partie de la définition des études de genre, telle que donnée par Joan Scott : "une manière de signifier les rapports de pouvoir".

      Cela signifie que le genre "ne parle pas seulement des hommes et des femmes", mais aussi d'"immigration, de laïcité, d'islam, d'identité nationale, etc."

      C'est un "langage politique pour mobiliser des troupes" et jouer sur des "questions raciales, sur des questions économiques". * Instrumentalisation politique : Sylviane Agacinski reconnaît une "instrumentalisation" et une "utilisation politique". Elle évoque des "violences activistes" qui peuvent se mêler à la "réflexion et la théorie", ce qu'elle déplore.

      • Lien entre féminisme et politique : Éric Fassin insiste sur le caractère "politique" de toutes ces questions, soulignant que "les féministes ne parlent pas d'une seule voix" et s'affrontent parce que ce sont des "enjeux démocratiques".

      Il alerte sur le fait que des leaders comme Trump, Milei, Orban et Poutine "défendent l'idée que l'ordre sexuel et bien ça ne doit pas bouger", ce qui a des "effets sur des gens bien réels et pas simplement sur des minorités sexuelles mais aussi sur des femmes."

      • En résumé, les études de genre sont un champ académique diversifié qui questionne les constructions sociales et politiques des catégories de sexe et de genre.

      Elles sont l'objet de vifs débats, souvent politisés, concernant la nature du sexe, la relativité des normes sociales et leur rôle dans la compréhension et la contestation des rapports de pouvoir.

    1. Document de Synthèse : Violence en Milieu Scolaire – Sécurité vs. Santé Mentale

      Source : Extraits de "France Culture Questions du soir : Sécurité ou santé mentale, quelles solutions contre la violence à l'école ?". Émission du 16.06.2025.

      Invités : * Sylvain Berrios (Député indépendant apparenté Horizon), * Catherine Nafbecti (Secrétaire générale de la CFDT Éducation Formation Recherche Publique), * Johanna Dagorne (Sociologue et chercheuse à l'Observatoire international de la violence à l'école).

      Introduction

      L'assassinat d'une surveillante de 31 ans à Nogent par un élève de 14 ans a ravivé le débat sur la recrudescence des violences en milieu scolaire.

      L'émission explore deux approches principales pour lutter contre ce phénomène : une réponse sécuritaire (portiques, fouilles, sanctions pénales) et une approche axée sur la santé mentale des jeunes (formation du personnel, détection des signaux faibles, augmentation des professionnels de santé scolaire).

      I. Constat et Nature de la Violence

      Hausse des violences graves mais pas généralisée :

      • Catherine Nafbecti observe une angoisse accrue chez les assistants d'éducation et CPE suite au meurtre, notant des recours à des couteaux et tirs de mortiers près des établissements.

      Cependant, elle précise : "Nous syndicalement, on n'a pas forcément un retour de nos équipes nous disant c'est une explosion des violences permanentes.

      Mais depuis le Covid, beaucoup de collègues nous disent, quel que soit leur métier qu'ils perçoivent que des élèves en plus grand nombre qu'auparavant sont fragiles en terme de rapport aux autres, de rapport à la collectivité".

      • Johanna Dagorne contredit l'idée d'une hausse globale de la violence chez les jeunes : "de manière globale, les chiffres de la violence et chez les jeunes diminuent. Par contre ce qu'il se passe qu'il y a davantage de violence paroxistique et puis la question des médias qui fait qu'elle est davantage porté à la connaissance de tous et toutes."

      Elle se fonde sur des statistiques montrant une diminution de 4% des faits sur les mineurs l'année dernière, tout en reconnaissant une augmentation des violences "paroxistiques".

      Origine de la violence : Société vs. Génération :

      • Thèse de la "culture violente générationnelle" (Sylvain Berrios) : Sylvain Berrios suggère que "dans une génération, me semble-t-il un phénomène de culture violente qui existe". Il met en avant l'exposition des jeunes (93% des 15-24 ans ayant joué à GTA) aux jeux vidéo ultra-violents, comme GTA, "qui consiste globalement à tuer des gens dans la rue". Selon lui, cette culture va "marquer de façon assez durablement une génération", créant une "forme de déterminisme".

      Il établit un lien entre cette exposition, la perte de repères d'autorité et les actes dramatiques, comme celui de Nogent.

      • Contre-thèse : Violence historique, rôle de la masculinité toxique (Johanna Dagorne) : Johanna Dagorne réfute l'idée d'un fait générationnel, citant "La Guerre des Boutons" comme preuve de violences juvéniles passées.

      Elle souligne plutôt "la question à la fois du sexe des auteurs, sur la question de la masculinité toxique, sur la question des violences retournées contre autrui."

      Elle explique que les filles expriment davantage la violence par des automutilations, tandis que les garçons le font par l'agressivité.

      Le cas de l'agresseur de Nogent :

      • Le procureur de la République de Chaumont décrit l'accusé comme ayant "une certaine fascination pour la violence et la mort ainsi que pour les personnages les plus sombres des films ou des séries télévisées.

      Il est adepte de jeux vidéos violents sans pour autant être addicte". Plus important, il "apparaît en perte de repère quant à la valeur de la vie humaine à laquelle il ne semble pas attacher une importance particulière."

      • Sylvain Berrios y voit une combinaison de facteurs : exposition à la violence culturelle, perte de repères d'autorité (il était référent harcèlement mais sans réelle conscience des règles), et l'absence de règles.

      II. Solutions Proposées : Sécurité ou Prévention Humaine ?

      L'approche sécuritaire : Limites et contre-productivité :

      • Portiques et fouilles : Sylvain Berrios mentionne l'intention du gouvernement d'expérimenter des portiques et soutient l'idée de fouilles régulières de sacs.

      Cependant, il reconnaît les limites : "vous savez très bien que mois de septembre, il y aura pas des portiques partout.

      Donc tout ça et je vous rappelle encore une fois que le drame qui a eu lieu a eu lieu un moment où on a fouillé des sacs, où il y a des gendarmes, où c'était un jeune qui était un bon élève, qui était référent harcèlement."

      Catherine Nafbecti et Johanna Dagorne critiquent vivement ces mesures :

      • Le couteau de Nogent n'aurait pas été détecté.

      • Les fouilles par les forces de l'ordre sont logistiquement complexes, retardent le début des cours et créent des attroupements dangereux aux abords.

      • Johanna Dagorne estime que la prévention situationnelle (portiques, vidéosurveillance) "ne va faire qu'augmenter en effet les rencœurs, la colère, les injustices et donc par conséquent va engendrer un manque d'autorité institutionnelle évidemment, mais également des violences."

      Elle soutient que la violence étant majoritairement endogène (perpétrée par les élèves eux-mêmes), la prévention doit être "humaine".

      • Justice pénale et centres éducatifs fermés : Sylvain Berrios préconise une réponse pénale précoce, y compris des détentions dans des centres éducatifs.

      • Johanna Dagorne conteste l'efficacité de l'enfermement : "la dernière enquête de Bran et de Choqué [sur les contrats éducatifs fermés] montre qu'il y a 70 % de réitération de récidive.

      On sait très bien que la question de l'enfermement de la coercition et là je suis juste uniquement sur le volet pragmatique, ça ne marche pas, c'est contreproductif."

      • L'approche basée sur la santé mentale et l'humain :

      • Détection des signaux faibles et formation du personnel :

      C'est la priorité de Johanna Dagorne et Catherine Nafbecti.

      Un élève "en repli sur soi, lorsqu'il est en décrochage, qu'il a de l'anxiété, une irritabilité soudaine" sont des signes faibles de danger.

      • Manque criant de professionnels de santé scolaire :

      Les chiffres sont alarmants : "un infirmier pour 1600 élèves, un psychologue pour 1500, un assistant ou une assistante sociale pour 4000 élèves et un médecin scolaire pour 13000 élèves.

      Chez les médecins scolaires, le nombre de postes vacants dépasse par ailleurs les 40 %".

      • Conséquences du manque de personnel : Les enseignants sont surchargés, n'ont pas le temps de détecter collectivement les élèves en difficulté.

      Les médecins et infirmières scolaires, majoritairement des femmes, perdent le sens de leur travail et ne rencontrent plus les élèves.

      Il n'y a pas de moyens budgétaires suffisants pour la revalorisation de ces métiers.

      • Solution : Revalorisation des métiers du soin : Johanna Dagorne affirme que "c'est la question des métiers du CER qui sont sous-payés.

      Donc augmenter les salaires, il y aura beaucoup plus de personnes qui se porteront volontaires. C'est systémique". Catherine Nafbecti partage cet avis, ajoutant la question des conditions de travail et du remboursement des frais de déplacement.

      La question de l'autorité et de la justice scolaire :

      • Perte d'autorité et de règles (Sylvain Berrios) : Pour Sylvain Berrios, l'absence d'autorité et de règles, combinée à l'exposition à la violence, est un facteur clé des drames.
      • Justice scolaire et cohérence (Johanna Dagorne) : Johanna Dagorne met l'accent sur la "justice scolaire", définie comme la cohérence dans les punitions, sanctions et notations.

      Les recherches montrent un lien fort entre la justice scolaire perçue par les élèves et la baisse des violences. Des évaluations encourageantes sont préférables à la coercition.

      • La "violence institutionnelle" (Catherine Nafbecti) : Catherine Nafbecti évoque la "violence institutionnelle" qui peut être analysée philosophiquement et sociologiquement.

      Elle questionne si la justice scolaire, bien qu'importante pour éviter le sentiment d'injustice, est suffisante pour prévenir les violences extrêmes.

      Elle souligne le manque de moyens pour que les enseignants puissent être attentifs au harcèlement et aux signes de dégradation de la santé mentale.

      III. Le Rôle des Familles et la Co-éducation

      Responsabilisation des familles :

      • Sylvain Berrios insiste sur le lien entre famille et école : "Je pense qu'on doit s'interroger sur le lien entre la famille et l'école à avoir une corrélation très très forte entre la famille et l'école."

      Il déplore que l'école ait parfois pris le pas sur les parents dans l'éducation. Il observe que les familles aisées et instruites accompagnent mieux leurs enfants que les familles fragiles. * Il suggère une "fusion" ou une "accroche" entre la santé scolaire et la santé familiale.

      Limites et culpabilisation :

      • Johanna Dagorne estime que demander un effort aux parents les plus éloignés du système scolaire est "au mieux illusoire au pire culpabilisant", dans un système éducatif de plus en plus compétitif et "en train de trier l'élite plutôt qu'à réduire les inégalités sociales et scolaires".

      • Catherine Nafbecti défend les parents, affirmant qu'ils ont "à cœur de bien éduquer leurs enfants" et qu'ils ne sont pas démissionnaires, même dans les cas dramatiques comme celui de Nogent.

      Elle souligne aussi le manque de temps des parents qui travaillent pour participer aux réunions scolaires.

      Conclusion

      • Le débat met en lumière une situation complexe, où les solutions sécuritaires, bien que politiquement visibles, sont jugées inefficaces et potentiellement contre-productives face à une violence majoritairement interne à l'école.

      L'accent est mis sur l'urgence d'investir massivement dans la santé mentale des jeunes, via la revalorisation et l'augmentation des professionnels de santé scolaire, ainsi que sur une approche humaine de la prévention, fondée sur la détection des signaux faibles et une "justice scolaire" cohérente.

      La co-éducation entre famille et école est jugée essentielle, mais doit se faire sans culpabilisation des parents les plus fragiles.

    1. Note de synthèse : Les différences cognitives entre les sexes

      Source : Extraits de la conférence "Les différences cognitives entre les sexes : lesquelles ? pourquoi ? comment ?" animée par Franck Ramus.

      Cette conférence aborde la question complexe des différences cognitives entre les sexes, en s'appuyant sur des données scientifiques pour démystifier les idées reçues et explorer les diverses causes possibles (biologiques, environnementales, sociales).

      Thèmes principaux et idées clés :

      1. Existence de différences cognitives moyennes et leur nature :

      • Il existe des différences cognitives moyennes entre les sexes en langage, mathématiques, mémoire et attention.
      • Ces différences sont souvent commentées, exagérées ou niées, mais la science cherche à comprendre leur origine et leur ampleur.
      • Citation : "oui il existe des différences cognitives moyennes entre les sexes en langage en mathématiques en mémoire en attention mais ces différences sont-elles biologiques ?

      quel rôle a joué notre évolution dans cette différenciation ? sont-elles construites par l'éducation ? sont-elles universelles ou liées à une époque et une culture et un environnement ?

      et surtout que peut-on vraiment prouver aujourd'hui quand on interroge la réalité de ces écarts ?"

      2. Le cas des performances en mathématiques chez les filles et les garçons :

      • Les rapports officiels (ADEP, inspection générale) montrent que les filles sont minoritaires dans les options scientifiques au lycée et dans les filières scientifiques de l'enseignement supérieur, une situation stable depuis 20 ans après une progression.

      • Des évaluations nationales récentes ont révélé que les garçons sont en moyenne plus performants en mathématiques dès le milieu du CP.

      • Cet écart est spécifique aux mathématiques, car globalement, les filles ont de meilleurs résultats scolaires dans d'autres matières (français, langues, etc.).

      • Ce phénomène n'est pas franco-français et s'observe dans la plupart des pays de l'OCDE (évaluations PISA), à quelques exceptions près comme la Finlande où il n'y a pas de différence ou elle est inversée.

      • Citation : "dès le dès le milieu du CP il se passe quelque chose au cours du CP qui fait que tout d'un coup les filles commencent à perdre du terrain sur les garçons dans l'apprentissage des mathématiques et c'est assez spécifique aux mathématiques parce que finalement c'est dans un contexte où globalement les filles ont des meilleurs résultats scolaires que les garçons".

      3. Analyse des causes potentielles des différences : un modèle multifactoriel :

      • Le rapport de l'inspection générale écarte l'origine biologique des différences en mathématiques, privilégiant les causes psychologiques et sociologiques, notamment la menace du stéréotype.

      Franck Ramus propose un modèle causal hypothétique incluant :

      • Facteurs internes à l'individu : préférences, motivations, capacités cognitives.
      • Facteurs environnementaux : influences familiales et sociales (socialisation de genre, stéréotypes, modèles).
      • Facteurs biologiques précoces : génome (chromosomes sexuels), hormones sexuelles (testostérone).
      • Facteurs contextuels : peuvent biaiser la mesure des performances (ex: menace du stéréotype, compétitivité).

      4. Analyse critique des facteurs sociaux :

      • Menace du stéréotype :Des expériences (ex: tâche de Rey-Osterrieth présentée comme test de dessin vs. géométrie) montrent que le fales it de mentionner les mathématiques peut faire baisser la performance des filles.
      • Cependant, les méta-analyses et études à grande échelle récentes remettent en question sa réplicabilité et suggèrent que son effet est très faible (taille d'effet proche de 0,07 après correction des biais de publication).
      • Son rôle dans les situations d'évaluation réelles n'est pas clairement établi.
      • Socialisation de genre (activités genrées et organisation genrée de la famille) :Une étude sur la cohorte ELF (4000 enfants suivis de la naissance au CP) n'a trouvé aucun effet des "activités genrées" (choix de jeux, etc.) sur les performances en mathématiques.
      • En revanche, l'organisation genrée de la famille (répartition stéréotypique des tâches parentales) a un petit effet sur les performances en mathématiques des filles au CP (explique environ 7% de la différence garçons-filles).

      Les filles issues de familles plus stéréotypiques ont de moins bons scores.

      • Influence des enseignants :Les caractéristiques des enseignants (sexe, formation) peuvent moduler les performances des filles. Un écart plus important est observé chez les filles ayant un instituteur à formation scientifique.
      • Des études montrent que plus les enseignants ont des stéréotypes de genre (explicites ou implicites), plus les scores des filles en maths diminuent, sans effet sur les garçons.
      • Contexte de l'évaluation (compétitivité, pression temporelle) :Les filles ont tendance à moins bien performer dans les contextes d'évaluation compétitifs ou chronométrés.
      • Les garçons préfèrent davantage les tâches compétitives que les filles.
      • Cependant, ce n'est pas spécifique aux mathématiques et ne semble pas entièrement expliquer les écarts observés dans les évaluations nationales.

      5. La perspective évolutionnaire et les différences à travers les espèces :

      • Il existe de nombreuses différences entre les sexes observables dans toutes les espèces, souvent liées à la reproduction.
      • La reproduction sexuée anisogame (gamètes de tailles différentes) entraîne des stratégies reproductives différentes :
      • Investissement parental : plus important pour les femelles (grossesse, allaitement).
      • Potentiel reproductif : plus élevé chez les mâles (un homme peut potentiellement avoir beaucoup plus de descendants qu'une femme).
      • Compétition intrasexuelle : plus forte chez les mâles, menant à la sélection de traits (taille, force, agressivité).
      • Dimorphisme sexuel : différences de forme/taille (ex: mâles plus grands pour la lutte).
      • Ces prédictions de la théorie de l'évolution sont vérifiées chez l'humain (critères de choix du partenaire, agressivité, violence).
      • Citation : "Toutes ces prédictions de la théorie de l'évolution elles sont vérifiées non seulement dans plein d'espèces mais aussi chez l'être humain et chez la plupart des mammifères donc de ce point de vue on n'a pas l'air exceptionnel du tout".
      • L'hypothèse d'une origine 100% socioconstructiviste des différences humaines est jugée "peu plausible" car elle impliquerait une annulation de l'héritage évolutif et une émergence "par hasard" de différences qui correspondent exactement aux prédictions évolutionnaires.

      6. Lien entre la cognition, l'évolution et les mathématiques :

      • Les mathématiques ne sont pas une capacité cognitive primaire sélectionnée, mais un objet culturel complexe.

      • Capacités visuo-spatiales (rotation mentale 3D) : Les hommes sont en moyenne meilleurs.

      Des études chez les bébés (3-16 mois) et des "expériences de la nature" (filles avec hyperplasie congénitale des surrénales) suggèrent une origine biologique précoce, potentiellement liée à la testostérone prénatale/postnatale.

      • Citation : "c'est un indice possible que pour une capacité cognitive bien spécifique il pourrait y avoir un avantage au garçon qui soit observé dès la naissance et que peut-être il est là parce que il a été sélectionné".

      • Cependant, le lien entre ces capacités spécifiques et la performance globale en mathématiques est complexe et non linéaire, car les mathématiques sollicitent de nombreuses fonctions cognitives (mémoire, raisonnement, etc.) où les avantages sont répartis entre les sexes.

      • Les tests de compétences mathématiques précoces chez les bébés (dès 6 mois) ne montrent pas de différences entre garçons et filles.

      7. Différences de préférences et de variabilité :

      • Préférences :Les hommes ont un intérêt plus fort pour les objets et les systèmes matériels ("systématisation").
      • Les femmes ont un intérêt plus fort pour les personnes et les relations sociales ("empathisation").
      • Ces préférences sont observées dès le plus jeune âge (choix de jouets) avec des tailles d'effet très importantes.
      • Des indices suggèrent un rôle des facteurs biologiques précoces (filles avec hyperplasie, nouveau-nés).
      • Ces préférences peuvent entraîner un engagement différent dans les activités et, à terme, des différences de compétences.
      • Variabilité :Les garçons/hommes présentent une plus grande variabilité dans leurs scores en mathématiques et dans la plupart des traits cognitifs et cérébraux.
      • Citation : "toutes les barres qui sont au-dessus de la ligne zéro ici et ben elles disent que les garçons ont des scores de math plus variables que les filles".
      • Cette plus grande variabilité masculine est expliquée par la plus grande variabilité reproductive des mâles (potentiel de descendants extrêmes), ce qui favorise la sélection de phénotypes extrêmes (très bons ou très mauvais).

      • Conséquence : Même avec une moyenne égale, une plus grande variabilité masculine signifie qu'il y aura plus d'hommes aux extrêmes (à la fois les meilleurs et les moins bons), ce qui impacte les filières sélectives (ingénierie, sciences).

      Conclusion générale :

      • Les différences entre les sexes sont variées en ampleur et en niveaux de preuve.
      • Les différences liées à la reproduction et au comportement social sont importantes et bien étayées par des preuves biologiques précoces.
      • Les différences dans des capacités cognitives spécifiques sont plus petites et leurs preuves d'origine biologique précoce sont plus faibles (ex: rotation mentale 3D).
      • Il n'y a pas de différence significative d'intelligence générale entre les sexes.

      Concernant les différences en mathématiques :

      • Les différences cognitives innées spécifiques aux mathématiques ne sont pas clairement prouvées.
      • Les différences de préférence semblent être un facteur explicatif plus robuste, car elles sont précoces et peuvent influencer l'engagement et le développement des compétences.
      • La socialisation de genre (notamment l'organisation genrée de la famille et les stéréotypes des enseignants) a un effet causal prouvé, bien que modeste.
      • La menace du stéréotype a un effet très faible et sa réalité est débattue.
      • La plus grande variabilité masculine peut expliquer la surreprésentation des garçons aux extrêmes (donc dans les filières d'excellence) même si la moyenne est similaire.

      En somme, l'explication des différences en mathématiques est multifactorielle, impliquant des interactions complexes entre facteurs biologiques, environnementaux et sociaux, sans qu'aucune cause unique ne puisse tout expliquer.

      La focalisation sur les mathématiques est justifiée par leur lien avec les carrières rémunératrices, mais une attention similaire devrait être portée aux difficultés des garçons en français/langage.

    1. Synthèse des Thèmes et Idées Principales : La Grande Solitude des Adolescents et le Manque de Liens Sociaux

      L'émission "France culture être et savoir" aborde la problématique croissante de la solitude chez les adolescents, un phénomène qui dépasse même les questions de santé mentale, et ses conséquences sur la violence et le bien-être général des jeunes.

      Les intervenantes, Louia Bris (coordinatrice jeunesse), Laurence Touroude (spécialiste des sciences de l'éducation), Sophie Vénétitay (secrétaire générale du SNES FSU) et Marie-Rose Morau (pédopsychiatre), explorent les causes de cette solitude et les pistes pour recréer du lien social.

      1. La Solitude Existentielle et Banale des Adolescents

      Le thème central de l'émission est la "solitude immense et banale de nos enfants" (Introduction de l'émission).

      Marie-Rose Morau souligne que les adolescents d'aujourd'hui se sentent "isolé", ce qui est "la chose la plus grave et la plus importante qui arrive à nos adolescents aujourd'hui".

      Cette solitude est si prégnante que même une jeune stagiaire de seconde, Agathe, témoigne de classes où "on est tous restés inconnus les uns des autres", où "on se parlait pas tant que ça" et où elle ne connaissait pas "les prénoms des gens de ma classe".

      Ce manque de lien est perçu comme une "solitude existentielle" par les adolescents eux-mêmes, qui, une fois hospitalisés, apprécient les échanges mais craignent que "quand je vais sortir, ma solitude va recommencer."

      2. Le Manque de Liens Sociaux et la Difficulté à "Vivre Ensemble"

      Plusieurs facteurs sont identifiés comme contribuant à ce manque de lien social :

      • L'individualisation de la réussite scolaire et les réformes éducatives : Marie-Rose Morau critique la "stratégie même à l'intérieur des classes avec des options, avec des" spécialités qui, bien que liées à la "réforme du bac", encouragent les élèves à "réussir individuellement".

      Cela conduit à une méfiance entre eux car "ils se connaissent pas bien qui justement qui a pas ces liens de générosité de et de fraternité". L'école, qui devrait être un lieu collectif, a selon elle "renoncé à être ce lieu collectif".

      • L'impact des écrans et des réseaux sociaux : Louia Bris observe que "de plus en plus, les parents vont plutôt nous dire en fait, il préfère rester à la maison, il préfère être devant ses écrans". Agathe, la stagiaire, l'explique directement : "Les jeunes passent de nos jours beaucoup plus de temps sur les réseaux sociaux qu'en personne avec les gens parce que bah ils peuvent communiquer, ils peuvent s'envoyer des messages, des vocaux comme si c'était la vie réelle." Ce comportement entraîne un repli sur soi où des élèves "s'enferment, ils ont leur casques, leur téléphone, ils parlent à personne".

      • La disparition des espaces collectifs : Les intervenantes soulignent le manque de lieux où les adolescents peuvent se rassembler et construire ensemble. Marie-Rose Morau déplore l'absence de "lieux où ces adolescents construisent finalement contre nous, j'allais dire contre la génération d'avant qui a encore le pouvoir, construisent ses propres valeurs". Sophie Vénétitay ajoute que "la démocratie lycéenne, la démocratie collégienne, ça fait partie de tous ces espaces qui aujourd'hui nous manquent pour créer du collectif et créer du vivre ensemble aujourd'hui." Elle cite également la disparition progressive des "clubs, les associations, la maison des lycéens".

      • L'incapacité à décoder les émotions et interagir : Louia Bris, travaillant en centre social, constate une "incapacité à des moments à créer du lien avec les autres" et une difficulté à comprendre "ce que l'autre ressent".

      Ce constat est partagé par les écoles, centres de loisirs et clubs de sport locaux, tous d'accord sur le fait que les jeunes "ne savent vraiment plus communiquer".

      3. Les Conséquences du Manque de Lien : Violence, Souffrance Psychologique et Isolement du Personnel

      Le manque de liens a des répercussions graves :

      • Augmentation de la violence : L'émission s'ouvre sur les récents faits divers violents impliquant des adolescents, soulignant une "violente sidérante" et un "manque d'empathie" chez certains jeunes. Marie-Rose Morau relie ces violences à la souffrance des adolescents : "certains vont réagir en se faisant du mal à eux-mêmes, d'autres vont réagir en faisant du mal aux autres."
      • Souffrance psychologique et diagnostics précoces sans prise en charge : Marie-Rose Morau met en garde contre les politiques de "repérage ultra précoce" des fragilités, affirmant que "on peut pas prévenir [les passages à l'acte] sauf par des actions de société". Elle dénonce un système où des "diagnostics très précoces" sont faits (par exemple de troubles du neurodéveloppement), mais où les interventions sont retardées de "1 an, 2 ans, 3 ans" ou inexistantes, les familles étant "laissé à elle-même".
      • Fragilité du cadre institutionnel et isolement des adultes : Laurence Touroude met en lumière les dysfonctionnements du cadre institutionnel scolaire, notamment le "manque de circulation de l'information", l'"inconsistance du cadre" (règles fluctuantes), et le manque de soutien de la hiérarchie envers les Assistants d'Éducation (AED). Sophie Vénétitay souligne que les professionnels de l'éducation sont "par définition, par nature, par essence isolé et seul", gérant des situations complexes sans formation adéquate et sans le temps nécessaire pour un travail collectif.

      4. Pistes et Solutions : Recréer du Lien et du Collectif Malgré la gravité de la situation, des solutions sont esquissées :

      • Priorité à la construction de liens et de communautés : Marie-Rose Morau insiste sur la nécessité d'"aider ces adolescents tous à être en relation, à se sentir membre d'une communauté ici, la communauté scolaire mais aussi aussi autour de l'école et dans la famille".
      • Renforcer le rôle des professionnels de l'éducation et les soutenir : Les AED sont un personnel "hyper important" qui "peut avoir un lien très différent avec les élèves" car ils sont des "adultes auxquels on peut parler". Il est crucial qu'ils soient "soutenus" et non "discrédité" par leur hiérarchie, et qu'ils bénéficient de formations sur "l'accompagnement et sur le lien".
      • Accorder du temps et des espaces pour le collectif : Sophie Vénétitay déplore le manque de "temps et des espaces où on pourrait se retrouver pour faire du collectif". Agathe suggère des "temps d'échange", des "lieux d'échange" comme "une salle avec des canapés où tu peux te regrouper entre jeunes, parler et on n'est pas forcément sur nos téléphones".
      • Développer l'éducation populaire et l'autonomie : Les centres sociaux, comme celui de Louia Bris, offrent un "accompagnement global" en créant un cadre "un tout petit peu plus souple" et en incitant les jeunes à l'autonomie, par exemple en les accompagnant à des sorties culturelles pour leur donner "les codes de juste le truc de se dire 'On y va, on voit qu'on peut ça prend 20 minutes en transport, que du coup c'est accessible, que finalement personne ne demande rien au musée.'" Ces lieux démontrent qu'il est possible de "créer des liens" et que "nos lieux fonctionnent". Louia Bris évoque le succès de son centre qui a accueilli "160 jeunes de toute la France", prouvant que "on peut le faire et que les centres sociaux ont trouvé peut-être un bout de réponse qui pourrait être dupliqué dans d'autres structures."
      • Remettre en question la compétition et l'individualisme : Le dialogue doit s'élargir pour interroger "comment est-ce qu'on fait société dans l'école et en dehors ?" La compétition scolaire, la valorisation de l'individuel au détriment du collectif, et même l'idée que "le collectif était dangereux" pendant le Covid, sont des freins à la création de lien.

      En conclusion, l'émission met en lumière une crise profonde du lien social chez les jeunes, exacerbée par les évolutions sociétales et éducatives.

      Face à cette "angoisse de cette solitude" (Laurence Touroude), il est impératif de repenser collectivement les cadres et les espaces qui permettent la construction du "vivre ensemble" et le partage de la parole.

    1. the total isa linear combination of the two vectors

      Let $$r = \begin{pmatrix} r_1 \ r_2 \end{pmatrix}$$. According to Lemma 2.3, when multiplying a linear combination of linear combinations by a factor, in this case r,

      $$r_1s_1 + r_2s_2$$

      the variables can be rearranged into a singular linear combination by regrouping the shared variables. In this case, the variables are the shared vectors.

      $$\begin{pmatrix} 2 \ 1 \ 0 \end{pmatrix}(r_1y_1 + r_2y_2) + \begin{pmatrix} -1 \ 0 \ 1 \end{pmatrix}(r_1z_1 + r_2z_2) = \begin{pmatrix} 2 \ 1 \ 0 \end{pmatrix}r(y_1 + y_2) + \begin{pmatrix} -1 \ 0 \ 1 \end{pmatrix}r(z_1 + z_2) $$

      Because \(y,z \in \mathbb{R}\), \(y_1 + y_2, z_1 + z_2 \in \mathbb{R}\). Also, \(r(z_1 + z_2), r(y_1 + y_2) \in \mathbb{R}\). Therefore, the elements of the set of vectors above are equivalent to the elements of S; i.e., the two sets are equal. QED

    1. For example, consider what happens when d=2, and x2 is highly correlated with x1, meaning that the data look like a line, as shown in the left panel of the figure below. Thus, there isn’t a unique best hyperplane. Such correlations happen often in real-life data, because of underlying common causes; for example, across a population, the height of people may depend on both age and amount of food intake in the same way. This is especially the case when there are many feature dimensions used in the regression. Mathematically, this leads to XTX close to singularity, such that (XTX)−1 is undefined or has huge values, resulting in unstable models (see the middle panel of figure and note the range of the y values—the slope is huge!):

      remove the reduent feature

  2. doc-0o-54-prod-00-apps-viewer.googleusercontent.com doc-0o-54-prod-00-apps-viewer.googleusercontent.com
    1. impulsos deamor se traspongan en impulsos de agresión hacia el objeto. A raíz de ello, la pulsiónde destrucción queda liberada y quiere aniquilar al objeto, o al menos hace como situviera ese propósito.

      Si la pulsion es un mecanismo biologico para garantizar la supervivencia, el impulso vital por satisfacer una necesidad, ¿qué es entonces el impulso?

    2. el vínculo entre el yo y el ello.

      También existe una tensión que se genera cuando el ello (a lo que el niño es más cercano) actua y el yo (a lo que el adulto es más cercano, gracias a la socialización) no puede comprenderlo.

    3. Esta trasposición [de libido erótica] en libidoyoica conlleva, desde luego, una resignación de las metas sexuales, unadesexualización.

      ¿La líbido erótica y la líbido yoica son sublimaciones de la líbido (energía vital vehiculizada a través de la sexualidad)?

    4. el imperiodel superyó como conciencia moral, quizá también como sentimiento inconciente deculpa, sobre el yo

      Es precisamente por el hecho de que es un mediador moral entre el ello y el yo, que el superyó no está presente todo el tiempo. Solo aparece cuando hay un conflicto moral.

    5. Pero sin duda alguna es así. En muchosdelincuentes, en particular los juveniles, puede pesquisarse un fuerte sentimiento deculpa que existía antes del hecho (y por lo tanto no es su consecuencia, sino sumotivo), como si se hubiera sentido un alivio al poder enlazar ese sentimientoinconciente de culpa con algo real y actual

      Esto me parece muy interesante

    6. el yo es la parte del ello alterada por la influencia directa delmundo exterior

      Influencia que se evidencia cuando el contexto cultural del niño suprime poco a poco sus pulsiones, y él construye un modo de ser (como sujeto). Así emerge el yo.

    Annotators

    URL

    doc-0o-54-prod-00-apps-viewer.googleusercontent.com/viewer2/prod-00/pdf/5t1t5i3e17791dee5dgr72fetf35lghc/rlnv3pb7arenl3gap8lt9upr6jtorus1/1751166375000/3/113937841593299532125/APznzabYljbqV8NI-CeEODerOWONdiORFkxOLfzgK532WJAuv7dMi4MFZYn1690Sj69ajgF-GUo8NmxconsjAngiOQI30zKfUWWgZwHPVPmtf8cedoM-zPzWWtq39whWGNfHqXbjQVjMRXDki-8rfOfUeBg948uBbwGIIP5nYEGtgcoEFTmdVDpjEZsGiORZF-w9gUjZcFMqRJrIx_syJ-U1KKWeoa7zepmaYihj6_Dg2ktNw7LTAZmKQrgvMlKI8aT_iV4dj373UOPJrDhm6utrQLtVmYv97nb9tj5koucF_mRK7Zzawo7N4mh5QpnBWlh-8WGBDsxauyb2b14A2n4GgSpdJRqBdiRcF84BrQwEV1Nb9O7oQ1bgFS1iykocgxwnREJkYKQjQZ4onu3elXHeR9_Wlqfyt-sn7hkT8PFIw7gvaQscuCUwT8HEs_nOQ665VYSHitptsjXNuTWkghcevXb45tyUJB9BS-wdJ9U5h7HqsKLtuX8eEGuuLpTAzijuyjt137MHgWerGSpQx2q6jkvO9tQx8_ookCfUe-WKxaXIKFhfv_vcyAAfd6XdB9EjguRzCGDHq53N5riCQA3cYCAV9SB0CltG9koXAnSAyQH0g_UIUDnxK98lC_BEnFBV1gwk2iwoEqsE98KvMY4uos3JvIrvecsDxB6TqTsEp392CNoQIAlfKAIHq5h60fo9bs2cPFfjmIb65xSnMMAfMS31qwXQz4yZ2x0j-CLJfk0lqzDL865ApMnGC4JP65wkDbdDmT1SlfoBvGmQ0_llXcEJmn6Fx2uGTYd0UK9nJXiirNwiWUvgku_exXtBURA71vkIYY-KjUtdQa5P59RrKM_RJCzCDuX334T4tFsSlusdM8OI09DDiKlPlBkOHpgWJXTg2Brdg15GZ29kvL3b_oW8GtViLvi_EHhPcN4kxf2O9AMg5H5_T6MxwB3nGLIXYb5vRPMyGz3GdAo-1axgmVfqYnv-0mWNMTtg3ytMkpW8WrG-8MIVz-1rVPWMJwOxMR8Jaw72ZQZCS5qUFEZ3l_iCrM9yh68E3YVW_Qy3rOj8R1YbGQnwWJDqPQhiQYOA-xwtzAiLDw_UB1ymN1NC3GZb4JlgjGVGX2StWUyzalFtuHsvnJ3NUjSZAA2EeWSeGnXK1rwctPzUsPph6-Bjknbws-ExR1xGdLUnzfW8KYO3CDP8tYY36hVNbdfYDlxo8hvsQVM6dZX3Hjl4Yx2mIyPejiEusSQ_h6wtCgDqMMtGJVYEAZRljHnVAua9nKGOOD5pA4aCYhqnjU1AvlmQuBAlCG2rFZjQ0-hgLbcehAU3Tb97TJ1oY6QZWWGVlJuiILzLj-Usom1y86DReQBjoTVnNhcWyIZTa9VmbAFf1-kMAXCYEfvkqWcduyNhfvsANKpXTbSeyBbf1aZVaan7IV7BBcNEYr3Kk3FrxXNIfzHzAP6qyFxaVDPreWB94Y3uSOUQJAaPyaY0ALbOGACU4KIXnZLVmj8WZZx0KwlrqT3rXWyPuzrp-2XQNogKAiSUR4ewKpUDBV6UwJWkJbIavjySU7Rl6dHM_iB2vOibUIZavgwmD2EP3fgc-cXqvFkkspq2NZvE87tiW-gG6a3CfmIrjIk5PNxZV6lBx1DbCREFPLsGL9dZyHXrG48s-Q5knmhWejDRasB6jqkMK9-x0NPMqCSaPE1PicJp5lnG3QNCv_sS1PKINy5nE8GwFNzo6cU1YLxiH1SJrbItmuUOEmjyCcTuiPrRbwTYoIo75eggUvvMQlJPAVN1lCoP7Ct1zAj5ZPKk7bWuBju18MOLE6qLj57VlgYjIiu3bv-V1nhof0iRd2Q89MM1GJBLYin5ZX6mlgGOPH53pwQgvar9nA4sWLDEEpacimXFZkSGGMH-KBjFqRXWvHWpjEtJnBBSXcxUz-2TCgFprHm7syZgHJ3Vw8B_qFDJqquoL-Ve3_oNjIGkCG2J39JEpEPsVEjJuDAR2bwGgySC2fiwY6HKOMom4sdjyBAOkznRnyaz79huUli8I1U__8xIaYZFXjqgDuAeeFMXiyn-dUj1_CvjCbqif_HE8fpmETX9UswXa_KkqjEazhtNmr3Q4xnOnD5iJaYllyWyAWYNGc5o0UU7GmF0Zy7T0A==
  3. resu-bot-bucket.s3.ca-central-1.amazonaws.com resu-bot-bucket.s3.ca-central-1.amazonaws.com
    1. Supported decision-making for a large-scale technical data migration project

      try to list some technologies, metrics, etc. be more specific than large-scale. how many records (approx.), 5K? 50K? what kind of data migration are we talking about, on-prem to cloud? one db to another? Try and make all these bullets in the format: Accomplished X through Y resulting in Z.

  4. drive.google.com drive.google.com
    1. Estecomportamiento se ajusta adecuadamente al modelo te ́orico descrito por la ecuaci ́on deShockley.

      esto mejor decirlo una vez hecho el ajuste, cuando realmente probaron que el modelo funciona bien. Decirlo antes de probarlo queda raro. Si quieren, puede describir cuantitativamente la curva y decir que pareciera observarse un comportamiento tipo exponencial, si quieren decir algo en este punto

  5. drive.google.com drive.google.com
    1. Ap ́

      Si quieren compartir los datos, eso se hace en una sección generalmente llamada "Material suplementario", los apéndices se reservan para cosas que pueden ser muy largas de mostrar en el texto principal y que no son muy interesantes en el trabajo, por ejemplo cálculos largos engorros. Por otro lado, los cálculos de incertezas son triviales en este caso, no es necesario mostrarlo.

    2. gr ́aficas devueltas por el mismo circuito

      O sea, lo que entiendo es que muestran los gráficos de la figura 10, no los discuten, e inmediatamente se ponen a hablar de otros resultados (que no muestran) al doble de frecuencia. A ver, todo gráfico que se presenta debe ser primero referido en el texto y segundo discutido exhaustivamente en el mismo. Acá primero hay que hacer una figura con paneles (a) (b) (c) y (d) y aclarar que es una figura pensada para mostrar distintos valores de C. Segundo describir absolutamente todo lo que ve en cada panel remarcando el efecto del valor de capacitancia en el rizado. Tercero priorizar formalidad en el escrito, el circuito que hicieron "no devuelve figuras", la curvas no se planchan "mas rápidamente" Recién después de eso uno empezaría a contar que pasa cuando se dobla la frecuencia y en el contexto de esa discusión se presenta la tabla 5

    3. Se ̃nal enviada

      Los gráficos deben tener paneles, y hay que aumentar el tamaño de la letra en los labels. No es necesario poner titulo a los gráficos, el valor de C es aconsejable escribirlo en la leyenda

    4. Resultados y comparaci ́on de valorespara diodo LED:4

      igual que antes, hay que referir en el texto la figura y las tablas. No es conveniente referir las figuras o las tablas como "la siguiente" "la del costado" etc. Esto es por que si ustedes mandan un trabajo a publicar el editor les puede mover las figuras hacia donde el quiere.

    5. Se pone a disposici ́on la comparaci ́on entre valores t ́ıpicos y los resultados:

      Acá hay que referir la tabla el texto. Por ejemplo, "En la tabla 1 se muestra una comparación entre los valores típicos y los resultados obtenidos"

    1. desde el mundo islámico se alzan voces y grupos que pretenden «reconquistar»Al-Andalus (es decir España) y sustraerlo del dominio de los infieles

      e por fim, o discurso islâmico de grupos que pretendem reconquistar Al-Andalus e subtraílo do domínio dos infieis (cristãos).

    2. determinar cuándo y porqué comenzó a usarse el vocablo «reconquista» paradesignar el enfrentamiento protagonizado en la península ibérica por cristianosy musulmanes, puesto que en la Edad Media dicho término nunca se utilizó

      para Ríos Saloma existem 3 problemas particulares no conceito: primeiro, o fato de nunca ter sido usado o termo na idade média.

    3. una panorámica sobre la forma en que el concepto deReconquista fue utilizado con diversos objetivos ideológicos y políticos entre fi-nales del siglo XV y principios del siglo XX

      Objetivo do artigo

    1. Briefing : Révolutionner la productivité des associations grâce au No-Code et à l'IA

      Introduction

      Ce briefing récapitule les points clés abordés lors du webinaire organisé par Solidatech, en partenariat avec Contournement et Nocode Forgood.

      L'objectif principal de cette session était de démontrer comment les outils "no-code" et l'intelligence artificielle (IA) peuvent permettre aux associations de "gagner des dizaines d’heures par mois" et de renforcer leur impact numérique.

      1. Solidatech : Renforcer l'impact numérique des associations

      • Solidatech est une organisation française fondée en 2008, dédiée à l'accompagnement des associations dans leur transformation numérique.

      Composée d'une douzaine de personnes, elle opère depuis Paris et les Deux-Sèvres, où se situe sa coopérative d'insertion, les Ateliers du Bocage (mouvement Emmaüs), spécialisée dans le réemploi de matériel bureautique. Solidatech est également le satellite français du réseau international TechSoup.

      Public cible :

      Plus de 42 000 associations inscrites gratuitement. Divers statuts juridiques : associations (locales ou plus grandes), fondations, fonds de dotation, bibliothèques publiques. Toutes tailles d'organisations, avec ou sans employés (y compris celles composées uniquement de bénévoles).

      Piliers d'accompagnement :

      • Accès à des outils et matériels à tarifs réduits : Offre de logiciels et matériels reconditionnés (ordinateurs, écrans, smartphones, etc.) avec des remises allant de -30% à -90%, voire des gratuités. Exemples de partenaires : Cisco, Dell.
      • Développement des usages numériques :Centre de ressources gratuit.
      • Équipe support basée dans les Deux-Sèvres pour le conseil et le choix des licences.
      • Outil de diagnostic numérique pour évaluer la maturité numérique.
      • Étude nationale annuelle sur la place du numérique dans le milieu associatif.
      • Accompagnement et formation :Newsletters régulières.
      • Partenariat Prestatek (annuaire de prestataires de services).
      • Webinaires thématiques variés.
      • Formations certifiées Qualiopi sur des sujets comme la conformité RGPD, la communication digitale, la recherche de financement, la gestion de dons, et l'utilisation d'outils (Microsoft 365, Canva).
      • Impact : Solidatech aide les associations à réaliser des "économies monétaires [et] en temps", à gagner en maturité numérique et à se professionnaliser.

      2. Le No-Code et l'IA : Définitions et promesses

      Erwan Kezzard, cofondateur de Contournement, a introduit les concepts de no-code et d'IA générative comme des leviers majeurs pour optimiser le temps. Il souligne que "le temps... c'est une ressource extrêmement importante, notamment quand on travaille soit aux sources contraintes".

      Définition du No-Code :

      • "Le nocode comme son anxie son son les les l'exprime et l'exige ce sont des outils qui permettent de réaliser visuellement intuitivement des projets numériques sans forcément avoir de compétences informatiques en code."

      • Permet de créer des sites web, des petites applications, d'automatiser des tâches, de créer des solutions internes, etc., de manière visuelle et intuitive.

      • Exemple : Excel n'est pas du no-code ; le no-code permet de "créer ses propres outils".

      Définition de l'IA Générative :

      Il s'agit des IA accessibles comme "les Chat GPT, Mistral et autres qui sont euh bah des technologies auxquelles on peut assez rapidement demander des choses demander de retraiter du contenu demander de faire des recherches et elle nous répond".

      Potentiel et Bénéfices :

      • L'objectif est de "gagner des dizaines d'heures par mois" en évitant les "manipulations répétitives, des tâches non informatisées ou des tâches informatisées mal optimisées".
      • Principal usage : l'optimisation de la productivité, c'est-à-dire "travailler mieux pour faire autant ou faire moins". Cela concerne l'optimisation des "ops" (opérations quotidiennes) en administratif, RH, gestion de projet, etc.
      • Exemple de gain de temps : "si cinq fois par jour je passe 5 minutes à faire une tâche à la fin de l'année j'aurais passé 6 jours plein 6 jours de travail à ne faire que ça".

      3. Les Trois Briques Fondamentales du No-Code Erwan Kezzard a illustré les capacités du no-code à travers trois piliers principaux, souvent combinés :

      Bases de données visuelles :

      Outil clé : Airtable (alternative française : TimeTonic).

      • Fonctionnalité : Ressemble à Excel mais est une "base de données", où chaque ligne est une fiche. Les colonnes ont des types de données spécifiques (liens, sélecteurs, pièces jointes, dates).
      • Avantages : Création rapide de vues filtrées et segmentées ("vues" pour stagiaires, commerciaux, DG), gestion des accès, formulaires d'entrée de données (créé en "moins de 25 secondes").
      • Concept de "relations" : Possibilité de lier des entrées entre différentes tables (ex: lier des prospects à des entreprises), ce qui résout de nombreux problèmes de ressaisie et de cohérence des données. Permet de naviguer entre les données comme sur une application.
      • Permet de construire des "CRM que je me fais moi-même" et des "intranets".

      Automatisation et interconnexion :

      • Outil clé : Zapier (alternatives : Make, N8N - open source mais plus technique).
      • Fonctionnalité : Connecte différents outils pour automatiser des processus.
      • Exemple : "à chaque fois que dans Airtable il y a une nouvelle entrée dans la table entreprise alors automatiquement va dans le chat GPT demande-lui 'Tu es un expert en politique RSE...' puis prends cette convers enfin trouve la ligne dans Air Table et mets à jour cette ligne avec l'info directement ici".
      • Permet d'automatiser des notifications (Teams, Slack), des envois de mails personnalisés, la création de documents (PDF), etc.
      • L'IA "fait qu'un seul boulot" (poser la question), le no-code "fait le boulot" des tuyaux d'interconnexion.

      Interfaces (Sites web, applications mobiles/web) :

      • Outil clé : Glide (pour applications mobiles), Software (pour applications web / intranets).
      • Fonctionnalité : Permet de créer des applications mobiles ou web à partir d'une base de données existante (ex: Airtable).
      • Avantages : Ne nécessite aucune installation ni hébergement, permet de modifier l'apparence et les fonctionnalités intuitivement. "je peux modifier cette application mobile changer l'apparence changer l'info qui apparaît où et cetera".

      4. Philosophie et Positionnement de Contournement & Nocode Forgood

      Contournement :

      • Métier : "former les équipes et les individus au nos code et Alia pour leur permettre de travailler plus efficacement".
      • Ne vise pas à lancer la "prochaine start-up à la mode" mais à "gagner du temps", "digitaliser" et "fluidifier ses processus".
      • Offre de formations en présentiel, téléprésentiel, et e-learning (plateforme avec abonnement à coût accessible, réductions prochainement à 50-100€/mois).

      Accompagne aussi des publics éloignés de l'emploi.

      • Vision du no-code : une "compétence complémentaire" valorisable sur le marché de l'emploi ("je suis chargé de communication... je me forme quelques jours au nocode je sais digitaliser automatiser dans mon métier et ça m'apporte quelque chose").
      • Met en garde contre le "miroir aux alouettes" et le "charlatanisme" liés au no-code comme "nouveau métier".

      Nocode France :

      • "La communauté la plus active au monde dans le Nocode qui est française".
      • Composée de 15 000 personnes qui "s'entraident bénévolement", offrant conseils et orientations.

      Nocode Forgood :

      • Mission : "donner accès aux outils no code les plus démocratiques du numérique pour rendre la vie plus simple aux assos et leur permettre de démultiplier leur impact".
      • Fait découvrir le no-code (masterclass) et surtout met en relation des associations avec des "nocodeurs et des nocodeuses engagés".
      • Approche "MVP" (Minimum Viable Product) : "commencer petit", "réaliser le plus vite possible un morceau qui fonctionne et après de l'adapter". L'objectif est d'aider les associations à "faire leur skateboard" (amorce), puis de les accompagner.
      • Projets : les nocodeurs peuvent travailler bénévolement (avec contrepartie de formations Contournement) ou à "tarif solidaire".

      5. Exemples concrets de succès

      • Les Francofolies : "15 personnes un seul informaticien". En deux jours de formation Airtable, ils ont gagné "plusieurs dizaines d'heures par semaine" notamment sur le reporting carbone.

      Ils ont aussi fait appel à une experte Ania pour des projets plus complexes, mais ont aussi décidé de ne pas "nocoder" certains processus peu chronophages.

      • La MedNum : Coopérative qui gère son sociétariat, ses projets et son organisme de formation avec Airtable (base de données) et Make (automatisation).

      Gagne "énormément de temps". Utilise aussi Notion pour la documentation interne et les ressources textuelles.

      • Wildlife Impact Network (via Nocode Forgood) : Création d'un site avec Softer et d'une galerie de projets finançables avec Airtable en deux jours.
      • Naestan (via Nocode Forgood) : Création d'un outil de pilotage et de reporting interne pour une association d'aide aux jeunes Afghans, réalisé avec CODA.
      • Nocode Forgood (interne) : Automatisation de la génération de brouillons de posts LinkedIn à partir de retours d'expérience d'associations, via Make et l'IA.

      6. Bonnes pratiques et avertissements

      • Cartographier avant de se lancer : "Une bonne pratique c'est de cartographier avant de se lancer".
      • Ne pas tout no-coder à outrance : "pas besoin de tout nous coder les meilleurs outils ça peut être de trouver des outils spécialisés". Si un processus fonctionne bien, ne pas le modifier.
      • Outils modernes et interconnectables : Privilégier les outils qui peuvent se connecter entre eux (vérifier la compatibilité Zapier ou Make). Exemple : Assoconnect est intégrable avec Zapier et Make.
      • Collaboration avec l'IT et les juristes : "appuyez-vous toujours sur l'IT sur le juridique sur les décisionnaires ne faites pas du shadow IT dans votre coin sur le nocode s'il y a des gens qui doivent être décisionnaires avec vous ça peut exposer à des risques de données mal géré et cetera de sécurité".
      • Formation : Même si le no-code est accessible, un minimum de formation est nécessaire. "Au bout d'une journée ou de 2 à 5 jours de formation les gens peuvent commencer à faire des choses".
      • Appui sur des experts externes : Recommandé pour éviter les erreurs (ex: données publiques par erreur) et structurer des projets plus complexes.
      • Coût : "Un outil no code qui se respecte est payant déjà un dans un outil de code qui se respecte est fremium". Les tarifs commencent souvent entre 15 et 30€/mois. Il faut prévoir "entre 50 et 100 € de budget mensuel" pour faire beaucoup de choses. C'est un investissement rapidement amorti.
      • RGPD et stockage des données :L'hébergement aux États-Unis n'est pas intrinsèquement non-RGPD. De nombreux outils américains sont "RGPD compliant".
      • Il est crucial de consulter un juriste pour les données sensibles.
      • "Le RGPD rappelons que c'est un process où vous vous devez faire toute une démarche de nous par exemple contournement on a tout un registre où on dit où sont stocké quelle donné et on fait gaffe régulièrement à supprimer les données qui ont plus de 3 ans".
      • Les outils no-code payants ne "vendent" généralement pas vos données, leur modèle économique étant basé sur l'abonnement. Le risque principal est lié aux exigences gouvernementales (Cloud Act, Patriot Act).
      • Migration de bases de données : Simple via l'import CSV dans Airtable (ou TimeTonic, Notion). Possibilité de synchroniser des bases existantes (ex: Excel) avec Airtable via Zapier/Make.
      • Différence Notion vs. Airtable : Notion est "plus orienté je prends des notes", gestion de "contenu riche", "espace collaboratif tout en un" (wiki, documentation interne). Airtable est centré sur la "donnée" et sa structuration.

      7. Outils de productivité IA complémentaires

      Whisper Flow : Outil de dictée vocale permettant de "dicter et ne plus taper quasiment au clavier". Reconnaissance précise de la syntaxe et de la ponctuation. Dict AI : Application mobile française et souveraine pour "prendre en note les réunions automatiquement" et générer des comptes-rendus.

      Conclusion

      Le no-code et l'IA représentent une opportunité significative pour les associations de toutes tailles d'améliorer leur efficacité opérationnelle et de se professionnaliser.

      Des organisations comme Solidatech, Contournement et Nocode Forgood jouent un rôle essentiel dans la démocratisation de ces technologies, en offrant des ressources, des formations et un accompagnement adapté, tout en soulignant l'importance de l'éthique, de la sécurité des données et d'une approche pragmatique dans leur adoption.

    1. Note d'information : L'engouement des jeunes pour les soins de la peau (Skincare) et ses implications

      • Ce document de synthèse examine la tendance croissante des jeunes, en particulier la "génération Alpha" (née après 2010), à adopter des routines de soins de la peau complexes, souvent inspirées par les médias sociaux.

      Il met en lumière les motivations de cette tendance, les risques potentiels pour la santé et les mesures prises ou recommandées par les professionnels de la santé et l'industrie.

      Thèmes Principaux :

      • L'adoption précoce des routines de soins par les enfants et préadolescents : Une tendance omniprésente, alimentée par les réseaux sociaux et l'influence des pairs.

      • Les risques pour la santé dermatologique et hormonale : L'utilisation de produits non adaptés aux peaux jeunes peut entraîner irritations, allergies, et des effets synergiques potentiellement dangereux à long terme.

      • L'impact de l'industrie cosmétique et des influenceurs : Les marques ciblent spécifiquement ce nouveau public, créant des produits attrayants mais parfois inappropriés.

      • La réaction des professionnels et les tentatives de régulation : Dermatologues, cosmétologues, et pharmaciens expriment leur inquiétude et appellent à une meilleure information et à des restrictions.

      Synthèse Détaillée :

      1. L'engouement généralisé pour le "Skincare" chez les jeunes

      • Une routine complexe dès le plus jeune âge : Charlotte, 12 ans, décrit une routine typique de "skincare" incluant nettoyage, lotion, masques et crèmes hydratantes. Elle affirme que "90% [des filles de sa classe] en font [du skincare], il y en a même qui en font beaucoup plus que moi qui mettent énormément de produits".

      • Influence des pairs et des réseaux sociaux : Charlotte a découvert cette tendance par ses amis et "en regardant internet aussi il y avait plein de gens qui commençaient à parler de ça". TikTok est devenu "un réseau où l'on expose sa skinc routine sa collection de crème et de lotion". La génération Alpha "copie leurs aîné influenceuses leur style leur vocabulaire".

      • Perception du "skincare" comme un jeu : À 10-12 ans, "prendre soin de sa peau c'est devenu un jeu qu'on expose".

      • Obsession pour la prévention du vieillissement : Des enfants "vantaient de la crème anti-ride persuadé que plus on commence tôt moins on aura de ride". Une fillette de 7 ans s'inquiétait de son "stock d'acide hyaluronique" qui disparaissait.

      • Stratégies d'acquisition : Pour gérer le "sacré budget" des produits, les jeunes utilisent des "techniques avec mes amis" pour obtenir des échantillons gratuits dans des grands magasins comme Globus et Manor, se faisant connaître comme "très connu" par les vendeuses.

      2. Les dangers et préoccupations des professionnels

      • Produits inadaptés aux peaux jeunes : La dermatologue pédiatre constate que "ce qu'elles utilisent ne sont pas des produits adaptés à leur peau qu'en plus d'habitude elles n'ont pas besoin de crème ni de quoi que ce soit à cet âge là".

      • Risques d'irritations et d'allergies : Des amies de Charlotte ont déjà eu "plein de boutons ou des rougeurs" suite à l'utilisation de produits. La dermatologue s'inquiète de savoir "est-ce qu'il va y avoir des irritations est-ce qu'il va y avoir des allergies est-ce que ça peut être plus grave".

      • Effet "cocktail" et perturbations hormonales : L'utilisation de multiples produits crée un "effet de cocktail" ou "synergique" où "chacun va influencer l'autre", ce qui "semble qu'à long terme ce soit plus dangereux qu'on l'avait penser au départ". Il y a une inquiétude quant à la "perturber [des] hormones à long terme".

      • Ingrédients problématiques pour les enfants :Rétinol : "Le rétinol par exemple peut irriter les peaux d'enfant". Un masque testé contenait du rétinol et un dérivé se transformant en "acide rétinoïque qui est interdit dans le domaine cosmétique".

      • Pellings à pH très acide : Peuvent provoquer "des picotements", "des rougeurs", et même "des brûlures".

      • Perturbateurs endocriniens : Certains masques en contiennent, comme le produit Skin Republic.

      • Extraits éclaircissants : Utilisés pour l'éclaircissement, alors que les jeunes n'ont pas de problèmes de tâches cutanées ("on va pas aller essayer d'éclaircir des tâches qui n'existent pas").

      • Molécules toxiques ou à effet "Botox végétal" : Le spilantol (extrait d'acmella) est "vraiment à éviter chez l'enfant" en raison de son "profil toxicologique qui n'est pas forcément très rassurant".

      • Ingrédients œstrogéniques ou corticomimétiques : Un masque "le pire" contenait de l'origan à caractère œstrogénique et des extraits à effet corticomimétique.

      • Allergènes interdits : Un masque liquide contenait un allergène parfumé ("hydroxy isoexyl 3 cycloexène carboxaldéide") désormais "interdit par la réglementation européenne et donc en Suisse aussi".

      • Masques peel-off : Contiennent des "matières plastiques" pour obtenir l'effet pelable, en plus de générer "beaucoup de déchets" avec les emballages à usage unique.

      3. Le rôle de l'industrie cosmétique

      • Ciblage des jeunes : L'industrie cosmétique voit cette génération comme "le nouveau public cible". De "nouvelles marques qui ressemblent à des bonbons naissent chaque mois".

      • Marketing trompeur : Les jeunes sont "finalement victimes des publicités puisque l'industrie cherche à agrandir son cercle de clientèle donc il faut toujours consommer plus".

      • Manque d'information : Les très jeunes filles connaissent "un rayon sur les crèmes leurs effets leurs indications mais qui n'ont pas conscience que certains contenus ne sont pas adaptés".

      • Absence de mention d'âge recommandé : "Légalement les fabricants n'en ont pas l'obligation", mais ils "réalisent maintenant que leurs produits ne sont pas toujours utilisés par le public qui était visé".

      4. Réactions et recommandations

      • Restrictions en Suède : La principale chaîne de pharmacies en Suède a décidé de "ne plus vendre certains produits au moins de 15 ans des antirides notamment", suite à l'augmentation des demandes de "produits skinc avancés" par des enfants de 8 à 10 ans. La réaction du public a été "très très nombreuses... toutes positives".

      • Appel à la prudence en Suisse : L'association des cosmétiques et détergents en Suisse a publié un communiqué précisant que "les produits cosmétiques anti-âge n'ont pas vocation à être utilisés sur des pots d'enfants" et que "les parents doivent veiller à ce que des produits cosmétiques adaptés au besoins de la peau des enfants et des adolescents soient utilisés".

      • Sensibilisation des vendeuses : Des tests réalisés par Inès et Lia (10 et 11 ans) ont montré que les vendeuses dans des enseignes comme Douglas, Kiko et Marionnaud sont désormais sensibilisées, déconseillant l'achat de produits inadaptés en raison de l'âge ("trop forte et que ça pouvait nous brûler la peau") et les mettant en garde contre "ce qu'on avait vu sur Youtube".

      • Vente libre problématique : Cependant, ces mêmes produits peuvent être achetés en "se servant directement sur l'étalage sans passer par le conseil d'une vendeuse", ce qui n'est "rien d'illégal".

      • Nécessité de ralentir la création de marques : La professeur de cosmétologie estime qu'il faut "arrêter... qu'il y ait moins de marque mais de meilleure qualité".

      • Recommandation d'éviter le "layering" : La superposition de cosmétiques ("layering") est "aberrant" même pour l'adulte car cela crée un "effet occlusif" et "accumulation qui n'est pas bon pour la peau", et "encore moins pour l'enfant".

      • Interdiction des ingrédients dangereux : Une analyse en laboratoire a révélé que 10 des 15 masques testés contenaient des "ingrédients problématiques pour des peaux jeunes" et ne devraient "pas être utilisé par des enfants ou des adolescentes", avec un cas de produit "illégal" car contenant un allergène interdit par la réglementation européenne.

      En conclusion, l'engouement des jeunes pour le "skincare" est une tendance préoccupante en raison des risques potentiels pour leur santé dermatologique et hormonale, liés à l'utilisation de produits inadaptés et à des pratiques excessives.

      L'industrie est invitée à davantage de responsabilité, et les parents sont appelés à une vigilance accrue, tandis que des mesures restrictives, comme celles prises en Suède, pourraient être envisagées plus largement.

    1. Synthèse Détaillée : Comprendre et Combattre les Préjugés

      Ce document explore en profondeur la nature des préjugés, des stéréotypes et de la discrimination, leurs origines, leurs manifestations subtiles et leurs impacts.

      Il propose également des stratégies concrètes pour les identifier, les mesurer et les réduire, soulignant l'importance de la conscience de soi et de l'éducation.

      1. Distinction des Concepts : Stéréotypes, Préjugés et Discrimination

      Le document établit une distinction claire entre trois concepts souvent confondus :

      • Stéréotype : Défini comme "une croyance, une opinion, où l’on plaque des caractéristiques à tout un groupe social".

      Ces croyances peuvent être personnelles ou, plus souvent, "des croyances partagées qu'on a apprises sans s’en rendre compte, via nos proches, nos environnements sociaux, les médias, etc."

      Les stéréotypes peuvent être "positifs" (ex: "les garçons sont généralement doués en maths") ou "négatifs" (ex: "les filles seraient moins douées en maths").

      Il est crucial de noter que les stéréotypes ne sont pas seulement descriptifs mais aussi prescriptifs, créant des attentes.

      • Préjugé : Représente "l’émotion, le sentiment, les attitudes négatives qu’on peut avoir vis-à-vis d’un groupe social", souvent associées à des stéréotypes.

      Les préjugés sont renforcés dans des contextes où l'on se sent menacé par un groupe, que ce sentiment soit fondé ou non.

      Une personne confrontée à une réalité qui contredit ses stéréotypes peut générer une "réaction négative : un préjugé."

      • Discrimination : Désigne des "comportements spécifiques où l’on traite différemment les individus selon leur groupe social perçu".

      Cela peut se manifester par des "remarques déplacées, ou encore ignorer ou désavantager volontairement quelqu’un."

      • Il est souligné que ces concepts ne sont pas toujours interconnectés de manière linéaire :

      "On peut avoir connaissance des stéréotypes, même les plus négatifs, sans que cela génère en nous des préjugés.

      On peut aussi avoir des préjugés, sans que cela aboutisse à des comportements discriminants."

      La conscience de ses propres préjugés peut même permettre de s'ajuster pour éviter les comportements discriminants.

      2. Le Masque des Préjugés et les Stratégies de Dissimulation

      Les préjugés sont souvent dissimulés ou exprimés de manière détournée, car "nos préjugés avancent masqués."

      • Humour de dénigrement : Une stratégie courante est l'utilisation de l'humour, où "une remarque sexiste, suivie d'un « Oh mais ça va, c'est une blague ! »" sert de "couverture" pour "rendre socialement plus acceptable l’expression de préjugés, tout en pouvant se défendre qu’il s’agit là de préjugés."

      • Rhétorique pseudodémocratique : Dès les années 40, Adorno et ses collègues ont étudié cette stratégie où les personnes "préfèrent atténuer l’expression de leur préjugé en utilisant le conditionnel, ou des conjonctions comme mais."

      L'exemple classique est "Je ne suis pas raciste, mais..." ou "Ce n'est pas que j'ai des préjugés, mais...". Ces discours à forts préjugés sont "déguisé[s] sous l’apparence d’ouverture et de tolérance."

      • Déni et sous-estimation : Paradoxalement, "on peut avoir tendance à sous-estimer ses propres préjugés, à croire qu’on n’en a pas, et paradoxalement, c'est ce qui peut alimenter des stéréotypes et conduire à des discriminations."

      Les personnes ayant des préjugés se répètent, à elles-mêmes et aux autres, "ne pas en avoir, comme s’il suffisait de dire Je ne suis absolument pas raciste. Pour annuler le reste du propos."

      3. Préjugés Implicites et Leurs Origines

      Le document introduit la notion de préjugés implicites : "Oui. Et on parle dès lors de préjugés implicites."

      • Nature des préjugés implicites : Contrairement aux préjugés explicites (conscients), les préjugés implicites sont "inaccessibles, automatiques, omniprésents, et influencent d’une manière unique nos jugements et comportements."

      Ils agissent "comme des tâches en arrière plan" de notre conscience, influençant nos interactions sans que nous nous en rendions compte.

      "Autrement dit, on peut sincèrement penser ne pas avoir de préjugés et pourtant en avoir en toile de fond."

      • Sources des préjugés : Qu'ils soient implicites ou non, les stéréotypes et préjugés sont "construits, appris très tôt dès notre enfance auprès de nos parents, de notre famille, de nos environnements sociaux, à partir de certains évènements vécus, ou encore à travers les médias de masse."

      L'exemple donné est celui de la télévision dans les années 80, où "plus les gens regardaient la télévision, plus leurs préjugés racistes et sexistes se retrouvaient fortifiés" à force de voir des "représentations stéréotypées."

      4. Les Microagressions : Manifestations Subtiles de la Discrimination

      Le document met en lumière les "microagressions" comme des "comportements plus subtils et bien plus présents au quotidien."

      Ces comportements, bien que peu visibles, ont des conséquences préjudiciables lorsqu'ils sont répétés :

      • Exemples : "faire des blagues sexistes, avoir tendance à couper la parole et à la monopoliser, mépriser l’identité d’une personne, par exemple en la mégenrant, ne pas tenir compte de l’avis d’une personne en raison de sa couleur de peau, de son genre, orientation sexuelle, handicap, etc."

      • Impact : Elles entraînent une "diminution de l’estime personnelle, dépression, anxiété, sentiment d’impuissance, culpabilisation" chez les victimes, et contribuent à "maintenir et renforcer les inégalités dans la société."

      5. Mesurer les Préjugés : Les Méthodes des Psychologues

      Les psychologues utilisent diverses méthodes pour étudier les préjugés, notamment :

      • Questionnaires d'auto-évaluation : Simples, mais sujets au "biais de désirabilité sociale", où les gens modifient leurs réponses pour être bien perçus. L'anonymat peut atténuer ce biais.

      • Observation comportementale : Des situations mises en scène permettent d'observer les comportements des gens sans qu'ils sachent qu'ils sont testés.

      L'exemple donné est celui de l'aide apportée à des personnes hétérosexuelles ou homosexuelles, montrant un "pourcentage plus élevé d’aide dans la condition “hétérosexuel”."

      • Mesures physiologiques : Fréquence cardiaque, activité électrique du cerveau (IRM fonctionnelle).

      Il est mentionné que "lorsqu’on présente à des personnes blanches sous IRM fonctionnelle des photos d’hommes noirs, ils auront une réponse émotionnelle négative, ce qui n’est pas le cas devant la photo d’un homme blanc," interprétée comme une "perception de menace."

      • Tests d'association implicites (IAT) : Mesurent le temps de réaction entre des catégories de groupes sociaux et des mots à valence positive ou négative, révélant des "associations automatiques, des attitudes implicites."

      • La combinaison de plusieurs méthodes permet de "capturer nos préjugés à plusieurs niveaux, des plus explicites aux plus implicites."

      6. Les Motivations Derrière la Dissimulation des Préjugés

      Le conflit intérieur entre le désir d'exprimer des émotions et le maintien de valeurs contradictoires explique pourquoi les préjugés sont cachés. Deux types de motivations sont identifiés :

      • Motivations internes : Liées aux "valeurs personnelles, telles que l’altruisme, la tolérance ou l’égalité."

      Ceux qui sont animés par ces motivations "lutter[ont] contre eux [leurs préjugés]" et "travailler[ont] sur moi-même, en diminuant mes propres préjugés de manière autonome." Ils ont effectivement de plus faibles préjugés.

      • Motivations externes : Dictées par "des motifs extérieurs, sociaux, normatifs," comme la "crainte par exemple d’être socialement mal perçus" (biais de désirabilité sociale).

      Ces personnes "tenter[ont] de résoudre ce conflit en évitant d’exprimer mes préjugés sans vraiment travailler à les diminuer."

      Leurs préjugés sont généralement plus forts et ils les déguisent par "des blagues dégradantes, des rhétoriques pseudo-démocratiques ou diverses justifications tel que des arguments naturalistes : « ce sont les faits », « c’est la biologie », « c’est la nature »."

      7. L'Impact des Normes Sociales et de la Rhétorique Politique

      Le document aborde la manière dont les normes sociales influencent l'expression des préjugés :

      • Changement des normes : Si les normes sociales deviennent plus permissives envers l'expression des préjugés, "les personnes qui jusqu’ici cachaient leurs préjugés risquent de les exprimer davantage, parfois avec force, comme un barrage qui vient de céder."

      • L'effet d'encouragement ("effet Trump") : La rhétorique de figures politiques, comme celle de Donald Trump en 2016, "participe à banaliser l’expression de préjugés, à les rendre comme socialement plus acceptable."

      Cela déplace les normes sociales, autorisant "les personnes qui jusqu’ici réprimaient leurs préjugés selon des motivations externes" à "exprimer le fond de leur pensée, parfois avec grande violence."

      8. L'Héritage des Stéréotypes et Préjugés : L'Exemple de "Couleur Café"

      Le document utilise la chanson "Couleur Café" de Serge Gainsbourg pour illustrer comment les stéréotypes implicites et les préjugés coloniaux peuvent être ancrés dans la culture populaire :

      • Interprétation contrastée : Alors que pour beaucoup, c'est une chanson qui "célèbre la diversité," pour les personnes de couleur, elle "réduit [notre identité] à une couleur et à un produit colonial, le café."

      • Clichés coloniaux : La chanson réactive "tout un imaginaire et des préjugés coloniaux," associant "femmes noires, produits coloniaux et sexualité."

      Le texte explique l'origine de l'image de la femme métisse "dansante, au service de l’homme blanc," créée par la "propagande coloniale" pour attirer de jeunes colons.

      • Persistance et déconstruction : Aujourd'hui, les femmes noires et métisses "essayent de se débarrasser de ce cliché," ce qui est difficile car "les gens pensent que c’est un cliché positif."

      Le document appelle non pas à la censure, mais à "écouter les paroles et essayer de comprendre l’histoire des symboles et des préjugés," utilisant la chanson comme un "outil parfait pour analyser les stéréotypes et faire de la pédagogie antiraciste."

      9. Stratégies pour Réduire et "Hacker" les Préjugés

      Malgré leur omniprésence, il est affirmé que les préjugés "peuvent être diminués, voire hackés, y compris quand ils sont implicites."

      • Auto-régulation et reconnaissance : "Apprendre à reconnaître ses préjugés, à ne pas les nier, sans se juger sévèrement," en voyant cela comme une "occasion de les travailler pour s’en débarrasser."

      Avec l'entraînement, cela peut devenir automatique.

      • Aider autrui : En évitant les jugements sévères, "poser des questions, sur ses émotions, l’amener à prendre conscience par lui-même que certaines attitudes et comportements peuvent être problématiques."

      • Développer des valeurs : Cultiver des "valeurs d’égalité et de tolérance de manière autonome," issues de motivations internes.

      • Prise de perspective et empathie : "Imaginer le monde du point de vue d’une autre personne, se mettre à sa place," par l'écoute de témoignages ou la fiction.

      • Éviter le déni des inégalités : Refuser la croyance que "les préjugés et les discrimination n’auraient plus vraiment cours," car cela "favorise les préjugés" en rendant aveugle à leur gravité et aux microagressions. Préférer une "approche multi culturelle qui valorise les différences."

      • Environnements diversifiés et inclusifs : Favoriser dès l'enfance des "environnements sociaux diversifiés et inclusifs" (théorie du contact intergroupe).

      • Représentations positives dans les médias : Promouvoir une meilleure image des divers groupes sociaux.

      • Éviter les cadres compétitifs : Limiter les situations qui renforcent le clivage "nous contre eux."

      • Programmes de sensibilisation et de formation : Dans les écoles et sphères professionnelles, "sensibiliser à la diversité, en expliquant ce que sont les stéréotypes, les préjugés, et les moyens de lutter contre," et "exposer des récits contre-stéréotypés, de proposer des prises de perspectives."

      • En résumé, le document offre un aperçu complet de la complexité des préjugés, allant de leur définition conceptuelle à leurs manifestations les plus subtiles, et propose des voies claires pour leur réduction individuelle et sociétale.

    1. Note de synthèse : Convention Citoyenne sur les Temps de l'Enfant

      Cette note de synthèse est un compte-rendu des thèmes principaux, des idées maîtresses et des faits importants extraits des interventions d'ouverture de la Convention Citoyenne sur les Temps de l'Enfant.

      Elle inclut des citations pertinentes des sources originales.

      I. Contexte et Objectif de la Convention

      La Convention Citoyenne sur les Temps de l'Enfant est la troisième convention citoyenne souhaitée par le Président de la République, le Premier Ministre et le Gouvernement français, marquant ainsi "l'inscription durable de ce format de cet instrument dans notre paysage institutionnel".

      Elle fait suite à celles sur le climat et la fin de vie, et vise à approfondir la démocratie participative en France.

      Question centrale posée aux 140 citoyens tirés au sort :

      "Comment mieux structurer les différents temps de la vie quotidienne des enfants afin qu'ils soient plus favorables à leurs apprentissages, à leur développement et à leur santé ?"

      Cette question englobe un large éventail d'aspects de la vie des enfants :

      • Le temps de l'école
      • Le temps des familles
      • Le temps des vacances
      • L'accès aux loisirs, au sport, à la culture
      • Le temps passé devant les écrans
      • L'objectif est de produire des "réponses concrètes" et "nécessaires" sur un sujet "central pour la société". Les travaux de la Convention sont destinés à "éclairer la décision publique" et à servir de "boussole dans la société". Il est explicitement mentionné que les citoyens "n'allez pas faire la loi", mais leurs propositions "nourrissent les travaux législatifs".

      II. Principes Fondateurs et Méthodologie

      La Convention se déroule au Conseil Économique Social et Environnemental (CESE), un lieu où le débat est traditionnellement "respectueux, fondé, contradictoire mais toujours apaisé".

      Ces principes sont également ceux qui guideront les travaux de la Convention citoyenne :

      • Égalité : "tous les membres sont à égalité il n'y a pas de voix plus importante que d'autres". Chaque citoyen est considéré comme "légitime à prendre la parole dans le respect de vos différences".
      • Fondé : Les travaux "reposent sur des éléments factuels et vérifiés et se nourrissent de nombreuses rencontres et échanges".
      • Contradictoire : "tous les points de vue doivent s'exprimer", sans "nier, gommer ou affair les opinions les différences".
      • Apaisé : Les désaccords, même "francs massifs", ne doivent "jamais être violents ou blessants". La démocratie au CESE "n'est pas un sport de combat".
      • L'importance de l'intelligence collective est soulignée comme le "meilleur levier pour bâtir à plusieurs les meilleures solutions dans un esprit de construction".

      • La méthodologie de travail s'étend sur sept sessions jusqu'à fin novembre, soit six mois et 21 journées de travail. Elle se décompose en plusieurs phases :

      • Acculturation (avant l'été, sessions 1 & 2) : Faire groupe, apprendre à se connaître, explorer le sujet, rencontrer des intervenants (chercheurs, spécialistes, acteurs, jeunes, enfants) pour se forger une "culture commune" et une "perception commune des enjeux".
      • Exploration approfondie et élaboration de propositions (dès début septembre, sessions 3 à 6) : Les citoyens choisiront les sujets à approfondir et recevront en audition des acteurs de terrain, experts, porteurs de points de vue, etc. L'objectif est d'échanger, dialoguer et élaborer des "propositions qui seront argumentées qui seront construites collectivement y compris des opinions minoritaires".
      • Finalisation (session 7) : Remise du "rapport citoyen final au gouvernement et au président de la République".

      III. Inclusivité et Diversité des Acteurs

      La Convention met un accent particulier sur la diversité de ses membres et l'inclusion de différentes perspectives :

      • 140 citoyens tirés au sort : Représentatifs de la diversité de la population française. Les statistiques présentées montrent une répartition équilibrée en termes de genre (56% femmes, 44% hommes), une large diversité d'âges (moins de 25 ans, plus de 65 ans et entre les deux), une représentation des différentes catégories socio-professionnelles et une couverture de toutes les régions métropolitaines, y compris les Outre-mer et la Corse.
      • Implication des enfants : Un "groupe d'une vingtaine d'enfants" sera constitué pour début septembre. Ils pourront "vous faire part directement de leur vécu de leur perception de leurs attentes de leurs propositions". Cette démarche est jugée essentielle, car "nous ne pouvons pas parler des temps de l'enfant sans les enfants eux-mêmes".
      • Contribution des territoires : Des ateliers seront organisés durant l'été "dans les territoire" pour recueillir de la matière et "nourrir vos réflexions dès la rentrée".
      • Rôle du CESE : Les membres du CESE (175 représentants de 81 organisations de la société civile) se saisiront également de la question pour donner "l'avis de la société civile organisée". Des points de rencontre entre les citoyens et le CESE seront organisés.
      • Acteurs de la Convention : Plusieurs groupes de soutien et d'encadrement sont identifiés par des couleurs de cordons :
      • Blanc : Membres de la Convention citoyenne.
      • Vert : Comité de gouvernance (présidé par Kenza Kaucé), garantissant la liberté et la sérénité des débats.
      • Bleu foncé : Garantes, assurant l'intégrité, l'indépendance, la transparence et la qualité des travaux.
      • Rouge : Organisation (membres du CESE facilitant le parcours).
      • Bleu clair : Collectif d'animation, accompagnant les séances de travail et les débats.
      • Rose : Observateurs chercheurs, analysant et rendant compte du processus.
      • Jaune : Journalistes (présents à certains moments).
      • Noir : Personnes auditionnées.

      IV. Engagement et Attentes

      Les organisateurs expriment leur gratitude envers les citoyens pour leur engagement, reconnaissant les "sacrifices personnels" que la participation implique. Il est souligné que l'expérience sera "passionnante" et que les citoyens "par procuration pour la société tout entière" en apprenant à se connaître et à débattre.

      Il est rappelé que les citoyens sont "parfaitement légitime[s]" à être là, à poser des questions aux experts et à interroger des ministres, comme Madame Borne (Ministre de l'Éducation Nationale, de l'Enseignement Supérieur et de la Recherche) et Sarah El Haïry (Haute Commissaire à l'Enfance) qui viendront les rencontrer.

      Le travail des citoyens "aura un impact bien au-delà de ces murs pour les enfants d'aujourd'hui et pour la société de demain". Les organisateurs s'engagent à ce que le travail des citoyens "soit prise en compte par ceux qui vous ont saisi". Un urne sera mise à disposition pour que deux citoyens puissent se porter candidats et assister au comité de gouvernance le dimanche après-midi pour partager leur vécu de la session.

    1. Synthèse et Analyse Approfondie des Cancers Professionnels et de leur Invisibilité en France

      Ce document de synthèse explore les multiples facettes de l'invisibilité des cancers professionnels en France, s'appuyant sur les travaux du Giscope (Groupe d'Intérêt Scientifique de recherche sur les cancers professionnels) en Seine-Saint-Denis, notamment les recherches d'Anne Marchand, sociologue et historienne, et les commentaires de Nathalie Bajos.

      Il met en lumière les mécanismes institutionnels, scientifiques, sociaux et culturels qui contribuent à cette invisibilité, malgré une prévalence significative et des conséquences humaines et sociales dramatiques.

      1. Le Cloisonnement Historique et Institutionnel entre Santé au Travail et Santé Publique

      • Un thème central est le cloisonnement historique et persistant entre l'espace du travail et l'espace de vie en matière de santé. Ce cloisonnement, analysé par l'historien Thomas Lerou, a conduit à "l'effacement progressif du corps ouvrier dans les préoccupations sanitaires et politiques" dès les 18e et 19e siècles. Il a créé une séparation artificielle entre l'hygiène industrielle et l'hygiène publique, cette dernière devenant "l'hygiène d'une partie seulement du public ignorant ce qui se déroule dans l'espace de travail".

      Cette dichotomie a des conséquences majeures :

      • Approche fragmentée de la santé : Elle empêche de "penser la santé des individus et des populations dans leur globalité" et "laisse dans l'ombre de nombreux facteur d'inégalité sociale".
      • Campagnes de prévention inadaptées : Les campagnes de prévention contre le cancer sont "exclusivement centrées (...) sur la modification des comportements dits individuels", ignorant le rôle des conditions de travail et la responsabilité de l'État et des employeurs. Cela conduit à une approche qui "pointe la responsabilité des seuls individus" tout en laissant dans l'ombre les "cancérogènes présents dans le monde du travail".
      • Angle mort de la recherche en santé publique : Le travail est souvent "un angle mort des approches en santé", comme si les lieux de travail n'étaient pas aussi des lieux de vie où l'on passe une grande partie de son temps.

      • L'Épidémie Cachée : La Sous-Estimation et la Sous-Déclaration des Cancers Professionnels

      • Les sources révèlent une sous-estimation et une sous-déclaration massives des cancers d'origine professionnelle, contrastant avec l'augmentation constante de l'incidence du cancer en France (doublée depuis les années 1990).

      • Disparité Chiffrée : En 2023, seules 1452 reconnaissances de cancers professionnels ont été enregistrées, majoritairement liées à l'amiante. Or, les estimations épidémiologiques consensuelles indiquent que "4 à 8 % des nouveaux cas de cancer seraient d'origine professionnelle", soit "jusqu'à 34 644 cas par an". Cette énorme divergence crée un "phénomène un peu circulaire : moins il y a de cancer professionnel reconnus moins les personnes atteintes de cancer seront en mesure de penser le lien entre leur travail et leur maladie moins elles le déclareront en maladie professionnelle".

      • Exposition Généralisée : L'étude Sumi révèle que "11 % des salariés en moyenne des secteurs publics et privés (...) sont exposés à au moins un cancérogène dans leur activité habituelle de travail". Ces expositions sont fortement inégalitaires, touchant particulièrement les ouvriers qualifiés de l'industrie automobile (90% exposés), les intérimaires, et les jeunes de moins de 25 ans.
      • Polyexposition : La "poliexposition", c'est-à-dire l'exposition simultanée ou successive à différents cancérogènes, "démultiplie le risque de contracter un cancer". Un exemple frappant est celui d'un homme exposé à 17 cancérogènes identifiés au cours de son parcours professionnel.
      • Longue Latence : Le caractère différé des effets des cancérogènes (20 à 50 ans après l'exposition) rend le lien causal difficile à établir pour les victimes et le corps médical. De plus, il est "impossible scientifiquement et médicalement de distinguer un facteur sur l'autre dans sa survenue" (ex: amiante vs tabac pour le cancer du poumon).

      • Les Mécanismes d'Invisibilisation des Cancers Professionnels

      • Plusieurs facteurs, imbriqués et complexes, contribuent à cette invisibilité :

      3.1. Les Données Officielles et la Prévalence de l'Amiante

      • Loupe déformante : Les chiffres de reconnaissance de l'Assurance Maladie sont le "premier facteur de cette invisibilité sociale", donnant l'impression que les cancers professionnels sont rares et majoritairement liés à l'amiante. L'amiante est "l'arbre qui cache la forêt des autres cancérogènes".
      • Maladies "signatures" et droits spécifiques : L'existence de maladies "signature" (mésothéliome) et de droits spécifiques (retraite anticipée, FIVA) pour les victimes de l'amiante a paradoxalement renforcé cette perception limitée des cancers professionnels.

      3.2. Le Cadre Juridique et Administratif : Les Tableaux de Maladies Professionnelles

      • Objet de négociation et de rapport de force : Les tableaux de maladies professionnelles, créés par le Code de la Sécurité Sociale, sont le "résultat de négociation entre représentant de syndicat de salariés et représentant de syndicat d'employeur". Chaque terme choisi est le fruit de "rapports de force", ouvrant ou fermant les conditions de reconnaissance.
      • Restrictions et obsolescence : Ces tableaux sont des "objets mouvants du droit" mais leur contenu est souvent "très en deçà des connaissances scientifiques". L'exemple du cancer de la vessie lié aux amines aromatiques, dont le "titre" nécessite "un bac + 12 en chimie pour arriver à relier son travail à ce cancer", illustre la complexité et l'inadéquation.
      • Cancer du sein : un exemple d'invisibilité levée : L'absence de tableau pour le cancer du sein a longtemps masqué son origine professionnelle, le cantonnant à une "certaine fatalité". Les efforts de syndicats et de recherches ont permis de "rendre visible le facteur professionnel dans cette épidémie", montrant l'impact potentiel de l'inscription dans un tableau.
      • La "maladie négociée" : La maladie professionnelle n'est pas une catégorie médicale mais "une catégorie juridico-politique", une "maladie négociée", ce qui la rend distincte de la causalité médicale.

      3.3. L'Ignorance des Expositions et le Sentiment de Protection des Salariés

      • Manque d'information : La plupart des personnes touchées "ignoraient avoir été exposées à des substances cancérogènes". Cette ignorance peut venir de la méconnaissance des dangers de substances (comme l'amiante dans les années 80) ou de leur présence insidieuse et imperceptible (rayonnements ionisants, produits chimiques sans odeur ni effet immédiat).
      • Fausse impression de sécurité : Les salariés ont le "sentiment d'avoir été protégés" car ils imaginent que "sauf situation accidentelle tout est maîtrisé dans l'entreprise" ou que les substances dangereuses seraient interdites.
      • Dispositifs trompeurs :Valeurs Limites d'Exposition Professionnelle (VLEP) : Les VLEP sont le "fruit de compromis sociaux" et ne signifient pas l'absence de risque, car "la plupart des cancérogènes sont sans effet de seuil".
      • Surveillance Médicale Renforcée (SMR) : La SMR, bien que réservée aux salariés exposés, "ne protège en rien" mais peut créer l'illusion de protection ("Il pensait qu'on le protégeait en fait on l'endormait").
      • Équipements de Protection Individuelle (EPI) : Les EPI sont souvent inefficaces ou utilisés pour d'autres raisons (protection du produit), brouillant la perception du risque (ex: gants en salle blanche).

      3.4. Le Manque d'Intérêt pour la Déclaration et l'Indemnisation Insuffisante

      • L'horizon indemnitaire : Le "montant proposé au mieux (...) ne peut dépasser le montant mensuel des derniers salaires", ce qui est souvent "pas assez pour devenir moteur d'engagement". L'indemnisation est "forfaitaire" et très éloignée de ce qu'une victime obtiendrait devant un tribunal.
      • Dispositifs concurrents : Le dispositif d'invalidité est perçu comme "plus facile et plus rémunérateur", orientant les victimes loin de la reconnaissance en maladie professionnelle. Cette stratégie "contribue largement à rendre invisible les effets du travail sur la santé et donc les cancers professionnels" et "socialise le coût de ces maladies à l'ensemble de la collectivité" au lieu qu'il soit financé par les employeurs.
      • Signification de l'argent : L'argent de l'indemnisation revêt différentes significations culturelles. L'ignorance du principe "pollueur-payeur" fait que certains ne veulent pas "coûter davantage à la Sécu", ou ressentent de la "honte" à "assimiler cette démarche à une demande d'aide sociale". Pour les veuves, l'argent peut "brûler les doigts", générant une stigmatisation sociale.

      3.5. Le Rôle Déterminant et les Lacunes du Corps Médical

      • Formation insuffisante : Les médecins sont "très peu formés sur ce volet très spécifique du droit de la sécurité sociale" (environ "une dizaine d'heures sur leurs dizaines années d'études").
      • Difficulté à établir le lien : Formés à la causalité médicale, ils "appréhendent avec beaucoup de circonspection cette catégorie médico-administrative" et sont nombreux à refuser de rédiger un certificat médical pour des patients fumeurs, ignorant ou refusant d'admettre la présomption d'origine professionnelle.
      • Crainte du conflit : Le certificat médical initial (CMI) est un "espace de conflit" et peut entraîner des convocations devant le Conseil de l'Ordre à la demande d'employeurs. La tâche de "certifier" une origine professionnelle les éloigne de leur cœur de métier, le soin.
      • Manque d'interrogatoire : Dans l'ensemble, les médecins "interrogent très peu les activités exercées et encore moins les conditions de travail" de leurs patients.

      3.6. Les Inégalités d'Accès à la Reconnaissance et les Transformations du Travail

      • Charge de la preuve : La présomption d'origine professionnelle des tableaux est limitée, et le salarié doit souvent "apporter des preuves de la maladie", "des preuves de l'emploi" (certificats de travail, fiches de paye) et surtout "des preuves de l'activité habituelle de travail de l'activité exposante jusqu'à 40 ans en amont de la survenue de la maladie".
      • Fragilité des parcours : Cette capacité à prouver les activités exposantes est "très inégalement distribuée". Elle est plus facile pour les salariés avec une "stabilité professionnelle" ou qui peuvent compter sur un "réseau syndical ou de retraités dynamiques" (mineurs, dockers).
      • Travail morcelé et sous-traitance : La situation est "bien plus dur pour des salariés isolés", ceux "qui ont connu des parcours très morcelés" (jusqu'à 35-40 employeurs), et surtout pour les "salariés des entreprises sous-traitantes", qui sont à la fois "parmi les plus exposés et les moins reconnus". La sous-traitance, légalisée dans les années 70, est devenue un moyen de "contourner leurs obligations" et d'"externaliser des activités qui étaient les plus pénibles et les plus exposantes", renforçant l'invisibilité.
      • Intérimaires et travailleurs migrants : Les intérimaires, dont les documents ne disent "absolument rien du site sur lequel ils ont travaillé", et les "migrants travailleurs agricoles saisonniers", souvent "affectés au traitement chimique là où les risques toxiques sont les plus importants mais dont la maladie si elle survient ne sera pas visible en France ni reliée au travail", sont particulièrement vulnérables.

      3.7. Le Manque de Traçabilité Institutionnelle

      • Volatilité réglementaire : La "valse des réglementations" empêche la mise en place d'un dispositif stable garantissant une "traçabilité rigoureuse dans le temps des expositions cancérogènes" sur de longues périodes (20, 30, 40 ans).

      • Le Caractère Structurel de l'Invisibilité et l'Enjeu de Justice Sociale

      • L'analyse de la genèse de la catégorie "cancer professionnel" révèle une "certaine récurrence dans les obstacles à la construction de la connaissance". Dès le début du 20e siècle, malgré une identification précoce des cancers liés à des industries spécifiques (houille, colorants, rayons X), les mêmes constats d'échec de déclaration et de reconnaissance se répètent. Les affiches de 1938 exhortant les médecins à déclarer les maladies professionnelles témoignent de cette problématique ancienne.

      • Absence de données fiables : Les données sur le cancer sont "incomplètes", avec des registres qui ne couvrent "moins d'un quart de la population en France", et qui présentent des biais (population plus rurale, plus âgée, plus favorisée, moins de personnes d'origine étrangère). Les zones les plus polluées (sites Seveso) sont souvent non couvertes. La proposition de loi pour créer un registre national des cancers est une étape "indispensable".

      • Fabrication de "non-problèmes" : L'invisibilité des cancers professionnels s'inscrit dans une dynamique de "fabrique des non-problèmes ou comment éviter que la politique s'emmêle".
      • Question de justice sociale : En définitive, cette invisibilité pose la "question de la valeur différentielle des vies" et constitue une "question de justice sociale", comme le souligne Nathalie Bajos.

      En conclusion, la lutte contre les cancers professionnels exige bien plus que des campagnes de prévention individuelles.

      Elle nécessite une réforme profonde des mécanismes de reconnaissance, une formation accrue du corps médical, une meilleure traçabilité des expositions, une indemnisation plus juste, et surtout, un changement de paradigme qui intègre pleinement la santé au travail dans la santé publique, reconnaissant le lieu de travail comme un lieu de vie essentiel.

    1. Note de synthèse : La sous-reconnaissance des maladies professionnelles en France : un problème de santé publique et de justice sociale

      Ce briefing documente l'ampleur et les causes de la sous-déclaration et de la sous-reconnaissance des maladies professionnelles en France. Il s'appuie sur une analyse processuelle et met en lumière les multiples obstacles rencontrés par les victimes, ainsi que les lacunes du système juridique et médical actuel.

      1. Ampleur et enjeu de la sous-reconnaissance

      Les maladies professionnelles (MP) représentent un problème de santé publique majeur et invisible en France, exacerbant les inégalités sociales de santé.

      • Chiffres alarmants : En 2022, on estime à plusieurs centaines de milliers le nombre de maladies professionnelles non déclarées. Concernant spécifiquement les cancers professionnels, la fourchette est estimée entre 67 000 et 99 000 cas, dont seulement 4 000 sont déclarés.
      • Coût financier et social : La sous-déclaration transfère le coût de ces maladies de la branche « Accidents du Travail et Maladies Professionnelles » (AT/MP), financée par les cotisations patronales, vers la branche « Maladie » du régime général, désavantageant financièrement les victimes qui ne bénéficient pas des indemnisations plus favorables (prise en charge des frais de santé, indemnités journalières, rentes viagères). Au-delà de l'enjeu financier, il existe un enjeu symbolique fort pour les victimes.
      • Inégalités sociales : L'exposition aux risques professionnels est fortement inégalitaire. Les ouvriers sont nettement plus exposés aux contraintes physiques intenses et aux cancérogènes que les cadres ou les professions intermédiaires, soulignant un lien direct entre position sociale et risques pour la santé au travail.

      2. Cadre juridique et ses limites

      • Le droit à la santé et à la sécurité au travail repose sur deux principes : la responsabilité de l'employeur et la réparation des atteintes à la santé. La loi de 1898 (étendue en 1919 aux MP) a instauré un système d'assurance forfaitaire, supprimant la nécessité de prouver la faute de l'employeur, mais en contrepartie, le droit à poursuivre pénalement l'employeur a été perdu.

      • Les tableaux de maladies professionnelles : Créés pour identifier les pathologies éligibles à la reconnaissance et à l'indemnisation, ils sont aujourd'hui considérés comme obsolètes et incomplets. Leur création est le fruit de négociations entre l'État, les syndicats de salariés et d'employeurs, où les considérations économiques et les arguments patronaux ont historiquement pesé lourd.

      • Critiques de l'ANSES (2024) : Les tableaux sont jugés "incomplets", "loins" de la réalité des expositions et "hétérogènes". Les diagnostics d'exclusion méconnaissent le principe de présomption d'origine.
      • Ralentissement de l'actualisation : Seulement 2 créations et 5 révisions de tableaux sont intervenues au régime général entre 2010 et 2018. Ce ralentissement est dû à la divergence des intérêts patronaux (financeurs uniques de la branche AT/MP), l'absence de consensus sur la présomption d'imputabilité, et le caractère plurifactoriel des pathologies.

      3. Le processus de reconnaissance : une "course d'obstacles"

      • La reconnaissance d'une maladie professionnelle est un processus complexe, jalonné d'obstacles à chaque étape :
      • Exposition au risque : Les contraintes et expositions physiques varient considérablement selon le sexe et la position sociale. Par exemple, les ouvriers sont majoritairement plus exposés aux risques cancérogènes. Le cas de l'amiante est emblématique : classé cancérogène en 1977, son usage n'a été interdit qu'en 1997, et il reste présent dans de nombreux matériaux, exposant encore des travailleurs.
      • Reconnaissance par le salarié de l'origine professionnelle :
      • Méconnaissance des maladies : De nombreuses MP restent mal connues, notamment les troubles psychiques qui représentent un "angle mort très important".
      • Difficulté à établir le lien travail-maladie : Il est souvent "pas évident pour un individu de faire le lien entre sa maladie et son travail, de considérer que le travail puisse être pathogène". Cette démarche est source de "tension normative".
      • Déni du danger : Dans certains métiers, des salariés développent une "attitude de déni du danger pour tenter d'y faire face", comme le montre le travail de Christophe Dejours sur les ouvriers du bâtiment ou l'exemple des coiffeuses.
      • Méconnaissance des droits : Même en ayant conscience du lien travail-maladie, de nombreux salariés ignorent les droits qui leur sont ouverts.
      • Absence de perception d'intérêt : Certains ne perçoivent pas d'intérêt matériel, financier, ni même symbolique à la déclaration, surtout en cas de traitements lourds où "les démarches de réparation sont vues comme secondaires par rapport aux enjeux de soins, voire inutiles ou même néfastes".
      • Peur des représailles : La crainte de perdre son emploi ou de subir des représailles de l'employeur ou des collègues est un frein majeur.
      • Déclaration de la maladie professionnelle :
      • Responsabilité de la victime : Contrairement aux accidents du travail, c'est la victime elle-même (ou ses ayants droit) qui doit effectuer la demande, nécessitant un certificat médical initial.
      • Complexité administrative et juridique : La procédure est "compliquée" et "complexe", décourageant de nombreux potentiels bénéficiaires.
      • Manque d'information et de soutien des médecins : La formation des professionnels de santé sur les MP est insuffisante (environ 10h en 2e cycle des études médicales, contre une moyenne européenne de 25h). Certains médecins du travail sont réticents à accompagner les démarches, parfois par méconnaissance des avantages financiers pour le salarié ou par crainte de l'impact négatif sur l'emploi du patient.
      • Obstruction des employeurs : Les employeurs n'ont "évidemment pas d'intérêt financier à ce qu'il y ait des maladies professionnelles déclarées". Ils peuvent exercer des pressions, proposer des ruptures conventionnelles en échange de la renonciation, ou contester le lien avec l'accident/la maladie.
      • Reconnaissance administrative et médico-légale :
      • Obstruction des caisses primaires d'assurance maladie (CPAM) : Des "obstructions importantes" sont documentées, se manifestant par une "très forte hétérogénéité entre les caisses dans les délais de traitement des dossiers".
      • Caractère différé des maladies : Le "temps de latence" entre l'exposition et l'apparition des symptômes (plusieurs années, voire décennies pour certains cancers) rend difficile la traçabilité des expositions passées.
      • Ressources inégales face à la contestation : Les "grandes entreprises qui ont les moyens de recourir à des cabinets d'avocats spécialisés" peuvent manipuler les données et "mettre en scène l'ignorance pour contester la parole des travailleurs et limiter le coût de la reconnaissance". La stratégie de certains avocats est de "repérer un bon cas" pour créer une jurisprudence favorable.

      4. Perspectives et recommandations

      • La situation est marquée par une "stabilité" voire une "inertie" des logiques sociales et institutionnelles qui construisent la non-reconnaissance. Des "petites mesures" ne suffiront pas ; une "modification de la loi" est nécessaire.
      • Manque de connaissance et biais dans la recherche :
      • Analyses genrées : Il y a un "manque de connaissance" et une "absence particulière" des analyses genrées en santé publique sur les MP, malgré leur pertinence. Les études épidémiologiques sur les cancers professionnels ont historiquement porté majoritairement sur les hommes, sous-estimant les expositions et les cancers chez les femmes (ex: agentes de nettoyage).
      • Populations vulnérables : Les travailleurs étrangers ou d'origine étrangère, et les personnes en situation de précarité, sont confrontés à des obstacles particuliers et sont "pas du tout assez étudiées". Une approche intersectionnelle est nécessaire pour articuler les rapports sociaux de domination (classe, genre, race).
      • Facteurs de risque et multiexpositions : La recherche doit continuer à identifier les facteurs de risque, notamment pour les maladies plurifactorielles (expositions professionnelles et environnementales simultanées). L'idée qu'on puisse isoler une cause unique est une "illusion épidémiologique". La question est de savoir si une exposition professionnelle favorise ou aggrave la maladie, indépendamment d'autres causes (ex: tabac, environnement).
      • Nécessité de modifier la loi et le système de reconnaissance :
      • Formation des professionnels de santé : Renforcer la formation des médecins sur les MP, même si cela ne suffit pas sans mesures structurelles.
      • Traçabilité et information : Améliorer la traçabilité des expositions et l'information des salariés sur leurs droits.
      • Contrôle et sanctions : Renforcer l'arsenal de contrôle et de sanction des entreprises qui procèdent à des déclarations incomplètes.
      • Actualisation et refonte des tableaux : Actualiser les tableaux de maladies professionnelles, voire en modifier l'objectivation des pathologies en se basant sur les examens recommandés par les sociétés savantes ou la Haute Autorité de Santé.
      • Refonte globale du système : La loi elle-même est interrogée pour sa capacité à produire la non-déclaration. Une refonte du système de reconnaissance est indispensable pour tenir compte :
      • De l'évolution des modes de management.
      • De la plus grande discontinuité des carrières professionnelles.
      • De l'augmentation des produits dangereux et de la reconnaissance de leur dangerosité.
      • Des multiexpositions.
      • De la "question fondamentale de la reconnaissance des troubles psychiques qui ne font toujours pas l'objet d'un tableau de maladie professionnelle".
      • De l'exclusion de certains travailleurs.
      • En conclusion, la reconnaissance des maladies professionnelles est un "enjeu majeur de santé publique" qui contribue aux inégalités de santé. C'est un enjeu "politique", "scientifique" et "éthique" qui nécessite des changements profonds pour sortir de l'inertie actuelle. Les expériences de terrain, comme celle du GISCOPE, peuvent dessiner des pistes concrètes pour une transformation fondamentale.
    1. Brefing détaillé : L'Enseignement Mutuel et les Transformations de l'Éducation Ce briefing analyse les thèmes principaux et les faits marquants des extraits de l'émission "À la découverte de l'enseignement mutuel" de France Culture, en se concentrant sur l'histoire, les principes, les défis et les perspectives de l'enseignement mutuel, ainsi que sur les questions plus larges de l'éducation contemporaine en France et ailleurs.

      I. L'Enseignement Mutuel : Histoire, Principes et Marginalisation L'émission s'ouvre sur une exploration de l'enseignement mutuel, une approche pédagogique qui a connu son apogée au début du XIXe siècle en France, avant d'être largement marginalisée.

      A. Définition et Origines :

      L'enseignement mutuel, ou "classe mutuelle", est une pédagogie où "les élèves apprennent les uns aux autres", le rôle du maître étant "beaucoup moins présent que dans le mode pédagogique dominant l'enseignement simultané". Importée d'Angleterre au début de la Restauration, elle est issue des travaux de Bell et Lancaster, d'où le nom de "méthode lancastérienne". Elle a été introduite en France par des "libéraux extrêmement soucieux de développer l'instruction populaire" suite à la fermeture des écoles et congrégations religieuses pendant la Révolution, laissant l'instruction primaire "véritablement en chantier". B. Avantages et Efficacité :

      L'enseignement mutuel était perçu comme une "véritable aubaine" car "très économique" : il permettait de "rassembler dans un très grand local plusieurs centaines d'enfants" sous l'autorité d'un seul enseignant, qui pouvait "déléguer une partie de son pouvoir d'instruction auprès de moniteurs" (des élèves plus avancés). Cette méthode permettait "d'instruire à une vitesse beaucoup plus rapide un très grand nombre d'élèves". Anne Querrien souligne que les élèves apprenaient "à lire et à écrire en trois ans" contre six ans avec la méthode simultanée des Frères des écoles chrétiennes. Sylvie Jouan souligne un avantage pédagogique majeur : "les élèves sont toujours regroupés avec des camarades qui correspondent à leur niveau" et "avancent toujours à leur rythme", évitant l'ennui ou la perte. C. La "Première Guerre Scolaire" et la Marginalisation (1833) :

      Malgré son efficacité, cette méthode a suscité de "très vives critiques". Le "tournant" décisif pour l'école française, "peut-être plus important encore que les dates très célèbres des lois Ferry", est 1833, suite à une "vive polémique" appelée "la première guerre scolaire". Cette querelle opposait les défenseurs de l'enseignement mutuel et ceux de l'enseignement simultané. Arguments contre l'enseignement mutuel :Rapidité de l'apprentissage : Le principal argument critique était précisément la rapidité, car elle "amènerait les enfants à délaisser les écoles trop tôt et du coup à errer dans les rues", présentant un "risque social". Priorité à l'éducation morale : L'instruction devait être "absolument indissociable de l'éducation", en particulier l'éducation chrétienne au début du XIXe siècle, puis l'éducation morale à la fin du siècle. L'enseignement simultané était privilégié car "assuré par des frères qui de par leur présence même étaient des garants d'une certaine religiosité". Le "contact direct et continu avec ce maître qui est la garantie de l'éducation morale" manquait dans l'enseignement mutuel. Fonctionnalité sociale de l'école : Le patronat, soucieux de la santé des enfants travaillant dans l'industrie, réclama l'interdiction du travail des enfants. L'école primaire devait donc "occuper les enfants jusqu'à l'âge de l'entrée en classe [13 ans]". Risque de "bureaucratie" et de "désoeuvrés" : Un texte cité dénonce une école qui "favorise la bureaucratie qui dévore la France et la foule dangereuse de désoeuvrés qui corrompt les mœurs" – ces jeunes instruits n'ayant pas encore l'âge de travailler. L'alliance de circonstance : Une "espèce d'alliance entre l'Église, les enseignants, le pouvoir en place" s'est formée, avec pour objectif de faire de l'école primaire "l'éducation avant l'instruction pour garantir un certain ordre social". L'héritage de Guizot : François Guizot, en 1837, crée les écoles normales d'instituteurs pour former à la méthode simultanée, pérennisant ce modèle sous le Second Empire et Jules Ferry. Le buste de la République et la photo du président dans les classes ont remplacé l'autorité divine. II. L'Héritage Historique et les Défis de l'Enseignement Contemporain L'héritage de l'enseignement simultané est encore très présent dans le système éducatif français actuel, créant des tensions avec les besoins et les philosophies pédagogiques contemporaines.

      A. La Persistance du Modèle Traditionnel :

      Vincent Faillet confirme que l'enseignement simultané est le modèle dominant et "la norme" depuis des siècles, oublié que "d'autres voies existent".

      Ce modèle se caractérise par "un certain nombre d'élèves dans une classe... des tables alignées des chaises dérangées et un immense tableau central pour que le maître puisse faire son cours".

      B. La Quête d'Alternatif et le Modèle de la Classe Homogène :

      • Sylvie Jouan s'est intéressée à l'enseignement mutuel en étudiant les classes rurales multi-âges et les "discours hostiles" qu'elles suscitent.

      Elle a mis en évidence un "modèle pédagogique plutôt implicite" : la "classe homogène", indissociable de l'enseignement simultané.

      • L'idée sous-jacente est que pour éduquer (plutôt qu'instruire), les élèves doivent être en "présence continue d'un même maître", et pour que cela fonctionne, le groupe doit être "relativement homogène".

      Cette homogénéité est une "retraite justicière pour l'enseignant" mais rend la tâche difficile face à l'hétérogénéité réelle des élèves.

      C. Le Renouveau de la Classe Mutuelle et la Pédagogie Coopérative :

      • Vincent Faillet a recréé une "classe mutuelle" dans son lycée, non par connaissance historique mais par "prise de conscience" de l'obsolescence des salles de classe de 1887.
      • Sa démarche a commencé par le "défi" lancé à ses élèves de trouver un autre système, conduisant à bouger les tables, créer des îlots, et utiliser les tableaux muraux.

      Il a redécouvert les principes du monitorat et même l'utilisation de "sonnettes et de cloches" pour gérer le mouvement et le bruit, pratiques du XIXe siècle.

      Sa classe met en œuvre des principes tels que :

      • Apprentissage par les pairs : "Si les élèves qui ont besoin de moi je vais les aider c'est le prof qui m'a la charge et donc d'arriver d'un message moteur un message aux autres équipes dépassement noël son actif". Un élève témoigne avoir "mieux compris son cours avec un camarade qu'avec son professeur".

      • Autonomie et responsabilisation : Les élèves sont encouragés à travailler en groupes, à s'aider mutuellement, à poser des questions et à utiliser des supports variés (schémas, tableaux, réseaux sociaux).

      • Flexibilité et mouvement : "On peut communiquer on pose nos questions et si on a besoin le profil vient nous voir ils nous aident et sur elle le fait d'écrire sur les tableaux va c'est plus simple... on peut bouger dans la classe agréable".

      • Prise en compte du corps : Vincent Faillet insiste sur "l'émancipation déjà physique" et la "prise en compte de quelque chose qui est totalement oubliée c'est le corps de l'élève dans la classe".

      • Sylvie Jouan précise que ces pratiques actuelles s'inspirent de l'enseignement mutuel mais aussi des "pédagogies coopératives" qui vont "bien au-delà du tutorat" et incluent l'entraide, absente de l'enseignement mutuel du XIXe siècle.

      • L'enseignement mutuel n'était pas nécessairement émancipateur au XIXe siècle ; Foucault lui-même, dans "Surveiller et Punir", le critique comme trop autoritaire, au même titre que l'enseignement simultané.

      D. L'Élève au Centre : une "Injonction Contradictoire" ?

      • Depuis 1989, un texte stipule que "l'élève est au centre du système éducatif". Sylvie Jouan qualifie cette formule d' "éminemment subversive" car elle implique que "c'est plus l'enseignant qui est au centre".

      • Cela "aurait dû induire un véritable changement de paradigme" en remettant en cause l'enseignement simultané, car "si l'élève est au centre... on ne peut plus [enseigner simultanément] puisqu'il n'y en a pas qu'un dans la classe".

      • Anne Querrien ajoute que l'école est faite de "collectifs", et non de singuliers, ce qui rend l'approche "élève au centre" complexe pour les enseignants.

      E. Obstacles et Solutions pour les Réformes Pédagogiques :

      • Les réformes récentes "ne parlent pas beaucoup de l'organisation pédagogique de la classe", se concentrant plutôt sur la réduction du nombre d'élèves ou l'interdisciplinarité.

      • Le problème des espaces : Vincent Faillet insiste sur le fait que "la pédagogie est intimement liée au lieu dans lequel vous vous trouvez". Si les salles de classe restent inchangées (avec un tableau central et des tables alignées), il est "très difficile de changer la pédagogie".

      • Le dialogue entre les acteurs : Il y a une difficulté de dialogue entre l'État (programmes), les collectivités (salles de classe) et les enseignants.

      • Le temps et la confiance : La mise en place de méthodes innovantes prend du temps et nécessite d'instituer un "rapport de confiance" avec les élèves (qui peuvent être réticents car "pétrissés par ce modèle pédagogique") et les parents.

      • La solidarité entre enseignants : Sylvie Jouan souligne l'importance d'une "réelle solidarité entre entre les enseignants" dans un même établissement, car un enseignant isolé aura plus de difficultés à mettre en place ces méthodes sur un temps limité.

      • Gérer le "bazar" et la non-participation : Vincent Faillet répond aux craintes des enseignants concernant le bruit et la dissipation en soulignant que les élèves inactifs sont plus visibles dans une classe mutuelle et peuvent être pris en charge individuellement.

      Il lui est arrivé de passer "trois quarts d'heure voire une heure de cours avec un seul élève qui n'avait rien compris pendant que les autres travaillaient", chose "totalement impensable" en enseignement simultané.

      III. La "Révolte des Premiers de la Classe" et la Revalorisation des Métiers Manuels

      La dernière partie de l'émission aborde le phénomène des "surdiplômés" qui se réorientent vers des métiers manuels, ce que Jean-Laurent Cassely appelle "la révolte des premiers de la classe".

      A. Un Phénomène Croissant :

      De plus en plus de jeunes et moins jeunes, diplômés de master ou d'écoles de commerce, après une première expérience professionnelle (ou pas), se "réorientent ou se reconvertissent" vers "des métiers manuels, les métiers d'artisanat, de petits commerces, des services de proximité".

      Ils repassent souvent un CAP, le diplôme le plus populaire pour des métiers comme la cuisine ou la pâtisserie. C'est une "surdiplomation mais à l'envers", un "déclassement" ou une "réconciliation entre les études les plus intellectuelles et les métiers manuels".

      B. Les Raisons de cette Réorientation :

      • Manque de sens et ennui : La motivation principale n'est pas le chômage, mais le fait que ces personnes "s'ennuient et ne trouvent plus aucun sens à leur quotidien de travail".

      • Critique des "bullshit jobs" : Le livre dénonce les "bullshit jobs" (traduits en français par "métiers à la con" ou "à la noix"), un concept popularisé par l'anthropologue David Graeber, qui décrit ces professions intellectuelles et cadres où l'on a le sentiment de "ne servir à rien et de ne pas savoir pourquoi [on] passe [sa] temps leur vie professionnelle derrière un ordinateur à faire du tableur du powerpoint ou des réunions".

      • Quête de concrétude et de valeur ajoutée : Comme le dit un étudiant de Sciences Po, "quand tu fais Sciences Po tu vois beaucoup de gens qui vont finir chef de projet de quelque chose dans une agence à se faire chier... on n'apporte aucune valeur à la société".

      C. Conséquences et Implications :

      • Revalorisation des filières professionnelles : Ces "bobos" ou "hipsters" parviennent à "redorer le blason de certaines filières", en particulier les métiers de bouche, de la décoration ou du bois, traditionnellement "dévalorisées" et vues comme des "voies de garage" en France.

      • Saturation de certaines filières : Des écoles de restauration ou des filières de boulangerie sont "extrêmement demandées", et certains reconvertis commencent à rencontrer des "problèmes de débouchés" pour s'implanter.

      • Reconversion dans l'enseignement : 27% des professeurs des écoles en formation viennent d'autres secteurs, motivés par la même "quête de sens".

      Le métier d'enseignant permet de se confronter au "client final", de voir les bénéfices de son travail et de réconcilier l'aspect intellectuel et "concret même corporel".

      D. Recommandation : Avoir les Deux Diplômes :

      Jean-Laurent Cassely conseille d'avoir "les deux" : un diplôme supérieur puis une formation courte et qualifiante.

      Il souligne que les diplômes supérieurs restent "importants pour trouver du travail" et que les compétences acquises (gestion de projet, stratégie, mise en scène) sont souvent valorisées dans la reconversion.

      Le "parcours idéal" serait donc "études supérieures puis formations plus courtes qualifiantes concrètes".

    1. Author response:

      Public Review

      Joint Public Review:

      This manuscript presents an algorithm for identifying network topologies that exhibit a desired qualitative behaviour, with a particular focus on oscillations. The approach is first demonstrated on 3-node networks, where results can be validated through exhaustive search, and then extended to 5-node networks, where the search space becomes intractable. Network topologies are represented as directed graphs, and their dynamical behaviour is classified using stochastic simulations based on the Gillespie algorithm. To efficiently explore the large design space, the authors employ reinforcement learning via Monte Carlo Tree Search (MCTS), framing circuit design as a sequential decision-making process.

      This work meaningfully extends the range of systems that can be explored in silico to uncover non-linear dynamics and represents a valuable methodological advance for the fields of systems and synthetic biology.

      Strengths

      The evidence presented is strong and compelling. The authors validate their results for 3-node networks through exhaustive search, and the findings for 5-node networks are consistent with previously reported motifs, lending credibility to the approach. The use of reinforcement learning to navigate the vast space of possible topologies is both original and effective, and represents a novel contribution to the field. The algorithm demonstrates convincing efficiency, and the ability to identify robust oscillatory topologies is particularly valuable. Expanding the scale of systems that can be systematically explored in silico marks a significant advance for the study of complex gene regulatory networks.

      Weaknesses

      The principal weakness of the manuscript lies in the interpretation of biological robustness. The authors identify network topologies that sustain oscillatory behaviour despite perturbations to the system or parameters. However, in many cases, this persistence is due to the presence of partially redundant oscillatory motifs within the network. While this observation is interesting and of clear value for circuit design, framing it as evidence of evolutionary robustness may be misleading. The "mutant" systems frequently exhibit altered oscillatory properties, such as changes in frequency or amplitude. From a functional cellular perspective, mere oscillation is insufficient - preservation of specific oscillation characteristics is often essential. This is particularly true in systems like circadian clocks, where misalignment with environmental cycles can have deleterious effects. Robustness, from an evolutionary standpoint, should therefore be framed as the capacity to maintain the functional phenotype, not merely the qualitative behaviour.

      A secondary limitation is that, despite the methodological advances, the scale of the systems explored remains modest. While moving from 3- to 5-node systems is non-trivial, five elements still represent a relatively small network. It is somewhat surprising that the algorithm does not scale further, particularly when considering the performance of MCTS in other domains - for instance, modern chess engines routinely explore far larger decision trees. A discussion on current performance bottlenecks and potential avenues for improving scalability would be valuable.

      Finally, it is worth noting that the emergence of oscillations in a model often depends not only on the topology but also critically on parameter choices and the nature of the nonlinearities. The use of Hill functions and high Hill coefficients is a common strategy to induce oscillatory dynamics. Thus, the reported results should be interpreted within the context of the modelling assumptions and parameter regimes employed in the simulations.

      We thank the reviewers for their careful consideration of our work and for the interesting feedback and scientific discussion. We are working on a revised text based on their recommendations, which will include some of the discussion below.

      This work meaningfully extends the range of systems that can be explored in silico to uncover non-linear dynamics and represents a valuable methodological advance for the fields of systems and synthetic biology.

      We thank the reviewers for their positive assessment of our work’s impact!

      The use of reinforcement learning to navigate the vast space of possible topologies is both original and effective, and represents a novel contribution to the field. The algorithm demonstrates convincing efficiency, and the ability to identify robust oscillatory topologies is particularly valuable. Expanding the scale of systems that can be systematically explored in silico marks a significant advance for the study of complex gene regulatory networks.

      We appreciate these kind comments about our work’s merits. We are excited to share our reinforcement learning (RL) based method with the fields of systems and synthetic biology, and we consider it a valuable tool for the systematic analysis and design of larger-scale regulatory networks!

      The principal weakness of the manuscript lies in the interpretation of biological robustness. The authors identify network topologies that sustain oscillatory behaviour despite perturbations to the system or parameters… [However, these] "mutant" systems frequently exhibit altered oscillatory properties, such as changes in frequency or amplitude. From a functional cellular perspective, mere oscillation is insufficient - preservation of specific oscillation characteristics is often essential. This is particularly true in systems like circadian clocks, where misalignment with environmental cycles can have deleterious effects. Robustness, from an evolutionary standpoint, should therefore be framed as the capacity to maintain the functional phenotype, not merely the qualitative behaviour.

      We thank the reviewers for their attention to this point. In the large-scale circuit search, summarized in Figures 4A and 4B, we ran a search for 5-component oscillators that can spontaneously oscillate even when subjected to the deletion of a random gene. Some of the best performing circuits under these conditions exhibited a design feature we call “motif multiplexing,” in which multiple smaller motifs are interleaved in a way that makes oscillation possible under many different mutational scenarios. Interestingly, despite not selecting for preservation of frequency, the 3Ai+3Rep circuit (a 5-gene circuit highlighted in Figure 5) anecdotally appears to have a natural frequency that is robust to partial gene knockdowns, although not to complete gene deletions. As shown in Figure 5C, this circuit has a natural frequency of 6 cycles/hr (with one particular parameterization), and it can sustain a knockdown of any of its 5 genes to 50% of the wild-type transcription rate without altering the natural frequency by more than 20%.

      However, we agree that there are salient differences between this training scenario and natural evolution. The revised text will clarify that these differences limit what conclusions can be drawn about biological evolution by analogy. As the reviewers point out, we use the presence of spontaneous oscillations (with or without the deletion) as a measure of fitness, regardless of frequency, so as to screen for designs with promising behavior. Also, the deletion mutations introduced during training likely represent larger perturbations to the system than a typical mutation encountered during genome replication (for example, a point mutation in a response element leading to a moderate change in binding affinity). Finally, we do not introduce any entrainment. Real circadian oscillators are aligned to a 24-hour period (“entrained”) by environmental inputs such as light and temperature. For this reason, natural circadian clocks may have natural frequencies that are slightly shorter or longer than 24 hours, although a close proximity to the 24-hour period does seem to be an important selective factor [1].

      ...despite the methodological advances, the scale of the systems explored remains modest. While moving from 3- to 5-node systems is non-trivial, five elements still represent a relatively small network. It is somewhat surprising that the algorithm does not scale further, particularly when considering the performance of MCTS in other domains - for instance, modern chess engines routinely explore far larger decision trees. A discussion on current performance bottlenecks and potential avenues for improving scalability would be valuable.

      We thank the reviewers for their attention to this point. The main limitation we encountered to exploring circuits with more than 5 nodes in this work was the poor computational scaling of the Gillespie stochastic simulation algorithm, rather than a limitation of MCTS itself. While the average runtime of a 3-node circuit simulation was roughly 7 seconds, this number increased to 18-20 seconds with 5-node circuits. For this reason, we limited the search to topologies with ≤15 interaction arrows (15 sec/simulation). In general, the simulation time was proportional to the square of the number of transcription factors (TFs). We will revise the text to include the reason for stopping at 5 nodes, which is significant for understanding CircuiTree’s scaling properties.

      With regards to scaling, an important advantage of CircuiTree is its ability to generate useful candidate designs after exploring only a portion of the search space. Like exhaustive search, given enough time, MCTS will comprehensively explore the search space and find all possible solutions. However, for large search spaces, RL-based agents are generally given a finite number of simulations (or time) to learn as much as possible.

      Across machine learning (ML) applications [2] and particularly with RL models [3], this training time tends to obey a power law with respect to the underlying complexity of the problem. Thus we can use the complexity of the 3-node and 5-node searches to infer the current scaling limits of CircuiTree. The first oscillator topology was discovered after 2,280 simulations for the 3-node search, and in the 5-node search, the first oscillator using 5 nodes appeared at ~8e5 simulations, resulting in a power law of Y ~ 84.4 X<sup>0.333</sup>. Thus, useful candidate designs may be found for 6-node and 7-node searches after 4.5e7 and 5.26e9 simulations, respectively, even though these spaces contain 1.5e17 and 2.5e23 topologies, respectively. Thus, running a 7-node search with the current implementation of CircuiTree would require resources close to the current boundaries of computation, requiring roughly 1.8 million CPU-hours, or 2 weeks on 5,000 CPUs, assuming a 1-second simulation. These points will be incorporated into both the results and discussion sections in our revised text.

      However, we are optimistic about CircuiTree’s potential to scale to much larger circuits with modifications to its algorithm. CircuiTree uses the original (so-called “vanilla”) implementation of MCTS, which has not been used in professional game-playing AIs in over a decade. Contemporary RL-based game-playing engines leverage deep neural networks to dramatically reduce the training time, using value networks to identify game-winning positions and policy networks to find game-winning moves. AlphaZero, developed by Google DeepMind to learn games by self-play and without domain knowledge, outperformed all other chess AIs after 44 million training games, much smaller than the 10^43 possible chess states [4]. Similarly, the game of go has 10<sup>170</sup> possible states, but AlphaZero outperformed other AIs after only 140 million games [4]. Large circuits live in similarly large search spaces; for example, 19-node and 20-node circuits represent spaces of 10<sup>172</sup> and 10<sup>190</sup> possible topologies. The revised text will include this discussion and identify value and policy networks, as well as more scalable simulation paradigms such as ODEs and neural ODEs, as our future directions for improving CircuiTree’s scalability.

      Finally, our revised discussion will note some important differences between game-playing and biological circuit design. Unlike deterministic games like chess, the final value of a circuit topology is determined stochastically, by running a simulation whose fitness depends on the parameter set and initial conditions. Thus, state-for-state, it is possible that training an agent for circuit design may inherently require more simulations to achieve the same level of certainty compared to classical games. Additionally, while we often possess a priori knowledge about a game such as its overall difficulty or certain known strategies, we lack this frame of reference when searching for circuit designs. Thus, it remains challenging to know if and when a large space of designs has been “satisfactorily” or “comprehensively” searched, since the answer depends on data that are unknown, namely the quantity, quality, and location of solutions residing in the search space.

      Not accounting for redundancy due to structural symmetries

      Finally, it is worth noting that the emergence of oscillations in a model often depends not only on the topology but also critically on parameter choices and the nature of the nonlinearities. The use of Hill functions and high Hill coefficients is a common strategy to induce oscillatory dynamics. Thus, the reported results should be interpreted within the context of the modelling assumptions and parameter regimes employed in the simulations.

      In our dynamical modeling of transcription factor (TF) networks, we do not rely on continuum assumptions about promoter occupancy such as Hill functions. Rather, we model each reaction - transcription, translation, TF binding/unbinding, and degradation - explicitly, and individual molecules appear and disappear via stochastic birth and death events. Many natural TFs are homodimers that bind cooperatively to regulate transcription; similarly, we assume that pairs of TFs bind more stably to their response element than individual TFs. Thus, our model has similar cooperativity to a Hill function, and it can be shown that in the continuum limit, the effective Hill coefficient is always ≤2. Our revision will clarify this aspect of the modeling and include a derivation of this property. Currently, the parameter values used in the figures are shown in Table 2. In the revised text, these will be displayed in the body of the text as well for clarity.

      Bibliography (1) Spoelstra, K., Wikelski, M., Daan, S., Loudon, A. S. I., & Hau, M. (2015). Natural selection against a circadian clock gene mutation in mice. PNAS, 113(3), 686–691. https://doi.org/https://doi.org/10.1073/pnas.1516442113<br /> (2) Neumann, O., & Gros, C. (2023). Scaling Laws for a Multi-Agent Reinforcement Learning Model. The Eleventh International Conference on Learning Representations. Retrieved from https://openreview.net/forum?id=ZrEbzL9eQ3W (3) Jones, A. L. (2021). Scaling Scaling Laws with Board Games. arXiv [Cs.LG]. Retrieved from http://arxiv.org/abs/2104.03113 (4) Silver, D., Hubert, T., Schrittwieser, J., Antonoglou, I., Lai, M., Guez, A., Lanctot, M., Sifre, L., Kumaran, D., Graepel, T., Lillicrap, T., Simonyan, K., & Hassabis, D. (2018). A general reinforcement learning algorithm that Masters Chess, Shogi, and go through self-play. Science, 362(6419), 1140–1144. https://doi.org/10.1126/science.aar6404

    1. été initialement rédigé dans Stylo ou dans un autre environnement. Au cours du processus de transformation, on observe un écrasement du modèle textuel employé initialement par les auteurs.

      oui, mais non... les conséquences restent là - si t'as écrit en word tu as écrit différemment, par exemple t'a pas balisé des trucs. mais aussi t'as vu les choses différemment. DOnc en réalité à la fin il devrait y avoir des différences même si le frmat final est le même. Mais pour le démontreer il faudrait analyser ;)

    2. nnées 1990, les premières plateformes de diffusions apparaissent durant cette décennie sur plusieurs continents: il y a la plateforme SciELO en Amérique latine (1998) qui promeut un accès ouvert à la recherche et aux publications scientifiques10; mais aussi la plateforme Érudit au Québec, qui a été mise en ligne 1998 également 11 et défend rapidement une politique du libre accès; ou encore la plateforme JSTOR lancée en 1995 aux État-Unis 12.

      ok, ça arrive ici. moi je me concentrerai juste sur ^¸ca, sinon tu te perds

    3. Il est toutefois important de souligner que le processus d’éditorialisation ne se limite pas à la seule production d’un texte. Dans le cadre de sa publication, notamment sur le Web, il est impératif que ce texte subisse une ou plusieurs transformations pour devenir publiable, c’est-à-dire qu’il soit mis en lien avec un réseau d’objets et d’information

      il y a aussi la question des relations du texte avec le reste de l'environnement - chose typique de l'a fonction de diffusion de l'édition et encore plus spécifique en domaine numérique

    4. friction dans l’écriture numérique, dans sa phase de préparation à la diffusion, durant laquelle l’éditeur intervient dans le texte et modifie le modèle textuel initialement employé par l’auteur.

      même dans l'édition "papier". quand on compose avec des caractères de plombs... tandis que l'auteur a donné un manuscrit! Ici on pourrait dire l'enverse de ce que tu dis: en numérique il y a plus de continuité... il faut que tu étoffe ton argument

    1. Author response:

      The following is the authors’ response to the original reviews.

      Public Reviews:

      Reviewer #1 (Public review):

      Summary:

      Work by Brosseau et. al. combines NMR, biochemical assays, and MD simulations to characterize the influence of the C-terminal tail of EmrE, a model multi-drug efflux pump, on proton leak. The authors compare the WT pump to a C-terminal tail deletion, delta_107, finding that the mutant has increased proton leak in proteoliposome assays, shifted pH dependence with a new titratable residue, faster-alternating access at high pH values, and reduced growth, consistent with proton leak of the PMF.

      Strengths:

      The work combines thorough experimental analysis of structural, dynamic, and electrochemical properties of the mutant relative to WT proteins. The computational work is well aligned in vision and analysis. Although all questions are not answered, the authors lay out a logical exploration of the possible explanations.

      Weaknesses:

      There are a few analyses that are missing and important data left out. For example, the relative rate of drug efflux of the mutant should be reported to justify the focus on proton leak. Additionally, the correlation between structural interactions should be directly analyzed and the mutant PMF also analyzed to justify the claims based on hydration alone. Some aspects of the increased dynamics at high pH due to a potential salt bridge are not clear.

      Reviewer #2 (Public review):

      Summary:

      This manuscript explores the role of the C-terminal tail of EmrE in controlling uncoupled proton flux. Leakage occurs in the wild-type transporter under certain conditions but is amplified in the C-terminal truncation mutant D107. The authors use an impressive combination of growth assays, transport assays, NMR on WT and mutants with and without key substrates, classical MD, and reactive MD to address this problem. Overall, I think that the claims are well supported by the data, but I am most concerned about the reproducibility of the MD data, initial structures used for simulations, and the stochasticity of the water wire formation. These can all be addressed in a revision with more simulations as I point out below. I want to point out that the discussion was very nicely written, and I enjoyed reading the summary of the data and the connection to other studies very much.

      Strengths:

      The Henzler-Wildman lab is at the forefront of using quantitative experiments to probe the peculiarities in transporter biophysics, and the MD work from the Voth lab complements the experiments quite well. The sheer number of different types of experimental and computational approaches performed here is impressive.

      Weaknesses:

      The primary weaknesses are related to the reproducibility of the MD results with regard to the formation of water wires in the WT and truncation mutant. This could be resolved with simulations starting from structures built using very different loops and C-terminal tails.

      The water wire gates identified in the MD should be tested experimentally with site-directed mutagenesis to determine if those residues do impact leak.

      We appreciate the reviewers thoughtful consideration of our manuscript, and their recognition of the variety of experimental and computational approaches we have brought to bear in probing the very challenging question of uncoupled proton leak through EmrE.

      We did record SSME measurements with MeTPP+, a small molecule substrate at two different protein:lipid ratios. These experiments report the rate of net flux when both proton-coupled substrate antiport and substrate-gated proton leak are possible. We will add this data to the revision, including data acquired with different lipid:protein ratio that confirms we are detecting transport rather than binding. In brief, this data shows that the net flux is highly dependent on both proton concentration (pH) and drug-substrate concentration, as predicted by our mechanistic model. This demonstrates that both types of transport contribute to net flux when small molecule substrates are present.

      In the absence of drug-substrate, proton leak is the only possible transport pathway. The pyranine assay directly assesses proton leak under these conditions and unambiguously shows faster proton entry into proteoliposomes through the ∆107-EmrE mutant than through WT EmrE, with the rate of proton entry into ∆107-EmrE proteoliposomes matching the rate of proton entry achieved by the protonophore CCCP. We have revised the text to more clearly emphasize how this directly measures proton leak independently of any other type of transport activity. The SSME experiments with a proton gradient only (no small molecule substrate present) provide additional data on shorter timescales that is consistent with the pyranine data. The consistency of the data across multiple LPRs and comparison of transport to proton leak in the SSME assays further strengthens the importance of the C-terminal tail in determining the rate of flux.

      None of the current structural models have good resolution (crystallography, EM) or sufficient restraints (NMR) to define the loop and tail conformations sufficiently for comparison with this work. We are in the process of refining an experimental structure of EmrE with better resolution of the loop and tail regions implicated in proton-entry and leak. Direct assessment of structural interactions via mutagenesis is complicated because of the antiparallel homodimer structure of EmrE. Any point mutation necessarily affects both subunits of the dimer, and mutations designed to probe the hydrophobic gate on the more open face of the transporter also have the potential to disrupt closure on the opposite face, particularly in the absence of sufficient resolution in the available structures. Thus, mutagenesis to test specific predicted structural features is deferred until our structure is complete so that we can appropriately interpret the results.

      In our simulation setup, the MD results can be considered representative and meaningful for two reasons. First, the C-terminal tail, not present in the prior structure and thus modeled by us, is only 4 residues long. We will show in the revision and detailed response that the system will lose memory of its previous conformation very quickly, such that velocity initialization alone is enough for a diverse starting point. Second, our simulation is more like simulated annealing, starting from a high free energy state to show that, given such random initialization, the tail conformation we get in the end is consistent with what we reported. It is also difficult to sample back-and-forth tail motion within a realistic MD timescale. Therefore, it can be unconclusive to causally infer the allosteric motions with unbiased MD of the wildtype alone. The best viable way is to look at the equilibrium statistics of the most stable states between WT- and ∆107-EmrE and compare the differences.

      Recommendations for the authors:

      Reviewer #1 (Recommendations for the authors):

      The work is well done and well presented. In my opinion, the authors must address the following questions.

      (1) It is unclear to a non-SSME-expert, why the net charge translocated in delta_107 is larger than in WT. For such small pH gradients (0.5-1pH unit), it seems that only a few protons would leave the liposome before the internal pH is adjusted to be the same as the external. This number can be estimated given the size of the liposomes. What is it? Once the pH gradient is dissipated, no more net proton transport should be observed. So, why would more protons flow out of the mutant relative to WT?

      We appreciate the complexity of both the system and assay and have made revisions to both the main text and SI to address these points more clearly. While we can estimate liposomes size, we cannot easily quantify the number of liposomes on the sensor surface so cannot calculate the amount of charge movement as suggested by the reviewer. We have revised Fig. 3.2 and added additional data at low and high pH with different lipid to protein ratios to distinguish pre-steady state (proton release from the protein) and steady state processes (transport). An extended Fig. 3.2 caption and revised discussion in the main text clarify these points.

      We have also revised SI figure 3.2 to include an example of transport driven by an infinite drug gradient. Drug-proton antiport results in net charge build-up in the liposome since two protons will be driven out for every +1 drug transported in. This also creates a pH gradient is created (higher proton concentration outside). The negative inside potential inhibits further antiport of drug. However, both the negative-inside potential and proton gradient will drives protons back into the liposome if there is a leak pathway available. This is clearly visible with a reversal of current negative (antiport) to positive (proton backflow), and the magnitude of this back flow is larger for ∆107-EmrE which lacks the regulatory elements provided by the C-terminal tail. We have amended the main text and SI to include this discussion.

      (2) Given the estimated rate of transport, size of liposomes, and pH gradient, how quickly would the SSME liposomes reach pH balance?

      Since SSME measurements are due to capacitive coupling and will represent the net charge movement, including pre-steady state contributions, the current values will be incredibly sensitive to individual rates of alternating access, proton and drug on- and off-rates. Time to pH balance would, therefore, differ based on the construct, LPR, absolute pH or drug concentrations as well as the magnitude of the given gradients. For this reason, we necessarily use integrated currents (transported charge over time) when comparing mutants as it reflects kinetic differences inherent to the mutant without over-processing the data, for example, by normalizing to peak currents which would over emphasize certain properties that will differ across mutants. This process allows for qualitative comparisons by subjecting mutants to the same pH and substrate gradients when the same density of transporter construct is present, and care is given to not overstate the importance of the actual quantities of charges that are moving as they will be highly context dependent. This is clearly seen in Fig 3.2 where the current is not zero and the net transported charge is still changing at the end of 1 second. We have amended SI figure 3.2 and the main text to include this discussion.

      (3) Given that H110 and E14 would deprotonate when the external pH is elevated above 7 and that these protons would be released to external bulk, the external bulk pH would decrease twice as much for WT compared to delta107. This would decrease the pH gradient for WT relative to the mutant. Can these effects be quantified and accounted for? Would this ostensibly decrease the amount of charge that transfers into the liposomes for WT? How would this impact the current interpretation that the two systems are driven by the same gradient?

      The reviewer is correct that there will be differences in deprotonation of WT and ∆107 and the amount of proton release will also change with pH. We have amended Figure 3.2 to clarify this difference and its significance. For the proton gradient only conditions in Figure 3, each set of liposomes were equilibrated to the starting pH by repeated washings and incubation before measurement occurred. For example, for the pH 6.5 inside, pH 7 outside condition, both the inside and outside pH were equilibrated at 6.5, and both E14 residues will be predominantly protonated in WT and ∆107, and H110 will be predominantly protonated in WT-EmrE. Upon application of the external pH 7 solution, protons will be released from the E14 of either construct, with additional proton being released from H110 for WT-EmrE causing a large pre-steady state negative contribution to the signal (Fig. 3.2A). Under this pH condition, we the peak current correlates with the LPR, as this release of protons will depend on density of the transporter. However, we also see that the longer-time decay of the signal correlates with the construct (WT or ∆107) and is relatively independent of LPR, consistent with a transport process rather than a rapid pre-steady state release of protons. Therefore, when we look at the actual transported charge over time, despite the higher contribution of proton release to the WT-EmrE signal, the significant increase in uncoupled proton transport for the C-terminal deletion mutant dominates the signal.

      As a contrast, we apply this same analysis to the pH 8 inside, pH 8.5 outside condition where both sets of transports will be deprotonated from the start (Fig. 3.2B). Now the peak currents, decay rates, and transported charge over time are all consistent for a given construct (WT or ∆107). The two LPRs for an individual construct match within error, as the differences in overall charge movement and transported charge over time are independent of pre-steady-state proton release from the transporter at high pH.

      (4) A related question, how does the protonation of H110 influence the potential rate of proton transport between the two systems? Does the proton on H110 transfer to E14?

      The protonation of H110 will only influence the rate of transport of WT-EmrE as its protonation is required for formation of the hydrogen bonding network that coordinates gating. However, protonation of both E14s will influence the rate of proton transport of both systems as protonation state affects the rate of alternating access which is necessary for proton turnover. This is another reason we use the transported charge over time metric to compare mutants as it allows for a common metric for mutants with altered rates which are present in the same density and under the same gradient conditions. We do not have any evidence to support transfer of proton from H110 to E14, but there is also no evidence to exclude this possibility. We do not discuss this in the manuscript because it would be entirely speculative.

      (5) Is the pKa in the simulations (Figure 6B) consistent with the experiment?

      We calculated the pKa from this WT PMF and got a pKa of 7.1, which is in close proximity of the experimental value of 6.8

      (6) Why isn't the PMF for delta_107 compared to WT to corroborate the prediction that hydration sufficiently alters both the rate and pKa of E14?

      We appreciate the reviewer’s suggestion and agree that a direct comparison would be valuable. However, several factors limit the interpretability of such an analysis in this context:

      (a) Our data indicate that the primary difference in free energy barriers between WT and Δ107 lies in the hydration step rather than proton transport itself. To fully resolve this, a 2D PMF calculation via 2D umbrella sampling would be required which can be very expensive. Solely looking at the proton transport side of this PMF will not give much difference.

      (b) Given this, the aim for us to calculate this PMF is to support our conjecture that the bottleneck for such transport is the hydrophobic gate.

      (7) The authors suggest that A61 rotation 'controls the water wire formation' by measuring the distribution of water connectivity (water-water distances via logS) and average distances between A61 and I68/I67. Delta_107 has a larger inter-residue distance (Figure 6A) more probable small log S closer waters connecting E14 and two residues near the top of the protein (Figure 5A). However, it strikes me that looking at average distances and the distribution of log S is not the best way to do this. Why not quantify the correlation between log S and A61 orientation and/or A61-I68/I71 distances as well as their correlation to the proposed tail interactions (D84-R106 interactions) to directly verify the correlation (and suggest causation) of these interactions on the hydration in this region. Additionally, plotting the RMSD or probability of waters below I68 and I171 as a function of A61-I68 distances and/or numbers over time would support the log S analysis.

      The reviewer requested that we provide direct correlation analyses between A61 orientation, residue distances (A61-I68/I71), and water connectivity (logS) to better support the claim about water wire formation, rather than relying solely on average distances and distributions.

      We appreciate the reviewer’s suggestion to strengthen our analysis with direct correlations. However, due to the slow kinetics of hydration/dehydration events, unbiased simulation timescales do not permit sufficient sampling of multiple transitions to perform statistically robust dynamic correlation analyses. Instead, our approach focuses on equilibrium statistics, which reveal the dominant conformational states of WT- and Δ107-EmrE and provide meaningful insights into shifts in hydration patterns.

      (8) It looks like the D84-R106 salt bridge controls this A61-I68 opening. Could this also be quantifiably correlated?

      As discussed in response to the previous question, the unbiased simulation timescales do not permit sufficient sampling of multiple transitions to perform statistically robust dynamic correlation analyses.

      (9) The NMR results show that alternating access increases in frequency from ~4/s for WT at low and high pH to ~17/s for delta_107 only at high pH. They then go on to analyze potential titration changes in the delta_107 mutant, finding two residues with approximate pKa values of 5.6 and 7.1. The former is assigned to E14, consistent with WT. But the latter is suggested to be either D84, which salt bridges to R106, or the C-terminal carboxylate. If it is D84, why would deprotonation, which would be essential to form the salt bridge, increase the rate of alternating access relative to WT?

      We note that the faster alternating access rate was observed for TPP+-bound ∆107-EmrE, not the transporter in the absence of substrate. In the absence of substrate the relatively broad lines preclude quantitative determination of the alternating access rate by NMR making it difficult to judge the validity of the reviewers reasoning. Identification of which residue (D84 or H110) corresponds to the shifted pKa is ultimately of little consequence as this mutant does not reflect the native conditions of the transporter. It is far more important to acknowledge that both R106 and D84 are sensitive to this deprotonation as it indicates these residues are close in space and provides experimental support for the existence of the salt bridge identified in the MD simulations, as discussed in the manuscript.

      (10) In a more general sense, can the authors speculate why an efflux pump would evolve this type of secondary gate that can be thrown off by tight binding in the allosteric site such as that demonstrated by Harmane? What potential advantage is there to having a tail-regulated gate?

      This was likely a necessity to allow for better coupling as these transporters evolved to be more promiscuous. The C-terminal tail is absent in tightly coupled family members such as Gdx who are specific for a single substrate and have a better-defined transport stoichiometry. We have included this discussion in the main text and are currently investigating this phenomenon further. Those experiments are beyond the scope of the current manuscript.

      (11) It is hard to visualize the PT reaction coordinate. Is the e_PT unit vector defined for each window separately based on the initial steered MD pathway? If so, how reliant is the PT pathway on this initial approximate path? Also, how does this position for each window change if/when E14 rotates? This could be checked by plotting the x,y,z distributions for each window and quantifying the overlap between windows in cartesian space. These clouds of distributions could also be plotted in the protein following alignment so the reader can visualize the reaction coordinate. Does the CEC localization ever stray to different, disconnected regions of cartesian phase space that are hidden by the reaction coordinate definition?

      The unit vector e_PT is the same across all windows based on unbiased MD. Therefore, the reaction coordinate (a scalar) is the vector from the starting point to the CEC, projected on this unit vector. E14 rotation does not significantly change the window definition a lot unless the CEC is very close to E14, where we found this to be a better CV. For detailed discussions about this CV, especially a comparison between a curvilinear CV, please see J. Am. Chem. Soc. 2018, 140, 48, 16535–16543 “Simulations of the Proton Transport” and its SI Figure S1.In the Supplementary Information, we added figure 6.1 to show the average X, Y, Z coordinates of each umbrella window.

      (12) Lastly, perhaps I missed it, but it's unclear if the rate of substrate efflux is also increased in the delta_107 mutant. If this is also increased, then the overall rate of exchange is faster, including proton leak. This would be important to distinguish since the focus now is entirely on proton leaks. I.e., is it only leak or is it overall efflux and leak?

      We have amended SI figure 3.2 to include a gradient condition where an infinite drug gradient is created across the liposome. The infinite gradient allows for rapid transport of drug into the liposomes until charge build-up opposes further transport. This peak is at the same time for both LPRs of WT- and ∆107-EmrE suggesting the rate of substrate transport is similar. Differences in the peak heights across LPRs can be attributed to competition between drug and proton for the primary binding site such that more proton will be released for the higher density constructs as described above. This process does also create a proton gradient as drug moving in is coupled to two protons moving out so as charge build-up inhibits further drug movement, the building proton gradient will also begin to drive proton back in which is another example of uncoupled leak. Here, again we see that this back-flow of protons or leak is of greater magnitude for ∆107-EmrE proteoliposomes that for those with WT-EmrE. We have included this discussion in the SI and main text.

      Minor

      (1) Introduction - the authors describe EmrE as a model system for studying the molecular mechanism of proton-coupled transport. This is a rather broad categorization that could include a wide range of phenomena distal from drug transport across membranes or through efflux pumps. I suggest further specifying to not overgeneralize.

      We revised to note the context of multidrug efflux.

      Reviewer #2 (Recommendations for the authors):

      Simulations. The initial water wire analysis is based on 4 different 1 ms simulations presented in Figure 5. The 3 WT replicates show similar results for the tail-blocking water wire formation, but the details of the system build and loop/C-terminal tail placement are not clear. It does appear that a single C-terminal tail model was created for all WT replicates. Was there also modeling for any parts of the truncation mutant? Regardless, since these initial placements and uncertainties in the structures may impact the results and subsequent water wire formation, I would like a discussion of how these starting structures impacted the formation or not of wires. I think that another WT replicate should be run starting from a completely new build that places the tail in a different (but hopefully reasonable location). This could be built with any number of tools to generate reasonable starting structures. It's critical to ensure that multiple independent simulations across different initial builds show the same water wire behavior so that we know the results are robust and insensitive to the starting structure and stochastic variation.

      We thank Reviewer 2 for their suggestion regarding the discussion of the initial structure. In our simulations, the C-terminal tail was initially modeled in an extended conformation (solvent-exposed) to mimic its disordered state prior to folding. This approach resembles an annealing process, where the system evolves from a higher free-energy state toward equilibrium. Notably, across all three replicas, we observed consistent folding of the tail onto the protein surface, supporting the robustness of this conformational preference.

      For the Δ107 truncation mutant, minimal modeling was required, as most experimental structures resolve residues up to S105 or R106. To rigorously assess the influence of the starting configuration, we analyzed the tail’s dynamics using backbone dihedral angle auto- and cross-correlation functions (new Supplementary Figures 10.1 and 10.2). These analyses reveal rapid decay of correlations—consistent with the tail’s short length (5 residues) and high flexibility—indicating that the system "forgets" its initial configuration well within the simulation timescale. Thus, we conclude that our sampling is sufficient to capture equilibrium behavior, independent of the starting structure.

      What does the size of the barrier in the PMF (Figure 6B) imply about the rate of proton transfer/leak and can the pKa shift of the acidic residue be estimated with this energy value compared to bulk?

      We noticed this point aligns with a related concern raised by Reviewer 1. For a detailed discussion please refer to Point 5 in our response to Reviewer 1.

      Experimental validation. The hypotheses generated by this work would be better buttressed if there were some mutation work at the hydrophobic gate (61, 68, 71) to support it. I realize that this may be hard, but it would significantly improve the quality.

      Due to the small size of the transporter, any mutagenesis of EmrE should necessarily be accompanied by functional characterization to fully assess the effects of the mutation on rate-limiting steps. We have revised the manuscript to add a discussion of the challenges with analyzing simple point mutants and citing what is known from prior scanning mutagenesis studies of EmrE.

    1. Author response:

      The following is the authors’ response to the original reviews.

      Public Reviews:

      Reviewer #1 (Public Review):

      Summary:

      In this manuscript, the authors present a novel CRISPR/Cas9-based genetic tool for the dopamine receptor dop1R2. Based on the known function of the receptor in learning and memory, they tested the efficacy of the genetic tool by knocking out the receptor specifically in mushroom body neurons. The data suggest that dop1R2 is necessary for longer-lasting memories through its action on ⍺/ß and ⍺'/ß' neurons but is dispensable for short-term memory and thus in ɣ neurons. The experiments impressively demonstrate the value of such a genetic tool and illustrate the specific function of the receptor in subpopulations of KCs for longer-term memories. The data presented in this manuscript are significant.

      Reviewer #2 (Public Review):

      Summary:

      This manuscript examines the role of the dopamine receptor, Dop1R2, in memory formation. This receptor has complex roles in supporting different stages of memory, and the neural mechanisms for these functions are poorly understood. The authors are able to localize Dop1R2 function to the vertical lobes of the mushroom body, revealing a role in later (presumably middle-term) aversive and appetitive memory. In general, the experimental design is rigorous, and statistics are appropriately applied. While the manuscript provides a useful tool, it would be strengthened further by additional mechanistic studies that build on the rich literature examining the roles of dopamine signaling in memory formation. The claim that Dop1R2 is involved in memory formation is strongly supported by the data presented, and this manuscript adds to a growing literature revealing that dopamine is a critical regulator of olfactory memory. However, the manuscript does not necessarily extend much beyond our understanding of Dop1R2 in memory formation, and future work will be needed to fully characterize this reagent and define the role of Dop1R2 in memory.

      Strengths:

      (1) The FRT lines generated provide a novel tool for temporal and spatially precise manipulation of Dop1R2 function. This tool will be valuable to study the role of Dop1R2 in memory and other behaviors potentially regulated by this gene.

      (2) Given the highly conserved role of Dop1R2 in memory and other processes, these findings have a high potential to translate to vertebrate species.

      Weaknesses:

      (1) The authors state Dop1R2 associates with two different G-proteins. It would be useful to know which one is mediating the loss of aversive and appetitive memory in Dop1R2 knockout flies.

      We thank you for the insightful comment. We agree that it would be very useful to know which G-proteins are transmitting Dop1R2 signaling. To that extent, we examined single-cell transcriptomics data to check the level of co-expression of Dop1R2 with G-proteins that are of interest to us. (Figure 1 S1)

      Lines 312-325

      “Some RNA binding proteins and Immediate early genes help maintain identities of Mushroom body cells and are regulators of local transcription and translation (de Queiroz et al., 2025; Raun et al., 2025). So, the availability of different G-proteins may change in different lobes and during different phases of memory. The G-protein via which GPCRs signal, may depend on the pool of available G-proteins in the cell/sub-cellular region (Hermans, 2003)., Therefore, Dop1R2 may signal via different G-proteins in different compartments of the Mushroom body and also different compartments of the neuron. We looked at Gαo and Gαq as they are known to have roles in learning and forgetting (Ferris et al., 2006; Himmelreich et al., 2017). We found that Dop1R2 co-expresses more frequently with Gαo than with Gαq (Figure 1 S1). While there is evidence for Dop1R2 to act via Gαq (Himmelreich et al., 2017). It is difficult to determine whether this interaction is exclusive, or if Dop1R2 can also be coupled to other G-proteins. It will be interesting to determine the breadth of G-proteins that are involved in Dop1R2 signaling.”

      (2) It would be interesting to examine 24hr aversive memory, in addition to 24hr appetitive memory.

      This is indeed an important point and we agree that it will complete the assessment of temporally distinct memory traces. We therefore performed the Aversive LTM experiments and include them in the results.

      Lines 208-228

      “24h memory is impaired by loss of Dop1R2

      Next, we wanted to see if later memory forms are also affected. One cycle of reward training is sufficient to create LTM (Krashes & Waddell, 2008), while for aversive memory, 5-6 cycles of electroshock-trainings are required to obtain robust long-term memory scores (Tully et al., 1994). So, we looked at both, 24h aversive and appetitive memory. For aversive LTM, the flies were tested on the Y-Maze apparatus as described in (Mohandasan et al., (2022).

      Flipping out Dop1R2 in the whole MB causes a reduced 24h memory performance (Figure 4A, E). No phenotype was observed when Ddop1R2 was flipped out in the γ-lobe (Figure 4B, F). However, similar to 2h memory, loss of Ddop1R2 in the α/β-lobes (Figure 4C, G) or the α’/β’-lobes (Figure 4D, H) causes a reduction in memory performance. Thus, Dop1R2 seems to be involved in aversive and appetitive LTM in the α/β-lobes and the α’/β’-lobes.

      Previous studies have shown mutation in the Dop1R2 receptor leads to improvement in LTM when a single shock training paradigm is used (Berry et al., 2012). As we found that it disrupts LTM, we wanted to verify if the absence of Dop1R2 outside the MB is what leads to an improvement in memory. To that extent, we tested panneuronal flip-out of Dop1R2 flies for 6hr and 24hr memory upon single shock using the elav-Gal4 driver. We found that it did not improve memory at both time points (Figure 4 S1). Confirming that flipping out Dop1R2 panneuronally does not improve LTM (Figure 4 S1C) and highlighting its irrelevance in memory outside the MB.”

      (3) The manuscript would be strengthened by added functional analysis. What are the DANs that signal through Dop1R. How do these knockouts impact MBONs?

      We thank you for this question. We indeed agree that it is a highly relevand and open question, how distinct DANs signal via distinct Dopamine receptors. Our work here uniquely focusses on Dop1R2 within the MB. We aim to investigate other DopRs and the connection between DANs in the future using similar approaches.

      (4) Also in Figure 2, the lobe-specific knockouts might be moved to supplemental since there is no effect. Instead, consider moving the control sensory tests into the main figure.

      We thank you for this suggestion and understand that in Figure 2 no significant difference is seen. However, we have emphasized in the text that the results from the supplementary figures are just to confirm that the modifications made at the Dop1R2 locus did not alter its normal function.

      Lines 156-162

      “We wanted to see if flipping out Dop1R2 in the MB affects memory acquisition and STM by using classical olfactory conditioning. In short, a group of flies is presented with an odor coupled to an electric shock (aversive) or sugar (appetitive) followed by a second odor without stimulus. For assessing their memory, flies can freely choose between the odors either directly after training (STM) or at a later timepoint.

      To ensure that the introduced genetic changes to the Dop1R2 locus do not interfere with behavior we first checked the sensory responses of that line”

      (5) Can the single-cell atlas data be used to narrow down the cell types in the vertical lobes that express Dop1R2? Is it all or just a subset?

      This is indeed an interesting question, and we thank you for mentioning it. To address this as best as we could, we analyzed the single cell transcriptomic data from (Davie et al., 2018) and presented it in Figure 1 S1.

      Reviewer #3 (Public Review):

      Summary:

      Kaldun et al. investigated the role of Dopamine Receptor Dop1R2 in different types and stages of olfactory associative memory in Drosophila melanogaster. Dop1R2 is a type 1 Dopamine receptor that can act both through Gs-cAMP and Gq-ERCa2+ pathways. The authors first developed a very useful tool, where tissue-specific knock-out mutants can be generated, using Crispr/Cas9 technology in combination with the powerful Gal4/UAS gene-expression toolkit, very common in fruit flies.

      They direct the K.O. mutation to intrinsic neurons of the main associative memory centre fly brain-the mushroom body (MB). There are three main types of MB-neurons, or Kenyon cells, according to their axonal projections: a/b; a'/b', and g neurons.

      Kaldun et al. found that flies lacking dop1R2 all over the MB displayed impaired appetitive middle-term (2h) and long-term (24h) memory, whereas appetitive short-term memory remained intact. Knocking-out dop1R2 in the three MB neuron subtypes also impaired middle-term, but not short-term, aversive memory.

      These memory defects were recapitulated when the loss of the dop1R2 gene was restricted to either a/b or a'/b', but not when the loss of the gene was restricted to g neurons, showcasing a compartmentalized role of Dop1R2 in specific neuronal subtypes of the main memory centre of the fly brain for the expression of middle and long-term memories.

      Strengths:

      (1) The conclusions of this paper are very well supported by the data, and the authors systematically addressed the requirement of a very interesting type of dopamine receptor in both appetitive and aversive memories. These findings are important for the fields of learning and memory and dopaminergic neuromodulation among others. The evidence in the literature so far was generated in different labs, each using different tools (mutants, RNAi knockdowns driven in different developmental stages...), different time points (short, middle, and long-term memory), different types of memories (Anesthesia resistant, which is a type of protein synthesis independent consolidated memory; anesthesia sensitive, which is a type of protein synthesis-dependent consolidated memory; aversive memory; appetitive memory...) and different behavioral paradigms. A study like this one allows for direct comparison of the results, and generalized observations.

      (2) Additionally, Kaldun and collaborators addressed the requirement of different types of Kenyon cells, that have been classically involved in different memory stages: g KCs for memory acquisition and a/b or a'/b' for later memory phases. This systematical approach has not been performed before.

      (3) Importantly, the authors of this paper produced a tool to generate tissue-specific knock-out mutants of dop1R2. Although this is not the first time that the requirement of this gene in different memory phases has been studied, the tools used here represent the most sophisticated genetic approach to induce a loss of function phenotypes exclusively in MB neurons.

      Weaknesses:

      (1) Although the paper does have important strengths, the main weakness of this work is that the advancement in the field could be considered incremental: the main findings of the manuscript had been reported before by several groups, using tissue-specific conditional knockdowns through interference RNAi. The requirement of Dop1R2 in MB for middle-term and long-term memories has been shown both for appetitive (Musso et al 2015, Sun et al 2020) and aversive associations (Plaçais et al 2017).

      Thank you for this comment. We believe that the main takeaway from the paper is the elegant tool we developed, to study the role of Dop1R2 in fruit flies by effectively flipping it out spatio-temporally. Additionally, we studied its role in all types of olfactory associative memory to establish it as a robust tool that can be used for further research in place of RNAi knockouts which are shown to be less efficient in insects as mentioned in the texts in line 394-398.

      “The genetic tool we generated here to study the role of the Dop1R2 dopamine receptor in cells of interest, is not only a good substitute for RNAi knockouts, which are known to be less efficient in insects (Joga et al., 2016), but also provides versatile possibilities as it can be used in combination with the powerful genetic tools of Drosophila.”

      (2) The approach used here to genetically modify memory neurons is not temporally restricted. Considering the role of dopamine in the correct development of the nervous system, one must consider the possible effects that this manipulation can have in the establishment of memory circuits. However, previous studies addressing this question restricted the manipulation of Dop1R2 expression to adulthood, leading to the same findings than the ones reported in this paper for both aversive and appetitive memories, which solidifies the findings of this paper.

      We thank you for this comment and we agree that it would be important to show a temporally restricted effect of Dop1R2 knockout. To assess this and rule out potential developmental defects we decided to restrict the knockout to the post-eclosion stage and to include these results.

      Lines 230-250

      “Developmental defects are ruled out in a temporally restricted Dop1R2 conditional knockout.

      To exclude developmental defects in the MB caused by flip-out of Dop1R2, we stained fly brains with a FasII antibody. Compared to genetic controls, flies lacking Dop1R2 in the mushroom body had unaltered lobes (Figure 4 S2C).

      Regardless, we wanted to control for developmental defects leading to memory loss in flip-out flies. So, we generated a Gal80ts-containing line, enabling the temporal control of Dop1R2 knockout in the entire mushroom body (MB). Given that the half-life of the receptor remains unknown, we assessed both aversive short-term memory (STM) and long-term memory (LTM) to determine whether post-eclosion ablation of Dop1R2 in the MB produced differences compared to our previously tested line, in which Dop1R2 was constitutively knocked out from fertilization. To achieve this, flies were maintained at 18°C until eclosion and subsequently shifted to 30°C for five to seven days. On the fifth day, training was conducted, followed by memory testing. Our results indicate that aversive STM was not significantly impaired in Dop1R2-deficient MBs compared to control flies (Figure 4 S3), consistent with our previous findings (Figure 2). However, aversive LTM was significantly impaired relative to control lines (Figure 4 S3), which also aligned with prior observations. These findings strongly indicate that memory loss caused by Dop1R2 flip-out is not due to developmental defects.”

      (3) The authors state that they aim to resolve disparities of findings in the field regarding the specific role of Dop1R2 in memory, offering a potent tool to generate mutants and addressing systematically their effects on different types of memory. Their results support the role of this receptor in the expression of long-term memories, however in the experiments performed here do not address temporal resolution of the genetic manipulations that could bring light into the mechanisms of action of Dop1R2 in memory. Several hypotheses have been proposed, from stabilization of memory, effects on forgetting, or integration of sequences of events (sensory experiences and dopamine release).

      We thank you for this comment. We agree that it would be interesting to dissect the memory stages by knocking out the receptor selectively in some of them (encoding, consolidation, retrieval). However, our tool irreversibly flips out Dop1R2 preventing us from investigating the receptor’s role in retrieval. Our results show that the receptor is dispensable for STM formation (Figure 2, Figure 4 Supplement 3), suggesting that it is not involved in encoding new information. On the other hand, it is instead involved in consolidation and/or retrieval of long-term and middle-term memories (Figure 3, Figure 4, Figure 5B).

      Overall, the authors generated a very useful tool to study dopamine neuromodulation in any given circuit when used in combination with the powerful genetic toolkit available in Drosophila. The reports in this paper confirmed a previously described role of Dop1R2 in the expression of aversive and appetitive LTM and mapped these effects to two specific types of memory neurons in the fly brain, previously implicated in the expression and consolidation of long-term associative memories.

      Recommendations for the authors:

      Reviewer #1 (Recommendations For The Authors):

      (1) On the first view, the results shown here are different from studies published earlier, while in the same line with others (e.g. Sun et al, for appetitive 24h memories). For example, Berry et al showed that the loss of dop1R2 impairs immediate memory, while memory scores are enhanced 3h, 6h, and 24h after training. Further, they showed data that shock avoidance, at least for higher shock intensities, is reduced in mutant (damb) flies. All in all, this favors how important it is to improve the genetic tools for tissue-specific manipulation. Despite the authors nicely discussing their data with respect to the previous studies, I wondered whether it would be suitable to use the new tool and knock out dop1R2 panneuronally to see whether the obtained data match the results published by Berry et al.. Further, as stated in line 105ff: "As these studies used different learning assays - aversive and appetitive respectively as well as different methods, it is unclear if Dop1R2 has different functions for the different reinforcement stimulus" I wondered why the authors tested aversive and appetitive learning for STM and 2h memory, but only appetitive memory for 24h.

      Thank you for this comment. To that extent, as mentioned above in response to reviewer #2, we included in the results the aversive LTM experiment (Figure 4). Moreover, we performed experiments along the line of Berry et al. using our tool as shown in Figure 4 S1. Our results support that Dop1R2 is required for LTM, rather than to promote forgetting.

      (2) Line 165ff: I can´t find any of the supplementary data mentioned here. Please add the corresponding figures.

      Thank you for pointing this out. In that line we don’t refer to any supplementary data, but to the Figure 1F, showing the absence of the HA-tag in our MB knock-out line. We have clarified this in the text (lines 151-153)

      (3) I can't imagine that the scale bar in Figure 1D-F is correct. I would also like to suggest to show a more detailed analysis of the expression pattern. For example, both anterior and posterior views would be appropriate, perhaps including the VNC. This would allow the expression pattern obtained with this novel tool to be better compared with previously published results. Also, in relation to my comment above (1), it may help to understand the functional differences with previous studies, especially as the authors themselves state that the receptor is "mainly" expressed in the mushroom body (line 99). It would be interesting to see where else it is expressed (if so). This would also be interesting for the panneuronal knockdown experiment suggested under (1). If the receptor is indeed expressed outside the mushroom body, this may explain the differences to Berry et al.

      Thank you for noting this, there was indeed a mistake in the scale bar which we now fixed. Since with our HA-tag immunostaining we could not detect any noticeable signal outside of the MB, we decided to analyze previously existing single cell transcriptomics data that showed expression of the receptor in 7.99% of cells in the VNC and in 13.8% of cells outside the MB (lines 98-100) confirming its sparse expression in the nervous system. The lack of detection of these cells is likely due to the sparse and low expression of the protein. The HA-tag allows to detect the endogenous level of the locus (it is possible that a Gal4/UAS amplification of the signal might allow to detect these cells).

      Regarding the panneuronal knockout, we decided to try to replicate the experiment shown in Berry et al. in Figure 4 S1 and found that Dop1R2 is required for LTM.

      (4) Related to learning data shown in Figures 2-4, the authors should show statistical differences between all groups obtained in the ANOVA + PostHoc tests. Currently, only an asterisk is placed above the experimental group, which does not adequately reflect the statistical differences between the groups. In addition, I would like to suggest adding statistical tests to the chance level as it may be interesting to know whether, for example, scores of knockout flies in 3C and 3D are different from the chance level.

      Many thanks for this correction, we agree with the fact that the way significance scores were shown was not informative enough. We fixed the point by now showing significance between all the control groups and the experimental ones. We also inserted the chance level results in the figure legends.

      (5) Unfortunately, the manuscript has some typing errors, so I would like to ask the authors to check the manuscript again carefully.

      Some Examples:

      Line 31: the the

      Line 56: G-Protein

      Line 64: c-AMP

      Line 68: Dopamine

      Line 70: G-Protein (It alternates between G-protein and G-Protein)

      Line 76: References are formatted incorrectly

      Line 126: Ha-Tag (It alternates between Ha and HA)

      Line 248: missing space before the bracket...is often found

      Thank you for noticing these errors, we have now corrected the spelling throughout the manuscript.

      (6) In the figures the axes are labelled Preference Index (Pref"I"). In the methods, however, the calculation formula is defined as "PREF".

      We thank you for drawing attention to this. To avoid confusion, we changed the definition in the methods section so that it could be clear and coherent (“Memory tests” paragraph in the methods section).

      “PREF = ((N<sub>arm1</sub> - N<sub>arm2</sub>) 100) / N<sub>total</sub> the two preference indices were calculated from the two reciprocal experiments. The average of these two PREFs gives a learning index (LI). LI = (PREF<sub>1</sub> + PREF<sub>2</sub>) / 2.

      In case of all Long-term Aversive memory experiments, Y-Maze protocol was adapted to test flies 24 hours post training. Testing using the Y-Maze was done following the protocol as described in (Mohandasan et al., 2022) where flies were loaded at the bottom of 20-minutes odorized 3D-printed Y-Mazes from where they would climb up to a choice point and choose between the two odors. The learning index was then calculated after counting the flies in each odorized vial as follows: LI = ((N<sub>CS-</sub> - N<sub>CS+</sub>) 100) / N<sub>total</sub>. Where NCS- and NCS+ are the number of flies that were found trapped in the untrained and trained odor tube respectively.

      Reviewer #2 (Recommendations For The Authors):

      (1) In Figures 2 and 3, the legends running two different subfigures is confusing. Would be helpful to find a different way to present.

      Thank you for your suggestion. We modified how we present legends, placing them vertically so that it is clearer.

      (2) Use additional drivers to verify middle and long-term memory phenotypes.

      We agree that it would be interesting to see the role of Dop1R2 in other neurons. To that extent, we looked at long term aversive memory in flies where the receptor was panneuronaly flipped out, and did not find evidence that suggested involvement of Dop1R2 in memory processes outside the MB. (Figure 4 S1)

      (3) Additional discussion of genetic background for fly lines would be helpful.

      Thank you for your advice. We have mentioned the genetic background of flies in the key resources table of the methods sections. Additionally, we also included further explanation on how the lines were created and their genetic background (see “Fly Husbandry” paragraph in the methods section).

      “UAS-flp;;Dop1R2 cko flies and Gal4;Dop1R2<sup>cko</sup> flies were crossed back with ;;Dop<sup>cko</sup> flies to obtain appropriate genetic controls which were heterozygous for UAS and Gal4 but not Dop1R2<sup>cko</sup>.”

      Reviewer #3 (Recommendations For The Authors):

      Line 109 states that to resolve the problem a tool is developed to knock down Dop1R2 in s spatial and temporal specific manner- while I agree that this is within the potential of the tool, there is no temporal control of the flipase action in this study; at least I cannot find references to the use of target/gene switch to control stages of development or different memory phases. However the version available for download is missing supplementary information, so I did not have access to supplementary figures and tables.

      Thank you for the comment, as mentioned before it would be great to be able to dissect the memory phases. We show in lines 232 – 250 and Figure 4 S3 that the temporally restricted flip-out to the post-eclosion life stage gave us coherent results with the previous findings, ruling out potential developmental defects.

      In relation to my comment on the possible developmental effects of the loss of the gene, Figure 1F could showcase an underdeveloped g lobe when looking at the lobe profiles. I understand this is not within the scope of the figure, but maybe a different z projection can be provided to confirm there are no obvious anatomical alterations due to the loss of the receptor.

      We understand the doubt about the correct development of the MB and we thank you for your insightful comment. To that extent we decided to perform a FasII immunostaining that could show us the MB in the different lines (Figure 4 S2) and it appears that there are no notable differences in the lobes development in our knockout line.

      It seems that the obvious missing piece of the puzzle would be to address the effects of knocking out Dop1R2 in aversive LTM. The idea of systematically addressing different types of memory at different time points and in different KCs is the most attractive aspect of this study beyond the technical sophistication, and it feels that the aim of the study is not delivered without that component.

      We agree and we thank you for the clarification. As mentioned above in response to Reviewer #2, we decided to test aversive LTM as described in lines –208-228, Figure 4, Figure 4 S1.

      Some statements of the discussion seem too vague, and I think could benefit from editing:

      Line 284 "however other receptors could use Gq and mediate forgetting"- does this refer to other dopamine receptors? Other neuromodulators? Examples?

      Thank you for pointing this out. We Agree and therefore decided to omit this line.

      Line 289 "using a space training protocol and a Dop1R2 line" - this refers to RNAi lines, but it should be stated clearly.

      That is correct, we thank you for bringing attention to this and clarified it in the manuscript.

      –Lines 329-330

      “Interestingly, using a spaced training protocol and a Dop1R2 RNAi knockout line another study showed impaired LTM (Placais et al., 2017).”

      The paragraph starting in line 305 could be re-written to improve clarity and flow. Some statements seem disconnected and require specific citations. For example "In aversive memory formation, loss of Dop1R2 could lead to enhanced or impaired memory, depending on the activated signaling pathways and the internal state of the animal...". This is not accurate. Berry et al 2012 report enhanced LTM performance in dop1R2 mutants whereas Plaçais et al 2017 report LTM defects in Dop1R2 knock-downs, but these different findings do not seem to rely on different internal states or signaling pathways. Maybe further elaboration can help the reader understand this speculation.

      We agree and we thank you for this advice. We decided to add additional details and citations to validate our speculation

      Lines 350-353

      “In aversive memory formation, loss of Dop1R2 could lead to enhanced or impaired memory, depending on the activated signaling pathways. The signaling pathway that is activated further depends on the available pool of secondary messengers in the cell (Hermans, 2003) which may be regulated by the internal state of the animal.”

      "...for reward memory formation, loss of Dop1R2 seems to impair memory", this seems redundant at this point, as it has been discussed in detail, however, citations should be provided in any case (Musso 2015, Sun 2020)

      Thank you for noting this. We recognize the redundancy and decided to exclude the line.

      Finally, it would be useful to additionally refer to the anatomical terminology when introducing neuron names; for example MBON MVP2 (MBON-g1pedc>a/b), etc.

      Thank you for this suggestion. We understand the importance of anatomical terminologies for the neurons. Therefore, we included them when we introduce neurons in the paper.

      We thank you for your observations. We recognize their value, so we have made appropriate changes in the discussion to sound less vague and more comprehensive.

    1. Reviewer #2 (Public review):

      Summary:

      The study aims to probe the neural correlates of visual serial dependence - the phenomenon that estimates of a visual feature (here motion direction) are attracted towards the recent history of encoded and reported stimuli. The authors utilize an established retro-cue working memory task together with magnetoencephalography, which allows to probe neural representations of motion direction during encoding and retrieval (retro-cue) periods of each trial. The main finding is that neural representations of motion direction are not systematically biased during the encoding of motion stimuli, but are attracted towards the motion direction of the previous trial's target during the retrieval (retro-cue period), just prior to the behavioral response. By demonstrating a neural signature of attractive biases in working memory representations, which align with attractive behavioral biases, this study highlights the importance of post-encoding memory processes in visual serial dependence.

      Strengths:

      The main strength of the study is its elegant use of a retro-cue working memory task together with high temporal resolution MEG, enabling to probe neural representations related to stimulus encoding and working memory. The behavioral task elicits robust behavioral serial dependence and replicates previous behavioral findings by the same research group. The careful neural decoding analysis benefits from a large number of trials per participant, considering the slow-paced nature of the working memory paradigm. This is crucial in a paradigm with considerable trial-by-trial behavioral variability (serial dependence biases are typically small, relative to the overall variability in response errors). While the current study is broadly consistent with previous studies showing that attractive biases in neural responses are absent during stimulus encoding (prev. studies reported repulsive biases), to my knowledge, it is the first study showing attractive biases in current stimulus representations during working memory. The study also connects to previous literature showing reactivations of previous stimulus representations, although the link between reactivations and biases remains somewhat vague in the current manuscript. Together, the study reveals an interesting avenue for future studies investigating the neural basis of visual serial dependence.

      Weaknesses:

      The main weakness of the current manuscript is that the authors could have done more analyses to address the concern that their neural decoding results are driven by signals related to eye movements. The authors show that participants' gaze position systematically depended on the current stimuli's motion directions, which, together with previous studies on eye movement-related confounds in neural decoding, justifies such a concern. The authors seek to rule out this confound by showing that the consistency of stimulus-dependent gaze position does not correlate with (a) the neural reconstruction fidelity and (b) the attractive shift in reconstructed motion direction. However, the authors' approach of quantifying stimulus-dependent eye movements only considers gaze angle and not gaze amplitude, and thus potentially misses important features of eye movements that could manifest in the MEG data. Moreover, it is unclear whether the gaze consistency metric should correlate with attractive history biases in neural decoding, if there were a confound. These two concerns could be potentially addressed by (1) directly decoding stimulus motion direction from x-y gaze coordinates and relating this decoding performance to neural reconstruction fidelity, and (2) investigating whether gaze coordinates themselves are history-dependent and are attracted to the average gaze position associated with the previous trials' target stimulus. If the authors could show that (2) is not the case, I would be much more convinced that their main finding is not driven by eye movement confounds.

      The sample size (n = 10) is definitely at the lower end of sample sizes in this field. The authors collected two sessions per participant, which partly alleviates the concern. However, given that serial dependencies can be very variable across participants, I believe that future studies should aim for larger sample sizes.

      It would have been great to see an analysis in source space. As the authors mention in their introduction, different brain areas, such as PPC, mPFC and dlPFC have been implicated in serial biases. This begs the question which brain areas contribute to the serial dependencies observed in the current study? For instance, it would be interesting to see whether attractive shifts in current representations and pre-stimulus reactivations of previous stimuli are evident in the same or different brain areas.

    2. Reviewer #2 (Public review):

      Summary:

      The study aims to probe the neural correlates of visual serial dependence - the phenomenon that estimates of a visual feature (here motion direction) are attracted towards the recent history of encoded and reported stimuli. The authors utilize an established retro-cue working memory task together with magnetoencephalography, which allows to probe neural representations of motion direction during encoding and retrieval (retro-cue) periods of each trial. The main finding is that neural representations of motion direction are not systematically biased during the encoding of motion stimuli, but are attracted towards the motion direction of the previous trial's target during the retrieval (retro-cue period), just prior to the behavioral response. By demonstrating a neural signature of attractive biases in working memory representations, which align with attractive behavioral biases, this study highlights the importance of post-encoding memory processes in visual serial dependence.

      Strengths:

      The main strength of the study is its elegant use of a retro-cue working memory task together with high temporal resolution MEG, enabling to probe neural representations related to stimulus encoding and working memory. The behavioral task elicits robust behavioral serial dependence and replicates previous behavioral findings by the same research group. The careful neural decoding analysis benefits from a large number of trials per participant, considering the slow-paced nature of the working memory paradigm. This is crucial in a paradigm with considerable trial-by-trial behavioral variability (serial dependence biases are typically small, relative to the overall variability in response errors). While the current study is broadly consistent with previous studies showing that attractive biases in neural responses are absent during stimulus encoding (prev. studies reported repulsive biases), to my knowledge, it is the first study showing attractive biases in current stimulus representations during working memory. The study also connects to previous literature showing reactivations of previous stimulus representations, although the link between reactivations and biases remains somewhat vague in the current manuscript. Together, the study reveals an interesting avenue for future studies investigating the neural basis of visual serial dependence.

      Weaknesses:

      The main weakness of the current manuscript is that the authors could have done more analyses to address the concern that their neural decoding results are driven by signals related to eye movements. The authors show that participants' gaze position systematically depended on the current stimuli's motion directions, which, together with previous studies on eye movement-related confounds in neural decoding, justifies such a concern. The authors seek to rule out this confound by showing that the consistency of stimulus-dependent gaze position does not correlate with (a) the neural reconstruction fidelity and (b) the attractive shift in reconstructed motion direction. However, the authors' approach of quantifying stimulus-dependent eye movements only considers gaze angle and not gaze amplitude, and thus potentially misses important features of eye movements that could manifest in the MEG data. Moreover, it is unclear whether the gaze consistency metric should correlate with attractive history biases in neural decoding, if there were a confound. These two concerns could be potentially addressed by (1) directly decoding stimulus motion direction from x-y gaze coordinates and relating this decoding performance to neural reconstruction fidelity, and (2) investigating whether gaze coordinates themselves are history-dependent and are attracted to the average gaze position associated with the previous trials' target stimulus. If the authors could show that (2) is not the case, I would be much more convinced that their main finding is not driven by eye movement confounds.

      The sample size (n = 10) is definitely at the lower end of sample sizes in this field. The authors collected two sessions per participant, which partly alleviates the concern. However, given that serial dependencies can be very variable across participants, I believe that future studies should aim for larger sample sizes.

      It would have been great to see an analysis in source space. As the authors mention in their introduction, different brain areas, such as PPC, mPFC and dlPFC have been implicated in serial biases. This begs the question which brain areas contribute to the serial dependencies observed in the current study? For instance, it would be interesting to see whether attractive shifts in current representations and pre-stimulus reactivations of previous stimuli are evident in the same or different brain areas.

    1. Note de synthèse : Rythmes et Temporalités du Numérique Territorial (Philippe Vidal)

      • Cette conférence de Philippe Vidal, professeur en géographie et aménagement à l'Université du Havre Normandie, explore les dynamiques complexes du numérique au sein des territoires, en se focalisant sur les concepts de rythme et de temporalité.

      Il propose une grille d'analyse articulée autour de trois idées clés : la concomitance, l'instantanéité et la temporisation, pour comprendre l'interaction entre le numérique mondialisé et le numérique territorial.

      Thèmes Principaux et Idées Clés :

      • Le Numérique : Infrastructures, Contenus et Usages – Une Approche Ternaire Faussement Séquentielle
      • Définition du numérique : Vidal décrit le numérique comme un ensemble d'infrastructures de télécommunication (connectivité, déploiement), de contenus et services dématérialisés (données, innovation) et d'usages/usagers (appropriation, validation de l'innovation).
      • Cycle Ternaire : Loin d'être séquentielle (infrastructure, puis contenus, puis usages), cette progression est "un rythme ternaire à faussement séquentiel fait de concomitance, d'hybridité et de glocal". L'usager, en particulier, est essentiel pour valider l'innovation et justifier le déploiement des infrastructures.
      • Cycles du numérique : L'auteur identifie plusieurs cycles :
      • Cycle infrastructurel : ADSL, fibre, 2G à 5G (environ 10 ans par génération).
      • Cycle de calcul : Algorithmes simples au machine learning, deep learning et IA (ex: application pour délibérations municipales).
      • Cycle de service/contenu : Web 1.0 (digitalisation de l'information), Web 2.0 (contenus interactifs, réseaux sociaux, mobile), Web 3.0 (plateformisation).
      • Cycle d'usage : Sensibilisation, acculturation, généralisation, expertise, vers le transhumanisme.
      • Concomitance : Le Numérique Mondialisé contre le Numérique Territorial
      • Hypothèse centrale : Le numérique mondialisé impose son rythme au numérique territorial, bien que ce dernier cherche à "rattraper et reprendre la main".
      • Numérique mondialisé : Représente une "modernité dominante", top-down, érigée en normes (ubérisation), considérant le monde comme un territoire sans frontières (call centers, Amazon, cloud).

      Il confère un "temps d'avance" grâce à sa vitesse d'innovation et son efficacité. "C'est quand même les États-Unis qui ont lancé cette histoire du numérique et de l'Internet notamment... les USA sont devenus des acteurs dominants du numérique mondialisé." * Numérique territorial : Perçu comme une "modernité émergente", bottom-up, moins marchandisé, axé sur les communs territoriaux et la souveraineté locale (France Tiers-Lieux, Data Lab). C'est une "proposition à l'adresse du territoire en provenance des acteurs territoriaux". * L'Entre-Deux Glocal : Existence d'un espace intermédiaire où le territoire est vu comme un "stock de ressources à exploiter" (ex: Blablacar, géocaching). * L'échec du Minitel : La France, malgré son avance avec le Minitel (première expérience télématique domestique généralisée, sans avance ni retard territorial), n'a pas su valoriser cette expérience à l'international face à l'Internet américain. * Rhétorique du retard/avance : Les politiques publiques post-Minitel ont été rythmées par cette rhétorique de la "performance numérique des territoires", se manifestant par : * La fracture numérique (Nord-Sud mondial, puis urbain/rural en France). * La Smart City (course à l'intelligence urbaine, classement des territoires). * La plateformisation (nécessité de développer des plateformes numériques). * Instantanéité : Le Risque du Délaissement Territorial face au Solutionnisme Numérique * L'efficacité à court terme : Les plateformes numériques offrent une "redoutable efficacité" face à des problèmes territoriaux, comme la désertification médicale ou les services pendant la COVID-19.

      "Cette efficacité à court terme des plateformes fait de mon point de vue courir le risque du délaissement territorial au motif que comme c'est efficace on a plus besoin d'investir le territoire." * Le solutionnisme numérique : Il y a un risque que les territoires se "satisfont" de cette efficacité, entraînant un désinvestissement public à long terme, notamment des services publics dans les territoires "peu rentables". * Évolution de la position des élus :1995 (Précurseurs) : Intérêt pour la citoyenneté numérique, web public territorial, internet citoyen. L'acteur public gardait le contrôle. * 2005 (Fracturés) : Prise de conscience de la fracture numérique, efforts pour réduire les inégalités d'accès (RIP). Les élus investissent dans l'infrastructure, mais délaissent l'innovation sociale. * 2010 (En déprise) : Perte de maîtrise des élus face aux applications géolocalisées privées et mondiales (ex: Airbnb, e-commerce impactant les petits commerces). "Pour la première fois l'élus perdait la maîtrise de ce qui se passait vraiment sur son propre territoire." * 2015 (En reconquête) : Mouvement FrenchTech, Smart City. Référentiel offensif, lié au "récit métropolitain". * 2020 (Responsables) : Intérêt pour la sobriété numérique, l'inclusion habitante, la souveraineté numérique locale. Recherche d'un "équilibre territorial" et maturité accrue des élus. * L'exemple de la téléconsultation : Face à la désertification médicale, la téléconsultation (particulièrement via bornes/cabines en pharmacie) est une solution palliative très efficace à court terme. Vidal s'interroge :

      "Est-ce qu'on va pas s'installer tranquillement dans cette espèce de confort numérique de plateforme parce que c'est de plus en plus efficace et cetera ? Est-ce que ça pose pas des problèmes sur le vivre ensemble, sur le bien-être territorial, sur le lien social et cetera ?" * Temporisation : Le Rôle de Régulation de l'Acteur Public * Un rôle de régulateur : Le rôle de l'acteur public aujourd'hui est "de réguler les spatialités numériques, les dynamiques territoriales à l'heure du numérique, les nouveaux rythmes urbains." * Conséquences du monde connecté :Régularité et progression incontestable de l'usage. * Le numérique comme "opérateur de lien social socio-territorial". * Génération d'incertitudes mais aussi capacité à les gérer. * Controverses territoriales et questions de justice spatiale (fractures générationnelles, littératie numérique). * Le numérique met à l'épreuve la capacité d'innovation des territoires et la nécessité de réguler les externalités négatives. * Un "défaut d'anticipation" : L'acteur public a un "temps de retard" face à l'accélération du changement induite par le numérique (ex: l'IA). La régulation est une "temporisation" face à l'urgence des problèmes, mais qui ne comble pas toujours ce retard. * Interprétation légitime : Le numérique est au cœur d'un "conflit quant à l'interprétation de ce qui est légitime et ce qui ne l'est pas". * L'épreuve de force et l'épreuve de grandeur : Face aux "épreuves de force" imposées par les externalités numériques, il est nécessaire d'organiser des "épreuves de grandeur" via les valeurs pour retrouver des "termes d'accord stables" (ex: régulation des trottinettes électriques).

      En conclusion, Philippe Vidal souligne la puissance du numérique mondialisé qui dicte le rythme, mais met en lumière les efforts du numérique territorial pour s'adapter et reprendre la main.

      Il alerte sur les risques du solutionnisme numérique à court terme qui pourrait mener à un délaissement des territoires et questionne le rôle des acteurs publics qui, après avoir été précurseurs, fracturés puis en déprise, cherchent aujourd'hui à reconquérir et réguler un monde numérique en constante accélération.

    1. Damien DELILLE – Théories Queer à l'Épreuve des Pratiques Artistiques et Vestimentaires

      Ce briefing document synthétise les thèmes principaux et les faits importants abordés par Damien Delille dans sa présentation sur les théories queer à l'épreuve des pratiques artistiques et vestimentaires.

      La conférence met en lumière une approche transdisciplinaire de l'histoire de l'art, de la culture visuelle, de la littérature, de la sociologie et de l'histoire du vêtement, avec un accent particulier sur la figure de l'androgyne et l'émergence des concepts liés à la sexualité et au genre.

      I. L'Androgynie comme Obsession Artistique et Sociale (Fin XIXe - Début XXe Siècle)

      Damien Delille débute sa présentation par une exploration de l'androgynie, thème central de ses recherches doctorales et de son livre "Genre, androgyne, art, culture visuelle et trouble de la masculinité (XVIIIe-XXe)".

      Il souligne que l'androgynie est devenue une véritable "obsession" dans les milieux symbolistes et idéalistes de la fin du XIXe siècle.

      • Une démarche transdisciplinaire : Contrairement à une approche traditionnelle d'historien de l'art, Delille ne part pas uniquement des images, mais intègre la "production littéraire, philosophique, sociologique" et même "médicale et scientifique" pour resituer la figure de l'androgyne dans un vaste champ social et politique. Cette démarche est justifiée par une citation de Schwar et Prideski : "la juxtaposition d'un texte littéraire avec un texte médical ou une image visuelle [permet] de clarifier les marges de ces textes et images, éclairant ainsi les particularités de chaque forme et révélant par la même occasion des attributions partagées à travers une culture donnée."
      • Généalogie de l'androgynie : La figure de l'androgyne est retracée depuis le mythe platonicien et ovidien (l'hermaphrodisme), en passant par sa reprise à la Renaissance, jusqu'à sa réinterprétation par les savants de la fin du XIXe siècle. Cette relecture des figures homoérotiques de la Renaissance a contribué à l'élaboration d'une "culture homosexuelle underground qui est en train de se constituer."
      • Androgynie et Symbolisme : Le mouvement idéaliste de la fin du XIXe siècle, en opposition au naturalisme et au réalisme, "va énormément rechercher des formes justement de dépassement en quelque sorte des représentations classiques, de dépassement aussi des identifications entre des figures masculines et féminines." Ce dépassement est intrinsèquement lié à l'idéal androgyne, qui se poursuit au début du XXe siècle avec les premières formes d'abstraction.
      • La menace sociale de l'androgynie : Les pratiques artistiques et littéraires explorant l'androgynie sont rapidement perçues comme une "forme de menace pour la société." Dans un contexte de promotion de la natalité et de méfiance envers les artistes et intellectuels "hors normes", l'androgynie est associée à l'efféminement et, de manière quasi homophobe, aux premières théories sur les "perversions sexuelles" et l'homosexualité naissante. Il y a "une sorte de convergence ou du moins d'amalgame entre efféminement considéré comme efféminement de la figure masculine, projet symboliste et puis donc première théorie des perversions sexuelles." Cette association est alimentée par la peur de la "dégénérescence morale [et] physique de l'homme."

      II. Le Rôle de la Caricature de Presse et l'Émergence d'une Culture Queer Populaire

      La présentation insiste sur l'importance de la caricature de presse comme reflet et acteur des perceptions sociales de l'androgynie et de l'homosexualité.

      • Péladan et la caricature homophobe : Joséphin Péladan, figure centrale du symbolisme et organisateur des Salons de la Rose-Croix, est un exemple frappant. Obsédé par l'androgyne, il publie le roman "L'Androgyne" en 1891. Sa personnalité et ses idées extravagantes sont la cible privilégiée des caricaturistes. Delille montre une caricature où Péladan est représenté "en tutu, en danseuse", une "féminisation très clairement en fait du corps et de l'apparence de Péladan." Cette féminisation est une manière de discréditer ses idées et de les lier à une "sexualité perverse" et un "désordre érotique."
      • Amalgame entre art et "perversion" : La caricature fait l'amalgame entre l'idéal androgyne et les "théories de perversion sexuelle" développées par des sexologues comme Richard von Krafft-Ebing. Des critiques comme Émile Zola et Octave Mirbeau fustigent les salons symbolistes, associant l'idéal androgyne à une forme de "détraqué homosexuel."
      • Le "troisième sexe" et l'identification de l'homosexualité : Des caricatures, comme celle de Jean-Louis Forain (1888) sur "Le Troisième Sexe", renvoient directement aux théories psychologiques de l'homosexualité de Karl Heinrich Ulrichs (1868-1869), qui invente le terme d'homosexuel. Ces images sont les "toutes premières images finalement d'homosexuels identifiables par la caricature de presse," souvent dans des contextes stéréotypés (parcs, figures efféminées) et associés à la "sodomie passive."
      • L'artiste androgyne/homosexuel : Après le procès d'Oscar Wilde (1895), l'homosexualité devient de plus en plus médiatisée. Une caricature du début du XXe siècle associe l'artiste directement à l'androgyne et au sphinx, avec des glissements "d'animalisation" et des rappels à des figures féminines progressistes, créant un lien fort entre l'androgyne "homosexuel" et l'artiste "féministe."

      III. Le Vêtement, le Collectionnisme et l'Esthétique du Placard

      La deuxième partie de la présentation explore la mode vestimentaire et le collectionnisme comme lieux d'expression et de négociation de l'identité et de la sexualité.

      • Le japonisme comme évasion : Le japonisme, apparu en France en 1874, offre une voie de "dépassement des identités normées." S'habiller en kimono est "précisément dépasser une apparence vestimentaire masculine ou féminine." Le Japon représente un "ailleurs" qui permet aux individus de "vivre mieux, différemment leur sexualité."
      • Robert de Montesquiou et l'esthétique du placard : Robert de Montesquiou, dandy et figure homosexuelle majeure de la fin du XIXe siècle, est présenté comme l'anti-Oscar Wilde, ne "jamais véritablement assum[ant] publiquement son homosexualité." Delille s'appuie sur des photographies inédites de son intérieur privé pour explorer ce qu'il nomme "l'esthétique du placard" (en référence à "Epistemology of the Closet" d'Eve Kosofsky Sedgwick). Cet espace intime, avec ses objets et ses vêtements, devient un lieu de "négociation avec soi-même et avec les autres" concernant sa sexualité.
      • Objets comme porteurs d'émotion : Les objets collectionnés par Montesquiou, notamment japonais, et les photographies d'hommes (comme un gymnaste de cirque, le comte de La Rochefoucauld) dissimulés dans ses albums, sont autant de "signes cachés, signes cryptés de l'homosexualité" que Delille décrypte.
      • Féminisation et Japon : Montesquiou associe le Japon à une "forme de grâce féminine" qu'il intègre dans sa gestuelle et son apparence, comme en témoigne son portrait par Antonio de la Gandara, où il porte un manteau ambigu et met en scène la "délicatesse" de ses mains, signe de sa "féminisation de son allure masculine."
      • Charles Appleton Longfellow et l'incarnation du Japon : Ce collectionneur américain, qui a beaucoup voyagé au Japon à la fin du XIXe siècle, incarne une appropriation encore plus profonde. Il rapporte de nombreux kimonos, les porte, et fait même tatouer une carpe sur son dos, motif retrouvé sur un kimono féminin. Longfellow, qui ne s'est jamais marié ni n'a eu de relations avec des femmes, est une figure "Outcast", un "marginal" dont le "recours au vêtement et surtout par ces sortes de parures corporelles témoigne véritablement d'enjeux complexes du rapport de l'Occident au Japon." Son histoire illustre une "véritable imprégnation, incarnation" des motifs et des codes japonais, allant jusqu'à la modification corporelle.

      IV. L'Historiographie Queer et les Persistances Historiques

      En conclusion, Damien Delille esquisse ses recherches futures sur l'historiographie queer en histoire de l'art, cherchant à identifier les origines et le développement du concept.

      • Aux sources des théories queer : Il se tourne vers les années 1950-1960 et l'émergence du "queer theater" à New York, avec des figures comme le cinéaste Jack Smith. Smith est considéré comme une "figure tutélaire des théories queer" des années 1990-2000, notamment par José Esteban Muñoz, pour sa remise en cause des "normes de genre, mais aussi les normes liées à la race, lié justement à la classe."
      • Jack Smith et l'Orient fantasmatique : Jack Smith, cinéaste, photographe, costumier et acteur, crée des "performances de réinvention de soi" avec des références "très complexes, très éclectiques" à un "Orient fantasmique." Ses photographies, ses costumes, et la présence d'acteurs et actrices transgenres (identifiés comme tels à l'époque) dans ses films, montrent une continuité de ces préoccupations sur le genre et l'apparence.
      • Continuité historique : Delille conclut en soulignant l'existence de "survivances", "d'effets d'écho", et de "parallèles" entre les époques, permettant de tracer un "continuum d'histoire qui se prolonge du XIXe au XXe et peut-être XXIe siècle" dans l'exploration des théories queer et de leurs manifestations artistiques et vestimentaires.
    1. Briefing sur la Cohérence Cardiaque : Gestion du Stress et Au-delà

      Ce document de briefing vise à synthétiser les concepts clés, les mécanismes physiologiques, les bénéfices et les applications pratiques de la cohérence cardiaque, tels que présentés par Caroline Sévoz-Couche, neuropharmacologue et chercheuse à l'Inserm, spécialiste du nerf vague.

      1. Qu'est-ce que la Cohérence Cardiaque ?

      La cohérence cardiaque est une technique de respiration contrôlée qui vise à harmoniser les variations de la fréquence cardiaque avec la fréquence respiratoire.

      Bien que popularisée en Occident plus récemment, ses principes sont connus et pratiqués depuis des millénaires dans les civilisations orientales, notamment à travers le Pranayama du yoga.

      • Définition et Historique : C'est une technique simple et rapide, souvent associée à une origine américaine récente. Cependant, la régulation de la fréquence respiratoire est connue depuis des milliers d'années dans les civilisations orientales.

      "L'expire produit la stabilité du mental", une phrase écrite il y a près de 2000 ans, souligne l'importance de l'expiration contrôlée.

      En Occident, elle est apparue au 18ème siècle et a été popularisée en France par le Dr. David Servan-Schreiber.

      • Non une Simple Relaxation : Il est crucial de comprendre que la cohérence cardiaque n'est pas une simple relaxation menant à l'endormissement. Au contraire, elle prépare l'esprit aux actes d'attention, augmentant la concentration et la rapidité de prise de décision.

      "Ce n'est pas une relaxation où on s'endort... c'est-à-dire qu'en fait quand on va faire la cohérence cardiaque on va être beaucoup plus sensible à tout ce qui va se passer autour à l'environnement on va être beaucoup plus concentré on va avoir des prises de décisions beaucoup plus rapide".

      Elle peut être pratiquée avant une compétition sportive ou une tâche nécessitant une grande vigilance.

      2. Le Mécanisme Physiologique Clé : La Variabilité Cardiaque et la Fréquence de Résonance

      Le cœur ne bat pas à une fréquence parfaitement régulière ; il présente une variabilité constante, essentielle pour s'adapter aux stimuli internes et externes.

      La cohérence cardiaque vise à optimiser cette variabilité.

      • Variabilité Cardiaque (VFC) : Un cœur en bonne santé présente des oscillations rapides de sa fréquence. Une faible variabilité est souvent associée à une pathologie. Lors d'une respiration spontanée (environ 15 cycles/minute), ces oscillations sont de faible amplitude.

      • Optimisation à 6 cycles/minute : La pratique de la cohérence cardiaque à 6 respirations par minute (soit un cycle respiratoire de 10 secondes) maximise l'amplitude des oscillations cardiaques.

      Cette fréquence est la plus efficace car elle entre en résonance avec les oscillations automatiques naturelles du corps, qui sont également de 6 par minute.

      "Ces amplitudes sont maximales avec une fréquence respiratoire spécifique de 6 par minute".

      • Analogie de la Balançoire : Le principe est similaire à celui d'une balançoire : si l'on pousse la balançoire à sa fréquence naturelle, l'amplitude de son mouvement augmente considérablement. De même, en synchronisant la respiration avec les fréquences oscillatoires naturelles du corps, on amplifie la variabilité cardiaque.

      • Cohérence des Oscillations, pas des Fréquences : Il est important de noter que ce ne sont pas les fréquences cardiaques (ex: 60-80 battements/minute) et respiratoires (6 cycles/minute) qui sont mises en cohérence, mais le nombre d'oscillations cardiaques par minute induites par la respiration et celles produites automatiquement par le corps, qui se synchronisent à 6 par minute.

      3. Aspects Techniques de la Respiration en Cohérence Cardiaque

      Pour maximiser les bénéfices, certaines pratiques respiratoires sont recommandées :

      • Ratio Inspiration/Expiration : Le ratio idéal est de 5 secondes d'inspiration et 5 secondes d'expiration pour un cycle de 10 secondes (6 cycles/minute).
      • Un léger allongement de l'expiration (ex: 4 sec inspiration / 6 sec expiration) est acceptable et conserve une bonne amplitude.
      • Un allongement excessif de l'expiration (ex: 3 sec inspiration / 7 sec expiration) ou une inspiration plus longue que l'expiration réduit significativement l'amplitude des oscillations et peut être contre-productif ("on perd la cohérence").
      • Volume Thoracique : Il est crucial d'augmenter le volume thoracique pour maintenir une bonne ventilation. "Il faut penser à avoir une grande amplitude thoracique quand on fait la cohérence cardiaque".
      • Respiration Nasale : L'inspiration par le nez est fortement recommandée car elle active davantage les ondes cérébrales bénéfiques (ondes thêta) et apporte d'autres avantages physiologiques (filtration de l'air, humidification, meilleure oxygénation, réduction des ronflements).

      "Si vous voulez avoir des effets au niveau central il faut penser à l'inspiration il faut respirer par le nez". L'expiration peut se faire par la bouche ou le nez.

      4. Le Rôle Central du Nerf Vague

      La cohérence cardiaque stimule de manière maximale le nerf vague, un nerf cranien crucial pour le système nerveux parasympathique.

      • Le Nerf Vague : Un "Vagabond" : Nommé d'après le latin "vagare" (errer, vagabonder), le nerf vague innerve de nombreux organes depuis le cerveau (cœur, poumons, tube digestif, etc.).
      • Effets sur les Organes Périphériques : Sa stimulation a des effets positifs variés :
      • Cardiaques : Amélioration de la variabilité cardiaque.
      • Digestifs : Amélioration des sensations de goût, augmentation de la sécrétion des sucs gastriques, amélioration de la motilité gastro-intestinale.
      • Anti-inflammatoires : Libération de neurotransmetteurs qui réduisent l'inflammation systémique et organique (ex: poumons chez les asthmatiques).
      • Boucle Vago-vagale et Effets Cérébraux : Seulement 20% des fibres du nerf vague descendent du cerveau vers les organes, tandis que 80% remontent. Cette boucle vagale permet une influence bidirectionnelle. La stimulation du nerf vague par la cohérence cardiaque active des structures cérébrales clés :
      • Cortex insulaire et cingulaire : Impliqués dans l'intéroception (perception des signaux internes du corps) et la prise de décision.
      • Amygdale : Régulation du stress.
      • Hippocampe : Mémoire et cognition.
      • Modulation du Système Limbique : Cette activation cérébrale conduit à une amélioration de :
      • La concentration, la mémoire de travail et l'apprentissage.
      • La prise de décision et le contrôle de l'impulsivité (réduction des comportements impulsifs liés à l'alimentation, l'alcool, la drogue, augmentant le temps d'abstinence).
      • Le seuil de la douleur (augmentation).
      • La gestion du stress et la diminution des symptômes anxieux et dépressifs.

      5. Bénéfices et Applications Prouvées Scientifiquement

      De nombreuses études scientifiques, incluant des groupes placebo, ont démontré l'efficacité de la cohérence cardiaque.

      • Réduction Immédiate du Stress et de l'Anxiété : Une session de 5 minutes chez des volontaires sains (musiciens avant un concert, sportifs avant une compétition) réduit significativement l'anxiété et le niveau de stress.

      Effets à Long Terme et Persistance :

      • Basketballeurs : 20 minutes/jour pendant 10 jours ont montré une diminution de l'anxiété qui persiste pendant au moins un mois après l'arrêt de la pratique, contrairement aux groupes contrôle.
      • Vétérans atteints de SSPT : 20 minutes/jour pendant 4 semaines ont significativement diminué la perception du stress, de la douleur et des émotions négatives.
      • Patients déprimés résistants aux traitements : Sessions hebdomadaires de 20 minutes pendant 10 semaines, combinées à 20 minutes quotidiennes non supervisées, ont entraîné une diminution "très importante" de la dépression et de l'anxiété, visible dès 4 semaines.
      • Pression Artérielle : Une étude a montré une diminution de la pression artérielle qui persistait 6 mois après l'arrêt de la pratique chez ceux qui l'avaient faite sur le long terme.
      • Adaptation à l'Âge et aux Pathologies :
      • Bien que l'amplitude des oscillations puisse être légèrement moindre après 40 ans ou chez des patients atteints de diabète, la cohérence cardiaque augmente toujours cette amplitude par rapport à la respiration spontanée, offrant des bénéfices à tous.

      "Quel que soit l'âge quel que soit la condition il tout le monde peut faire la cohérence cardiaque et avoir un effet bénéfique".

      • Gestion de la Douleur : Des sessions courtes (5 minutes) avant un événement douloureux (ex: prise de sang) peuvent réduire la sensation de douleur.
      • Sommeil : Améliore le temps d'endormissement (latence d'endormissement). Il est plus efficace de la pratiquer juste avant de se coucher.

      6. Protocoles de Pratique Recommandés

      La durée et la fréquence de la pratique varient en fonction des objectifs :

      • "Traitement Ponctuel" / Avant un Événement : 5 minutes (5 secondes inspiration, 5 secondes expiration, inspiration nasale).
      • "Traitement de Fond" Léger (Concentration, Mémoire, Stress ponctuel) : 10 minutes par jour pendant au moins 2-3 semaines.
      • "Traitement de Fond" Important (Anxiété, Dépression, Douleur Chronique) : 20 minutes par jour pendant 4 à 8 semaines et au-delà.
      • Il est préférable de faire des sessions de 10 minutes plutôt que de multiples sessions de 5 minutes pour un effet plus rémanent.
      • Les effets peuvent persister au moins un mois après l'arrêt pour une pratique prolongée.

      7. Outils et Aides à la Pratique

      De nombreuses ressources facilitent la pratique de la cohérence cardiaque :

      • Vidéos et Applications :
      • Sites web : vimeo.com, onedeepbreath.
      • Chaînes YouTube avec animations visuelles (ex: celle de Caroline Sévoz-Couche avec nuages ou flèches).
      • Applications mobiles (iOS/Android) : "Cardia", "Breathing App", "Breath+ (permet de visualiser la fréquence cardiaque en direct et la calque sur la respiration idéale)".
      • Montres Connectées : Certaines montres proposent des fonctionnalités de cohérence cardiaque.
      • Pratique sans Outil : Il est possible de la pratiquer n'importe où en comptant mentalement 5 secondes d'inspiration nasale et 5 secondes d'expiration.

      8. Questions et Remarques Importantes

      • Différence avec d'autres Techniques de Respiration : La respiration carrée (inspiration-pause-expiration-pause) peut être utilisée pour d'autres objectifs (relaxation), mais elle n'est pas optimale pour la cohérence cardiaque car les pauses interrompent la "cohérence" des oscillations et réduisent l'amplitude.

      Pour la cohérence cardiaque, l'absence de pause ou de très courtes pauses (0,5 sec) est préférable. * Complémentarité avec d'autres Thérapies : La cohérence cardiaque est reconnue par certains professionnels de la santé, notamment en psychiatrie et psychologie positive, comme un outil efficace et complémentaire à d'autres techniques (hypnose clinique, EMDR), car elle active des structures cérébrales similaires. * Contre-indications ou Effets Indésirables : Très rares. La seule prudence concerne les personnes sujettes aux malaises vagaux très prononcés. Certains moments de vie (ex: 3ème trimestre de grossesse) peuvent rendre la pratique plus difficile en raison de contraintes physiques. * Cohérence Cardiaque et Effort Sportif : Non indiquée pendant un effort sportif intense, car celui-ci active le système nerveux sympathique, qui s'oppose à l'action du nerf vague (parasympathique). * L'objectif et la concentration : Il ne faut pas trop se concentrer sur un objectif pendant la pratique elle-même, car cela peut augmenter la partie sympathique et réduire les effets bénéfiques. L'important est de se concentrer sur la technique respiratoire. * Processus d'Habituation à l'Anxiété : Bien que ce ne soit pas directement un processus d'habituation, la stimulation vagale par la cohérence cardiaque peut aider le cerveau des patients déprimés (et potentiellement anxieux) à mieux accepter les nouvelles informations et à sortir des ruminations, en réactivant les systèmes inhibiteurs de l'impulsivité.

      En conclusion, la cohérence cardiaque est une pratique basée sur des mécanismes physiologiques solides, facilement accessible et aux bénéfices avérés sur la gestion du stress, l'anxiété, la dépression, la douleur, la concentration, la mémoire et le sommeil, quel que soit l'âge ou la condition de santé.

      Sa simplicité et son efficacité en font un outil précieux pour le bien-être général.

    1. Synthèse de la Conférence : "A la recherche du temps perdu, les enfants face aux écrans" - Grégoire Borst

      Cette conférence de Grégoire Borst, professeur de psychologie du développement et chercheur en neurosciences cognitives, vise à démystifier et nuancer le débat public autour de l'impact des écrans sur les enfants et adolescents, en s'appuyant sur des données scientifiques.

      Il met en lumière les idées fausses véhiculées et propose une approche plus complexe et contextuelle de la problématique, notamment à travers le prisme du rapport "À la recherche du temps perdu" auquel il a contribué.

      1. Démystification des Idées Reçues sur les Écrans

      Grégoire Borst commence par interroger l'audience sur des affirmations courantes concernant les écrans, pour ensuite les déconstruire systématiquement :

      • Baisse de l'intelligence des nouvelles générations : "il y a aucune de ces informations qui n'est vraie qui est vraie en tout cas pas posé comme cela il y a nécessité d'avoir d'introduire un peu plus de complexité làdessus".
      • Troubles neurodéveloppementaux (troubles des apprentissages, TSA, TDAH) : Les écrans ne peuvent pas en être la cause. "par définition les troubles du neurodéveloppement ne peuvent pas avoir comme cause l'exposition aux écrans". Il insiste sur la fausse information concernant "l'autisme virtuel", qui est une "fake news" nuisible, surtout dans un pays ayant déjà une prise en charge déficitaire des TSA.
      • Symptômes dépressifs des adolescents : "il y a aucune donnée qui suggère ça la dépression c'est multifactoriel et les les réseaux sociaux en tant que tel ça peut pas être la cause de la dépression".
      • Dépendance/Addiction : La communauté médicale n'a pas reconnu d'addiction aux jeux vidéo, aux réseaux sociaux ou à l'usage des écrans en général, "pour l'instant en tout cas en l'état actuel de nos connaissances la communauté médicale a décidé que il n'y avait pas d'addiction ni au jeux vidéos ni aux réseaux sociaux ni à un ensemble d'usages qui peut être fait des des écrans".

      2. Statistiques Clés sur l'Équipement et le Temps d'Écran

      Borst souligne l'importance de s'appuyer sur des données fiables et met en garde contre les sondages peu rigoureux.

      • Difficulté d'évaluation : Il est intrinsèquement difficile d'évaluer le temps d'écran réel des enfants et adolescents.
      • Taux d'exposition : Augmente avec l'âge. La dernière cohorte consolidée pour l'ensemble des enfants et adolescents date de 2017, donc les chiffres actuels sont probablement plus élevés.
      • Équipement personnel (hors smartphone) :7-12 ans : environ 1,6 écran personnel (console, etc.).
      • 13-19 ans : 2,9 écrans personnels.
      • Smartphones :Seulement 35% des 7-12 ans ont un smartphone (contre une idée répandue de 90% ou 100% au collège).
      • L'âge moyen d'acquisition pour ceux qui en possèdent un est de 9 ans et 8 mois.
      • Il est crucial de comprendre que ce chiffre s'applique à une sous-population spécifique, pas à la moyenne générale.
      • Ordinateurs personnels :19% des 7-12 ans.
      • 60% des 13-19 ans.
      • Consoles de jeu :58% des 7-12 ans.
      • 63% des 13-19 ans.
      • Utilisation des smartphones (15-17 ans) : Sur 4h43 d'utilisation déclarée par jour, 2h43 sont consacrées à des activités liées à l'école. Cela "permet de relativiser considérablement je dirais la variable temps d'écran c'est évidemment ça dépend de ce que vous y faites".
      • Accès aux réseaux sociaux :63% des 7-10 ans déclarent être inscrits sur les réseaux sociaux (contre 49% déclaré par les parents), alors que l'âge légal est 13 ans.
      • 91% des 11-14 ans ont accès aux réseaux sociaux.

      3. La Complexité des Effets des Écrans : Corrélation vs. Causalité

      Grégoire Borst insiste sur la distinction fondamentale entre corrélation et causalité, illustrant son propos avec l'exemple humoristique de la consommation de margarine et des taux de divorce.

      • Piège de l'association : De nombreuses études montrent des associations entre le temps d'écran et des effets sur le développement, mais cela ne prouve pas un lien de causalité direct. "on a beaucoup plus de mal à mettre en évidence des liens de causalité".
      • Directionnalité : Une association peut signifier que le temps d'écran affecte le développement, ou que des vulnérabilités préexistantes (liées au développement cognitif et socio-émotionnel) conduisent à une plus grande consommation d'écrans. Seules les études longitudinales peuvent commencer à établir une directionnalité.
      • Variables tierces : L'importance cruciale de contrôler les variables comme le "milieu social d'origine des familles". "Toute étude pour faire simple prochaine étude que vous regardez sur cette questionl si dans le modèle statistique on a va pas contrôler pour le milieu social d'origine vous prenez l'étude vous l'achetez à la poubelle elle veut rien dire en soi".

      4. Effets Spécifiques Documentés et Nuances

      • Développement langagier :
      • Une étude française (coHorte Eden) montre qu'il n'y a pas d'effet du temps global d'exposition à 2 ans sur les compétences langagières à 5-6 ans.
      • Cependant, "quand on a la télé allumée pendant les repas on a des effets négatifs sur le développement langengagé de l'enfant à 5 ou 6 ans".
      • Méta-analyses : Confirment un effet négatif du temps d'écran sur le développement langagier (taille d'effet faible, 16% d'écart-type). Le "bruit de fond" de la télévision a un effet négatif similaire.
      • Co-visionnage et programmes ludo-éducatifs : Des effets positifs sont observés. "le simple covisionnage avec un enfant d'un contenu audiovisuel a un effet positif sur le développement Lang langagé de l'enfant qui est de la même taille que les effets négatifs observés pour le temps d'exposition global".
      • Qualité du contenu : L'enjeu est de sortir de la "question du temps d'écran et qu'on rentre dans quelque chose de beaucoup plus complexe qui est la question de la qualité du contenu et des interactions qui peuvent exister des interactions sociales autour du contenu audiovisuel". Éviter les contenus pauvres en langage oral (ex: Télétubbies).
      • Sommeil : C'est un domaine où "toutes les études sont concordantes globalement" sur l'impact négatif des écrans.
      • Adolescents : impact négatif si utilisé dans l'heure précédant le coucher.
      • Jeunes enfants : impact à tout moment de la journée.
      • Impact en cascade : Le sommeil étant crucial pour le développement cérébral et l'apprentissage, des perturbations peuvent affecter d'autres fonctions cognitives comme le langage.
      • Sensibilisation parentale : 49% des parents d'enfants de moins de 11 ans ignorent l'impact des écrans sur le sommeil de leurs enfants.
      • Facteurs multiples : Le déficit de sommeil des adolescents n'est pas uniquement dû aux écrans ; la structure du système éducatif (heures de cours tôt le matin) y contribue également.
      • Sédentarité : 33% des enfants de moins de 3 ans ne pratiquent aucune activité physique. La sédentarité est liée à l'obésité et aux risques de maladies cardiovasculaires. "C'est un vrai enjeu de santé publique".
      • Réseaux Sociaux et Bien-être Adolescent :
      • Il existe un lien statistique entre le temps passé sur les réseaux sociaux et le bien-être, mais la taille de l'effet est très faible (0,4% du bien-être).
      • Il existe des facteurs de vulnérabilité individuels où l'usage peut avoir des effets négatifs.
      • Effets positifs : Une étude (2016) suggère que le temps passé sur les réseaux sociaux à 10 ans peut avoir un effet positif sur le développement de l'empathie affective et cognitive.

      "les réseaux sociaux ça rend pas les adolescents moins empathiqu de façon générale ça peut même avoir des effets positifs y compris sur des domaines qui relèvent des compétences psychosociales ou socioémotionnelles".

      5. La Place du Numérique à l'École

      Faible équipement en France : Le taux d'équipement numérique des élèves français est "très très faible" comparé à d'autres pays comme la Suède. "on est très en retard sur le numérique éducatif".

      Effets positifs : La mise à disposition d'équipements mobiles individuels (tablettes) à l'école peut avoir "des effets positifs y compris sur les apprentissages scolaires fondamentaux que ce soit en 5e ouou en 4e on a des effets positifs sur les compétences mathématiques sur la compréhension de l'oral et sur la compréhension de l'écrit".

      6. Recommandations et Conclusion

      Le rapport de la commission sur les écrans (disponible sur le site de l'Élysée) propose un ensemble de recommandations, mettant l'accent sur la complexité des enjeux et la nécessité d'une action publique nuancée et informée par la science.

      La conférence souligne l'importance d'un discours mesuré, basé sur des preuves solides, pour éviter les alarmismes infondés et orienter efficacement les politiques publiques.

      L'accent doit être mis sur la qualité des interactions et des contenus, ainsi que sur l'environnement global de développement de l'enfant (sommeil, activité physique, milieu social), plutôt que sur une simple restriction du temps d'écran.

    1. Note de synthèse : Comprendre l'Adolescence à travers le Prisme des Neurosciences et de la Psychologie du Développement (Mathieu Cassotti)

      Cette synthèse est basée sur les extraits de la conférence "C'est pas moi, c'est mon cerveau" de Mathieu Cassotti, Professeur en psychologie du développement à l'Université Paris Cité.

      L'objectif principal de cette intervention est de déconstruire les perceptions souvent négatives et biaisées de l'adolescence pour proposer une compréhension plus nuancée, fondée sur les spécificités du développement cérébral et les interactions avec l'environnement social.

      1. La Perception Biaisée de l'Adolescence

      Traditionnellement, l'adolescence est perçue sous l'angle de la prise de risque, des difficultés et de la vulnérabilité. Les adultes ont du mal à comprendre le fonctionnement des adolescents, et cette incompréhension est réciproque.

      Les adolescents, malgré les cours de biologie, ont peu d'informations sur leur propre cerveau et ses spécificités. La psychologie a souvent abordé l'adolescence sous l'angle des psychopathologies.

      Cassotti et son collègue Grégoire Bord ont cherché à changer cette perspective, arguant que notre perception est souvent biaisée par un "biais de génération" : "on a tendance à considérer que les générations d'après les nôtres sont d'après la nôtre est toujours moins bien que la nôtre les générations d'après sont toujours moins bien ah bah de mon temps on était meilleur".

      Ce biais nous pousse à ne pas suffisamment explorer les aspects positifs de cette période. L'engagement des adolescents pour des causes comme la justice sociale ou le climat est souvent minimisé ou dévalorisé par les adultes.

      Le livre "C'est pas moi, c'est mon cerveau" vise à vulgariser le fonctionnement du cerveau adolescent pour les adolescents eux-mêmes, afin qu'ils "comprennent un petit peu mieux leur fonctionnement pour qu'ils puissent à partir de cette compréhension euh soit euh faire en sorte de changer un certain nombre de comportements soit au contraire de se sentir légitime de pouvoir essayer de de faire quelque chose et d'essayer de le changer".

      2. Le Cerveau Adolescent : Une Période de Développement et de Plasticité

      Le cerveau adolescent, bien que similaire en forme à celui de l'adulte, est encore en plein développement, une période qui peut s'étendre "jusqu'à 25 ans".

      Cette immaturité n'est pas uniquement biologique mais est fortement influencée par l'environnement.

      L'adolescence est une "fenêtre de plasticité particulière" avec des changements tardifs et d'importantes différences interindividuelles (par exemple, le début de la puberté).

      Une découverte clé des 20 dernières années en neurosciences, notamment grâce aux travaux de Bétio Ky, est la maturation progressive et hétérogène du cerveau :

      Les régions impliquées dans la réactivité émotionnelle (système limbique) maturent beaucoup plus rapidement. Les régions impliquées dans la régulation et le contrôle (cortex préfrontal) maturent plus tardivement.

      Ce décalage explique en partie la spécificité de l'adolescence : une "maturation fonctionnelle des systèmes de la réactivité émotionnelle mais pas encore c'est du contrôle".

      Cela conduit à une "hypersensibilité émotionnelle" observée dans de nombreuses recherches, notamment face aux stimuli positifs comme les visages exprimant la joie, qui activent fortement le réseau de la récompense.

      Cependant, cette immaturité n'est pas une "incapacité" mais plutôt une période "en cours d'apprentissage". L'environnement joue un rôle crucial dans le développement de l'autorégulation émotionnelle.

      L'apprentissage de la verbalisation, de l'identification et de la gestion des émotions est essentiel et "très peu enseigné de façon explicite aux adolescents".

      3. Émotions Complexes et Prise de Décision

      L'hypersensibilité émotionnelle des adolescents n'est pas uniforme pour toutes les émotions.

      Si elle est bien établie pour la joie et la peur, les émotions sociales comme la honte, la culpabilité ou la jalousie, ainsi que le regret et le soulagement, sont plus complexes.

      Le Regret : Les adolescents ressentent moins de regret que les adultes et l'anticipent moins.

      Le regret, défini comme la différence entre le résultat obtenu et ce qui aurait pu être obtenu avec un autre choix, est soutenu par le cortex préfrontal, qui est encore immature. Cela peut expliquer une moindre capacité à apprendre de leurs erreurs dans des situations où le regret est un signal d'apprentissage clé.

      Prise de Risque : Concernant la prise de décision et de risque, les adolescents sont "aussi bons que les adultes" à partir de 15 ans lorsqu'ils disposent de toutes les informations nécessaires.

      Cependant, leur capacité à apprendre des feedbacks de l'environnement (positifs ou négatifs) est plus difficile que chez les adultes, en particulier lorsque l'information sur le risque n'est pas explicite et doit être extraite de l'expérience.

      "ce n'est pas uniquement une question de contrôle c'est aussi parce que ils sont pas des preneurs de risque complètement fous c'est c'est aussi parfois une capacité à apprendre de des feedback qu'il vont avoir de leur environnement positif et négatif et donc là c'est plus difficile que chez les adultes".

      4. Influence Sociale et Conformisme

      Contrairement à l'idée répandue, les adolescents ne sont pas "davantage des moutons que nous le sommes nous en tant qu'adultes".

      Les adultes sont également très sensibles au conformisme social, même dans des situations où la bonne réponse est évidente.

      Les études montrent que le conformisme social est maximal chez les enfants et "minimal à l'adolescence à l'âge de 17 ans".

      Cependant, cette tendance s'inverse dans les situations d'incertitude et surtout en contexte social, où les adolescents peuvent montrer une "hypersensibilité au contexte social", particulièrement dans les situations de prise de risque.

      En présence de leurs pairs, ils sont enclins à prendre plus de risques.

      L'imagerie cérébrale révèle que cette influence sociale n'affecte pas le contrôle mais stimule le réseau de la récompense. Deux interprétations sont proposées :

      • Le contexte social stimule la sensibilité aux récompenses immédiates.

      • La "représentation qu'ils ont de la norme sociale de ce qui est valorisé par leur père" inclut la prise de risque, menant à une récompense sociale. Cette seconde interprétation est privilégiée par Cassotti, d'autant plus que l'effet est plus prononcé chez les garçons que chez les filles, reflétant des normes sociales différentes.

      • Lorsque l'observateur change (par exemple, la mère au lieu des pairs), l'activation du striatum ventral (récompense) diminue et les régions de contrôle s'activent, réduisant la prise de risque.

      Cela souligne l'importance des "normes sociales et l'impact en vérité de ces normes sociales sur les adolescents sont sont différentes".

      Il est crucial de travailler sur le conformisme social avec les adolescents, non pour le supprimer (ce qui est impossible), mais pour les aider à "comprendre cette dynamique avoir une vraie représentation explicite du fait qu'il existe ce conformisme social et détecter dans certaines situations où il faut pas se conformer".

      La peur de l'exclusion est un moteur puissant du conformisme, et il est important d'aider les adolescents à relativiser ce "coût affectif".

      5. Écouter et Soutenir les Adolescents : La Créativité comme Moteur

      Cassotti insiste sur l'importance d'écouter davantage les adolescents et de ne pas se contenter de leur dicter des solutions.

      Il propose un "changement de paradigme" où les adolescents deviennent "acteurs de la façon de résoudre les problèmes", en particulier pour des défis complexes comme la transition écologique, pour lesquels les adultes n'ont pas toujours les solutions.

      Le laboratoire de Cassotti s'engage dans la co-conception de recherche avec les adolescents, leur fournissant des "outils pour penser, les outils pour réfléchir par eux-mêmes et proposer les solutions par eux-mêmes".

      La Réactivité Émotionnelle comme Moteur d'Engagement : L'hypersensibilité émotionnelle des adolescents aux injustices sociales peut être un puissant moteur d'exploration et d'engagement.

      Cette réactivité émotionnelle est non seulement plus forte mais "dure plus longtemps dans le temps" que chez les adultes, qui ont tendance à diluer leurs émotions, à utiliser des mécanismes de coping pour réguler les affects négatifs, ou à ne pas savoir quoi faire.

      Cette "spécificité de l'adolescence qu'on peut documenter d'un point de vue neuro" peut être utilisée comme un élément de stimulation pour "une volonté d'agir et de changer les choses".

      Créativité : Les adultes ont souvent des "blocages cognitifs" qui les empêchent de proposer des solutions créatives, retombant au niveau d'enfants de CM1/CM2 pour des problèmes complexes.

      Le cerveau a tendance à rechercher des solutions par analogie, ce qui mène souvent à des réponses convenues et peu originales.

      Par exemple, pour le problème de l'œuf lâché de 10m, la plupart des solutions se regroupent en trois catégories : ralentir la chute, amortir la chute, ou protéger l'œuf.

      Il est essentiel de "sortir de ce cadre là" en explorant de nouvelles connaissances (par exemple, les propriétés naturelles de l'œuf, jouer sur le problème lui-même).

      Même les idées "farfelues" peuvent être précieuses car elles "déclenchent comme activation de connaissance pour pouvoir ensuite aller explorer des solutions nouvelles".

      Il y a un "vrai enjeu à travailler avec les adolescents pour les aider et les soutenir dans leur démarche plutôt que pour les enfermer".

      En somme, Mathieu Cassotti invite à reconsidérer l'adolescence non pas comme une période de problèmes à gérer, mais comme une phase de développement unique avec des spécificités neurologiques et psychologiques qui, si elles sont comprises et soutenues, peuvent devenir de puissants atouts pour l'innovation, l'engagement social et la résolution de problèmes complexes.

    1. Document de Synthèse : Sociologie de la Défiance et de l'Adhésion aux Croyances dans le Domaine Scientifique

      Ce document explore la sociologie de la défiance et de l'adhésion aux croyances scientifiques, en se concentrant sur l'affaire Wakefield et ses répercussions sur la confiance vaccinale.

      L'analyse met en lumière le rôle des médias, les normes scientifiques, le contexte social et la diffusion des informations sur internet.

      1. Cadre Sociologique et Point de Vue de l'Auteure

      • Romy Sauvayre, l'auteure, se positionne dans une approche sociologique qui étudie "les raisons pour lesquelles les acteurs sociaux vont faire ce qu'ils font, croire ce qu'ils croient".

      Elle ne cherche pas à déterminer ce qui est "vrai" ou "faux" en soi, mais plutôt ce que les scientifiques considèrent comme tel à un moment donné, reconnaissant que cette perception peut évoluer.

      Son analyse se concentre sur "la relation entre empirique et perception qu'on a de recherche scientifique". * 2. L'Affaire Wakefield : Une Chronologie et ses Effets

      L'affaire Wakefield est un cas d'étude central pour comprendre la défiance vaccinale.

      • Origine (1998) : Le Dr. Andrew Wakefield, gastro-entérologue, publie un article dans la revue The Lancet suggérant un lien entre le vaccin ROR (rougeole, oreillons, rubéole) et l'inflammation intestinale, et potentiellement l'autisme. Il est important de noter que l'article était publié sous l'étiquette "article de prévention", indiquant qu'il s'agissait d'une recherche préliminaire et non d'une preuve définitive. Les co-auteurs eux-mêmes n'ont pas établi de lien direct entre l'autisme et les vaccins, seulement entre le vaccin et la maladie intestinale.
      • Contexte Préexistant à la Publication :
      • Crise de la Vache Folle (ESB) : De 1985 à 2000, la crise de la vache folle a fortement érodé la confiance du public britannique envers les scientifiques et le gouvernement. "La science elle dit soyez sûrs c'est un cas de déviation britannique qui est appelé chance dans la science". Cela a créé un terrain fertile pour la méfiance envers les déclarations scientifiques officielles.
      • Retrait de Vaccins ROR (1992) : Deux vaccins ROR avaient déjà été retirés du marché six ans plus tôt en raison d'effets secondaires, renforçant les craintes préexistantes.
      • Rôle des Médias (1998-2004) :
      • Soutien Initiale : Les médias britanniques, en particulier le Sunday Times et le Panorama de la BBC (émission "MMR: What The Doctors Won't Tell You" en 2002), ont "promptement soutenu la thèse de Wakefield". Ils ont accordé une grande visibilité à Wakefield, en partie parce qu'il était un expert reconnu et avait un statut académique important (76 publications, senior researcher).
      • Biais de Diffusion : Les journalistes ont "davantage diffusé la thème de Wakefield que toute autre thèse", en privilégiant les études qui abondaient dans son sens et en "ne médiatisant pas" les études remettant en cause son hypothèse. Le pic de médiatisation a eu lieu en 2002, suite au documentaire de la BBC.
      • Conséquence Directe : Cette médiatisation a eu un "impact énorme sur la vaccination des génies". On observe une "chute conséquente du taux de vaccination" après la publication de l'article de Wakefield en février 1998, et pendant toute la période de médiatisation. Le taux de vaccination ROR est passé de 92% à 83% dans certaines régions du Royaume-Uni.

      3. Point de Vue des Scientifiques et Contestations

      Bien que les médias aient initialement soutenu Wakefield, la communauté scientifique n'était "pas unanime" et des contestations ont rapidement émergé.

      • Critiques Méthodologiques (Dès 1998) :
      • Taille de l'Échantillon : L'étude de Wakefield portait sur seulement 12 enfants, un nombre jugé insuffisant pour tirer des conclusions générales. "12 c'est quand même pas bon".
      • Manque de Groupe Témoin et de Double Aveugle : La méthodologie ne comprenait pas de groupe de contrôle ni de protocole en double aveugle, des normes aujourd'hui "très valorisée" en recherche médicale.
      • Biais de Sélection et Conflits d'Intérêts : Le recrutement des enfants s'est fait via un "réseau d'association de personnes plaignantes qui pensaient que le vaccin contre la rougeole posait l'autisme", suggérant un biais de sélection. Il a été révélé plus tard que Wakefield avait des "conflits d'intérêt" et des "fins pour pouvoir apporter des preuves en faveur de son hypothèse".
      • Données Partielles et Antécédents : Les données rapportées étaient partielles, et les travaux précédents de Wakefield, bien que reçus, contenaient déjà des "problèmes méthodologiques" qui rendaient difficile la détection d'un virus dans l'intestin.
      • Réponse des Institutions Scientifiques :
      • Académie des Sciences : L'Académie des Sciences a initialement déclaré ne pas avoir "les moyens de falsifier l'hypothèse de Wakefield", ce qui, selon l'auteure, n'aurait pas dû être interprété comme une validation. En sciences médicales, on ne se prononce qu'avec des preuves suffisantes.
      • Institute of Medicine (2004) : En 2004, l'Institute of Medicine a publié un rapport concluant qu'il n'y avait "pas de danger à inoculer le vaccin ROR", marquant un tournant.

      4. Le Rôle de l'Investigation Journalistique et la Rétractation

      Le changement de perception médiatique est dû à une enquête journalistique approfondie.

      • Enquête du Sunday Times (2004) : Brian Deer, un journaliste d'investigation du Sunday Times, a mené une enquête minutieuse, rencontrant tous les acteurs et consultant les dossiers d'éthique. Il a "constaté qu'il y a des examens invasifs sur les enfants" (colonoscopies, fonctions d'anglais) qui n'étaient "pas possibles" ou "inacceptables" d'un point de vue éthique. Cette révélation a alerté le conseil de l'ordre.
      • Arrêt du Soutien Médiatique : Suite à ces révélations, "les médias arrêtent de soutenir" Wakefield.
      • Radiation de Wakefield (2010) : Le Conseil Général Médical (General Medical Council) a mené une longue enquête (2004-2010), culminant par le "retrait le droit d'exercer" à Wakefield en 2010. L'article original a été "retiré en 2010" par The Lancet. Les motifs incluaient des "conflits d'intérêt" et la réalisation d'"examens organisés pour les fonds et sur le peuple sans collectivité".

      5. L'Ère d'Internet et la Persistance de la Défiance

      Malgré la radiation de Wakefield et le retrait de son article, la défiance vaccinale a persisté, amplifiée par les plateformes numériques.

      • Diffusion de Théories Conspirationnistes : Wakefield a "publié un qui s'appelle conspirationnisme" après sa radiation. Il a affirmé que ses découvertes étaient si importantes que l'industrie pharmaceutique tentait de le "faire taire". "Bref il était donc sur le groupe d'une machination pour le feu terre".
      • Documentaire "Vaxxed" (2016) : En 2016, Wakefield a publié un documentaire "Vaxxed" sur les réseaux sociaux, qui "tient pour consiste le conspirationnisme de santé CDC", affirmant que le CDC (Centers for Disease Control and Prevention) aurait "caché des dans son et il continue à diffuser ça".
      • Rôle des Réseaux Sociaux : Les réseaux sociaux ont permis une "division très massive de ces antivaccinisme". La défiance vaccinale a été "d'abord puis sur les différentes réseaux sociaux". L'auteure souligne que le manque de validation scientifique ne freine pas la diffusion : "On est tous des cobages, c'est un maxin expérimental voilà ce qui se sur les réseaux sociaux".
      • Influence sur la Perception : La persistance de l'antivaccinisme est également liée à des mécanismes psychologiques : "si quelqu'un est gentil avec vous curieusement vous lui faites" confiance. La diffusion de ces idées est alimentée par des "personnes" qui "disent des choses comme ça affirmative", tandis que les scientifiques, dans leur rôle, "doivent toujours parler avec précaution" car les preuves sont "toujours sous une" incertitude jusqu'à confirmation par de multiples études.
      • Conséquences Durables : Malgré les efforts pour rétablir la confiance, "la défiance qu'il n'y avait à monde se sur les réseaux sociaux se retrouve avec une plus grande population de défis qui n'ont pas". En France, une partie de la population (environ 35%) "continue à marquer vacc".

      6. Leçons Apprises et Précautions

      Nécessité de la Précaution Scientifique : "Il est nécessaire d'être près que pressionner avec des études". La science exige une multiplicité de preuves et des méta-analyses pour valider les conclusions. Critique des Sources : L'auteure conseille de se méfier des informations sur les réseaux sociaux et de privilégier les sources fiables comme Google Scholar pour les questions médicales, qui "font des analyses sur plein de sujets libres" et permettent d'"assurer d'avoir une information juste".

      Responsabilité des Journalistes : Les journalistes ont une "part de responsabilité" dans la diffusion d'études minoritaires et contestées. Ils devraient "diffuser davantage l'information que la précaution" quand ils se basent sur un consensus scientifique majoritaire.

      En conclusion, l'affaire Wakefield illustre la complexité de la diffusion des croyances scientifiques, l'impact majeur du contexte socio-historique, le rôle ambivalent des médias (initialement facilitateurs de la désinformation, puis correcteurs par l'investigation), et la capacité d'internet à perpétuer et amplifier la défiance, même face à un consensus scientifique établi.

    1. Compte-rendu détaillé : Labels et marques - leviers de différenciation

      • Contexte du Webinaire : Ce webinaire, animé par Débora Récher de Logitourisme, s'inscrit dans le parcours "Expérience client" pour Moselle Académie.

      L'objectif est d'éclairer les professionnels du tourisme, de la culture et de la gastronomie sur la distinction et les bénéfices des labels et marques comme outils de différenciation dans un marché concurrentiel.

      1. Distinction entre Labels et Marques

      Il est crucial de bien différencier un label d'une marque, car ils remplissent des fonctions distinctes :

      • Label : Un label est un "signe officiel ou privé... reconnaissant une qualité ou un engagement selon un cahier des charges bien précis." (Débora Récher). Il certifie le respect de critères spécifiques.
      • Exemples cités : Gîtes de France, Clé Vacances (hébergement), Qualité Tourisme (qui deviendra Destination d'Excellence), Accueil Vélo, Tourisme et Handicap.
      • Caractéristique clé : Basé sur une grille de critères, il permet ou non d'être labellisé.
      • Marque : Une marque est "une identité d'une organisation, c'est d'un territoire, c'est porteuse de valeur et d'image. Très souvent la marque c'est du marketing, c'est ce qui permet d'être d'être clairement identifié." (Débora Récher). Elle représente une identité forte, souvent déposée auprès de l'INPI pour se protéger de la concurrence.
      • Exemples cités : Nike (marque de consommation courante), Esprit Parc National, Moselle (marque territoriale), Normandie Impressionniste.
      • Caractéristique clé : Axée sur le marketing et la communication de valeurs et d'une image.

      2. Pourquoi choisir un Label ou une Marque ?

      Le choix d'un label ou d'une marque est volontaire et vise à :

      • Se différencier dans un marché concurrentiel : Le tourisme en France est un secteur "extrêmement concurrentiel" (Débora Récher), avec une offre pléthorique. Labels et marques permettent de se distinguer.
      • Garantir le sérieux et la qualité : Ils offrent "une gage de sérieux et de qualité" pour le consommateur, qui doit "avoir compris ce qu'il y avait derrière ce label et que ce label a du sens." (Débora Récher).
      • Bénéficier d'une reconnaissance :Officielle/Institutionnelle : Comme l'aide à la création d'hébergements conditionnée à l'affiliation à un label.
      • Territoriale : Une marque territoriale partagée et connue, pouvant être "prescripteur, ambassadeur et fasse vivre une marque" (Débora Récher).
      • Valoriser des engagements spécifiques : Qualité, durabilité, accueil spécifique (ex: Accueil Vélo pour la clientèle cycliste, Tourisme et Handicap pour l'inclusivité). Cela "rassure" le client.
      • Profiter d'un réseau et d'une promotion collective : Travailler en réseau est "beaucoup plus simple que travailler tout seul dans son dans son coin" (Débora Récher), offrant une dynamique collective, promotion et parfois formations.
      • Renforcer la confiance des clientèles : C'est un objectif primordial.

      3. Pièges à éviter et Précautions

      • Ne pas accumuler les labels : "Plus c'est pas parce que plus vous en avez que plus vous serez visible, parfois ça brouille complètement la lisibilité on ne sait plus qui vous êtes et ce que vous êtes." (Débora Récher).
      • Cohérence avec les valeurs et la clientèle cible : Un label doit être "cohérent avec vos valeurs et votre clientèle cible" (Débora Récher). Une communication "qui va pour tout le monde à tout va... vous communiquez dans le vide." (Débora Récher).
      • Engagement sincère : Au-delà de l'opportunisme, il doit y avoir un "engagement sincère". Si les clients ne retrouvent pas les engagements du label (ex: écolabels), cela sera "contreproductif" et entraînera insatisfaction, notamment via les réseaux sociaux.

      4. Comment choisir son Label ou sa Marque ?

      • Le choix doit être stratégique et réfléchi :
      • Définir les objectifs : Qualité, visibilité, accompagnement.
      • Identifier les valeurs à mettre en avant : "Les valeurs que vous voulez vous mettre en avant on en a parlé ça c'est très important" (Débora Récher).
      • Cibler la clientèle : À qui s'adresse le produit ou le service ?
      • Évaluer la notoriété et le dynamisme du label/marque : Est-il reconnu par la clientèle ? Quelles sont les actions menées par les porteurs du label ?
      • Estimer l'effort et l'engagement requis : Êtes-vous prêt à modifier des pratiques ou des équipements ?
      • Le coût de la cotisation : Ne doit pas être le facteur de choix principal, car "le prix est une notion relative pour peu que derrière vous ayez le service attendu." (Débora Récher). L'important est la stratégie et le bénéfice escompté.

      5. Exemples Inspirants par Secteur

      Débora Récher a présenté de nombreux exemples de labels et marques, illustrant leur diversité et leur pertinence :

      • Tourisme :Qualité d'accueil : Qualité Tourisme, Gîtes de France, Clé Vacances.
      • Thématiques : Accueil Vélo, Tourisme et Handicap (inclusif, pour différents types de handicaps, personnes âgées, familles avec poussettes).
      • Marques de territoire/destination : OnlyLyon, Esprit Parc, Valeurs Parc, Alsace (avec son logo en forme de bretzel).
      • Spécifiques : Famille Plus (destinations adaptées aux familles), Pavillon Bleu (plages et ports propres), Jardin Remarquable (jardins d'exception), Entreprise du Patrimoine Vivant (savoir-faire artisanaux et industriels d'excellence).
      • Culture et Patrimoine :Généralistes : Ville et Pays d'Art et d'Histoire (valorise politique culturelle ambitieuse), UNESCO (sites culturels/naturels d'exception).
      • Spécifiques : Patrimoine du 20e Siècle (architectures modernes/post-industrielles), Maison des Illustres (lieux liés à personnages célèbres).
      • Équipements culturels : Scène Nationale, Musées de France (garantissent conservation, valorisation, expertise scientifique), France Muséum (exportation savoir-faire muséal français).
      • Événements : Festivals de musique labellisés, événements éco-engagés (réduction déchets, etc.).
      • Itinéraires : Itinéraires culturels européens (ex: Route des Abbayes Cisterciennes).
      • Artisanat (compléments) : Qualités Artisan Métier d'Art, MOF, Maître Artisan, France Terre Textile (pour les Vosges).
      • Gastronomie et Terroir :Produits : AOP, AOC, IGP (ex: Mirabelle de Lorraine, Vin de Moselle, Quiche Lorraine), Label Rouge (produits de qualité supérieure), Agriculture Biologique.
      • Tourisme œnologique et circuits gourmands : Vignobles et Découvertes, Route des Vins de Moselle, Vallée de la Gastronomie.
      • Accueil à la ferme : Bienvenue à la Ferme (favorise vente directe et accueil touristique, répond à la demande de "circuit court" et consommation locale).
      • Restauration : Collège Culinaire de France, Tables Distinguées, Bistrot de Pays, Écotable (restauration durable et responsable).

      6. Le Cas Spécifique de la Moselle

      La Moselle offre un exemple intéressant d'imbrication entre marque et label :

      • La marque "Moselle" (Moselle Sans Limite) : Lancée par le département en 2017, c'est une "marque territoriale" qui vise à "valoriser l'attractivité globale du territoire" (Débora Récher), incluant le tourisme, l'économie, la gastronomie, l'artisanat et la culture. C'est une bannière pour tous.
      • Le label "Qualité Moselle" : Attribué aux produits, savoir-faire, hébergements, artisans et restaurateurs qui respectent un cahier des charges de qualité et ont un "ancrage local fort." (Débora Récher).
      • L'un soutient l'autre : on peut utiliser le logo de la marque Moselle sur son site pour communiquer l'identité globale, et aller plus loin en obtenant le label Qualité Moselle pour valoriser un savoir-faire précis et gagner en visibilité commerciale. Cette synergie locale est essentielle : "Plus elle est partagée par tous, c'est-à-dire les prestataires, les professionnels, plus elle va être visible." (Débora Récher). Cela garantit "qualité et identité locale", rassure le client sur l'authenticité et la provenance locale des produits et services.

      7. Bilan et Recommandations Clés

      • Choisir 1 à 3 labels/marques maximum : Pour maintenir une stratégie "lisible".
      • Intégrer la stratégie de labellisation : Le choix doit être intégré à l'offre, la communication et l'équipe. "Travaillez votre marque et travaillez votre label pour en tirer le meilleur profit." (Débora Récher).
      • Utiliser les labels/marques dans la communication : Les intégrer dans les supports de communication et la stratégie marketing.
      • Suivre les résultats : Ne pas se limiter au retour sur investissement direct. Surveiller l'image améliorée, la notoriété accrue, la visibilité, l'acquisition de nouvelles clientèles et la satisfaction client. Les avis clients en ligne sont des indicateurs "très forts" (Débora Récher), et un label reconnu peut "impacter directement l'image de votre établissement d'un point de vue positif".
      • Un label est un outil, pas une fin en soi : "Le label doit servir votre stratégie marketing, votre stratégie de communication." (Débora Récher). Ne pas être déçu si un label n'est pas obtenu, d'autres options peuvent être plus adaptées.
      • Nécessité d'une présence en ligne : Un site internet est "rigoureusement nécessaire pour démarrer" (Débora Récher). 80% des touristes préparent leur séjour en ligne et près de la moitié réservent directement. Les clients croisent les informations (ex: Airbnb et site internet propre) pour se rassurer.

      Conseils supplémentaires :

      Demander les cahiers des charges des labels pertinents. Contacter les institutions (Moselle Attractivité, labels nationaux) pour des renseignements et un accompagnement.

      Évaluer les services d'accompagnement individuels souvent proposés par les labels.

      Faire du benchmarking : consulter les expériences d'autres professionnels labellisés.

    1. Author response:

      The following is the authors’ response to the original reviews.

      Public Reviews:

      Reviewer #1 (Public review):

      Summary

      In this work, the authors recorded the dynamics of the 5-HT with fiber photometry from CA1 in one hemisphere and LFP from CA1 in the other hemisphere. They observed an ultra-slow oscillation in the 5-HT signal during both wake fulness and NREM sleep. The authors have studied different phases of the ultra-slow oscillation to examine the potential difference in the occurrence of some behavioral state-related physiological phenomena hippocampal ripples, EMG, and inter-area coherence).

      Strengths

      The relation between the falling/rising phase of the ultra-slow oscillation and the ripples is sufficiently shown. There are some minor concerns about the observed relations that should be addressed with some further analysis.

      Systematic observations have started to establish a strong relation between the dynamics of neural activity across the brain and measures of behavioral arousal. Such relations span a wide range of temporal scales that are heavily inter-related. Ultra-slow time-scales are specifically under-studied due to technical limitations and neuromodulatory systems are the strongest mechanistic candidates for controlling/modulating the neural dynamics at these time-scales. The hypothesis of the relation between a specific time-scale and one certain neuromodulator (5-HT in this manuscript) could have a significant impact on the understanding of the hierarchy in the temporal scales of neural activity.

      Weaknesses:

      One major caveat of the study is that different neuromodulators are strongly correlated across all time scales and related to this, the authors need to discuss this point further and provide more evidence from the literature (if any) that suggests similar ultra-slow oscillations are weaker or lack from similar signals recorded for other neuromodulators such as Ach and NA.

      The reviewer is correct to point out that the levels of different neuromodulators are often correlated. For example, most monoaminergic neurons, including serotonergic neurons of the raphe nuclei, show similar firing rates across behavioral states, firing most during wake behavior, less during NREM, and ceasing firing during ‘paradoxical sleep’ or REM (Eban-Rothschild et al 2018). Notably, other neuromodulators, such as acetylcholine (ACh), show the opposite pattern across states, with highest levels observed during REM, an intermediate level during wake behavior, and the lowest level during NREM (Vazquez et al. 2001). Despite these differences, ultraslow oscillations of both monoaminergic and non-monoaminergic neuromodulators, have been described, albeit only during NREM sleep (Zhang et al. 2021, Zhang et al. 2024, Osorio-Ferero et al. 2021, Kjaerby et al. 2022). How ultraslow oscillations of different neuromodulators are related has been only recently explored (Zhang et al. 2024). In this study, dual recording of oxytocin (Oxt) and ACh with GRAB sensors showed that the levels of the two neuromodulators were indeed correlated at ultraslow frequencies with a 2 s temporal shift. Furthermore, this shift could be explained by a hippocampal-to-lateral septum intermediate pathway, in which the level of ACh causally impacts hippocampal activity, which then in turn controls Oxt levels. Given the known temporal relationship between ripples, ACh and Oxt, and now with our work, between ripples and 5-HT, one could infer the relative timing of ultraslow oscillations of ACh, Oxt and 5-HT. While dual recordings of norepinephrine (NE) and 5-HT have not been performed, a similar correlation with temporal shift could be hypothesized given the parallel relationships between NE and spindles (OsorioFerero et al. 2021), and 5-HT and ripples, with the known temporal delay between ripples and spindles (Staresina et al. 2023). The fact that the locus coerulus receives particularly dense projections from the dorsal raphe nucleus (Kim et al. 2004) further suggests that 5-HT ultraslow oscillations could drive NE oscillations. How exactly ultraslow oscillations of serotonin are related to ultraslow oscillations of different neuromodulators in different brain regions remains to be studied.

      We have further addressed this question and how it relates to the issue of causality in the Discussion section of the manuscript (p. 13):

      “In addition to the difficulties involved with typical causal interventions already mentioned, the fact that the levels of different neuromodulators are interrelated and affected by ongoing brain activity makes it very hard to pinpoint ultraslow oscillations of one specific neuromodulator as controlling specific activity patterns, such as ripple timing. While a recent paper purported to show a causative effect of norepinephrine levels on ultraslow oscillations of sigma band power, the fact that optogenetic inhibition of locus coerulus (LC) cells, but also excitation, only caused a minor reduction of the ultraslow sigma power oscillation suggests that other factors also contribute (Osorio-Forero et al., 2021). Generally, it is thought that many neuromodulators together determine brain states in a combinatorial manner, and it is probable that the 5-HT oscillations we measure, like the similar oscillations in NE, are one factor among many.

      Nevertheless, given the known effects of 5-HT on neurons, it is not unlikely that the 5-HT fluctuations we describe have some impact on the timing of ripples, MAs, hippocampal-cortical coherence, or EMG signals that correlate with either the rising or descending phase. In fact, causal effects of 5-HT on ripple incidence (Wang et al. 2015, ul Haq et al. 2016 and Shiozaki et al. 2023), MA frequency (Thomas et al. 2022), sensory gating (Lee et al. 2020), which is subserved by inter-areal coherence (Fisher et al. 2020), and movement (Takahashi et al. 2000, Alvarez et al. 2022, Jacobs et al. 1991 and Luchetti et al. 2020) have all been shown. Our added findings that serotonin affects ripple incidence in hippocampal slices in a dose-dependent manner (Figure S1) further suggests that the relationship between ultraslow 5-HT oscillations and ripples we report may indeed result, at least in part, from a direct effect of serotonin on the hippocampal network.

      Whether these ‘causal’ relationships between 5-HT and the different activity measures we describe can be used to support a causal link between ultraslow 5-HT oscillations and the correlated activity we report remains an open question. To that point, some studies have described changes in ultraslow oscillations due to manipulation of serotonin signaling. Specifically, reduction of 5-HT1a receptors in the dentate gyrus was recently shown to reduce the power of ultraslow oscillations of calcium activity in the same region (Turi et al. 2024). Furthermore, psilocin, which largely acts on the 5-HT2a receptor, decreased NREM episode length from around 100 s to around 60 s, and increased the frequency of brief awakenings (Thomas et al. 2022). While ultraslow oscillations were not explicitly measured in this study, the change in the rhythmic pattern of NREM sleep episodes and brief awakenings, or microarousals, suggests an effect of psilocin on ultraslow oscillations during NREM. Although these studies do not necessarily point to an exclusive role for 5-HT in controlling ultraslow oscillations of different brain activity patterns, they show that changes in 5-HT can contribute to changes in brain activity at ultraslow frequencies.”

      A major question that has been left out from the study and discussion is how the same level of serotonin before and after the peak could be differentially related to the opposite observed phenomenon. What are the possible parallel mechanisms for distinguishing between the rising and falling phases? Any neurophysiological evidence for sensing the direction of change in serotonin concentration (or any other neuromodulator), and is there any physiological functionality for such mechanisms?

      We have added a paragraph in the discussion to address how this differentiation of the 5-HT signal may be carried out (Discussion, paragraph #3, p. 10):

      “In order for the ultraslow oscillation phase to segregate brain activity, as we have observed, the hippocampal network must somehow be able to sense the direction of change of serotonin levels. While single-cell mechanisms related to membrane potential dynamics are typically too fast to explain this calculation, a theoretical work has suggested that feedback circuits can enable such temporal differentiation, also on the slower timescales we observe (Tripp and Eliasmith, 2010). Beyond the direction of change in serotonin levels, temporal differentiation could also enable the hippocampal network to discern the steeper rising slope versus the flatter descending slope that we observe in the ultraslow 5-HT oscillations (Figure S2), which may also be functionally relevant (Cole and Voytek, 2017). The distinction between the rising and falling phase of ultraslow oscillations is furthermore clearly discernible at the level of unit responses, with many units showing preferences for either half of the ultraslow period (Figure S6). Another factor that could help distinguish the rising from the falling phase is the level of other neuromodulators, as it is likely the combination of many neuromodulators at any given time that defines a behavioral substate. Given the finding that ACh and Oxt exhibit ultraslow oscillations with a temporal shift (Zhang et al. 2024), one could posit that distinct combinations of different levels of neuromodulators could segregate the rising from the falling phase via differential effects of the combination of neuromodulators on the hippocampal network.”

      Functionally, the ability to distinguish between the rising and falling phases of an oscillatory cycle is a form of phase coding. A well-known example of this can be seen in hippocampal place cells, which fire relative to the ongoing theta oscillations. The key advantage of phase coding is that it introduces an additional dimension, i.e. phase of firing, beyond the simple rate of neural firing. This allows for the multiplexing of information (Panzeri et al., 2010), enabling the brain to encode more complex patterns of activity. Moreover, phase coding is metabolically more efficient than traditional spike-rate coding (Fries et al., 2007).

      Reviewer #2 (Public review):

      Summary:

      In their study, Cooper et al. investigated the spontaneous fluctuations in extracellular 5-HT release in the CA1 region of the hippocampus using GRAB5-HT3.0. Their findings revealed the presence of ultralow frequency (less than 0.05 Hz) oscillations in 5-HT levels during both NREM sleep and wakefulness. The phase of these 5-HT oscillations was found to be related to the timing of hippocampal ripples, microarousals, electromyogram (EMG) activity, and hippocampal-cortical coherence. In particular, ripples were observed to occur with greater frequency during the descending phase of 5-HT oscillations, and stronger ripples were noted to occur in proximity to the 5-HT peak during NREM. Microarousal and EMG peaks occurred with greater frequency during the ascending phase of 5-HT oscillations. Additionally, the strongest coherence between the hippocampus and cortex was observed during the ascending phase of 5-HT oscillations. These patterns were observed in both NREM sleep and the awake state, with a greater prevalence in NREM. The authors posit that 5-HT oscillations may temporally segregate internal processing (e.g., memory consolidation) and responsiveness to external stimuli in the brain.

      Strengths:

      The findings of this research are novel and intriguing. Slow brain oscillations lasting tens of seconds have been suggested to exist, but to my knowledge they have never been analyzed in such a clear way. Furthermore, although it is likely that ultra-slow neuromodulator oscillations exist, this is the first report of such oscillations, and the greatest strength of this study is that it has clarified this phenomenon both statistically and phenomenologically.

      Weaknesses:

      As with any paper, this one has some limitations. While there is no particular need to pursue them, I will describe ten of them below, including future directions:

      (1) Contralateral recordings: 5-HT levels and electrophysiological recordings were obtained from opposite hemispheres due to technical limitations. Ipsilateral simultaneous recordings may show more direct relationships.

      Although we argue that bilateral symmetry defines both the serotonin system and many hippocampal activity patterns (Methods: Dual fiber photometry and silicon probe recordings), we agree that ipsilateral recordings would be superior to describe the link between serotonin and electrophysiology in the hippocampus. In addition to noting that a recent study has adopted the same contralateral design (Zhang et al. 2024), we add a reference further supporting bilateral hippocampal synchrony, specifically of dentate spikes (Farrell et al. 2024). However, as functional lateralization has been recently proposed to underlie certain hippocampal functions in the rodent (Jordan 2020), future studies should ideally include both imaging and electrophysiology in a single hemisphere to guarantee local correlations rather than assuming inter-hemispheric synchrony. This could be accomplished using an integrated probe with attached optical fibers, as described in Markowitz et al. 2018, which is however technically more challenging and has, to our knowledge, not yet been implemented with fiber photometry recordings with GRAB sensors. Given the required separation of a few hundred micrometers between the probe shanks and the optical fiber cannula, it is important to consider whether the recordings are capturing the same neuronal populations. For example, there is a risk of recording electrical activity from dorsal hippocampal neurons while simultaneously measuring light signals from neurons in the intermediate hippocampus, which are functionally distinct populations (Fanselow and Dong 2009).

      (2) Sample size: The number of mice used in the experiments is relatively small (n=6). Validation with a larger sample size would be desirable.

      While larger sample sizes generally reduce the influence of random variability and minimize the impact of outliers on conclusions, our use of mixed-effects models mitigates these concerns by accounting for both inter-session and inter-mouse variability. With this approach, we explicitly model random effects, such as the variability between individual mice and sessions, alongside fixed effects (such as treatment), which ensures that our results are not driven by random fluctuations in a few individual mice or sessions. Furthermore, the inclusion of random intercepts and slopes in the models allows for the possibility that different animals and/or sessions have different baseline characteristics and respond to different degrees of magnitude to the treatment. In summary, while validating these findings with a larger sample size would certainly help detect more subtle effects, we are confident in the robustness of the conclusions presented.

      (3) Lack of causality: The observed associations show correlations, not direct causal relationships, between 5-HT oscillations and neural activity patterns.

      We agree that the data we present in this study is largely correlational and generally avoid claims of causality in the manuscript. In the Discussion section, we discuss barriers to interpreting typical causal interventions in vivo, such as optogenetic activation of raphe nuclei: “The two previously mentioned in vivo studies showing reduced ripple incidence…”(paragraph #10, pg. 12), as well as an added section on further causality considerations in the Discussion section of the manuscript (paragraph #12, pg. 13): “In addition to the difficulties involved with…”

      Due to these barriers, as a first step, we wanted to describe how physiological changes in serotonin levels are correlated to changes in the hippocampal activity. Equipped with a deeper understanding of physiological serotonin dynamics, future studies could explore interventions that modulate serotonin in keeping with the natural range of serotonin fluctuations for a given state. On that point, another challenge which we have not mentioned in the manuscript is that modulating serotonin, or any neuromodulator’s levels, has the potential, depending on the degree of modulation, to transition the brain to an entirely different behavioral state. This then complicates interpretation, as one is not sure whether effects observed are due to the changes in the neuromodulator itself, or secondary to changes in state. At the same time, 5-HT activity drives networks which in return can change the release of other neurotransmitters, leading to indirect effects.

      The results of our in vitro experiments suggest that a causal relationship between serotonin and ripples is possible (Figure S1). Though the hippocampal slice preparation is clearly an artificial model, it provides a controlled environment to isolate the effects of serotonin manipulation on the hippocampal formation, without the confounding influence of systemic 5-HT fluctuations in other brain regions. Notably, the dose-dependent effects of serotonin (5-HT) wash-in on ripple incidence observed in vitro closely mirror the inverted-U dose-response curve seen in our in vivo experiments across states, where small increases in serotonin lead to the highest ripple incidence, and both lower and higher levels correspond to reduced ripple activity. This parallel suggests that the gradual washing of serotonin in our in vitro system may mimic the tonic firing changes in serotonergic neurons that occur during state transitions in vivo. These findings underscore the importance of studying how different dynamics of serotonin modulation can differentially affect hippocampal network activity.

      (4) Limited behavioral states: The study focuses primarily on sleep and quiet wakefulness. Investigation of 5-HT oscillations during a wider range of behavioral states (e.g., exploratory behavior, learning tasks) may provide a more complete understanding.

      We agree that future studies should investigate a broader range of behavioral states. For this study, as we were focused on general sleep and wake patterns, our recordings were done in the home cage, and we limited ourselves to the basic behavioral states described in the paper. Future studies should be designed to investigate ultraslow 5-HT oscillations during different behaviors, such as continuous treadmill running. Specifically, a finer segregation of extended wake behaviors by level of arousal could greatly add to our understanding of the role of ultraslow serotonin oscillations.

      (5) Generalizability to other brain regions: The study focuses on the CA1 region of the hippocampus. It's unclear whether similar 5-HT oscillation patterns exist in other brain regions.

      Given the reported ultraslow oscillations of population activity in serotonergic neurons of the dorsal raphe nucleus (Kato et al. 2022) as well as the widespread projections of the serotonergic nuclei, we would expect a broad expression of ultraslow 5-HT oscillations throughout the brain. So far, ultraslow 5-HT oscillations have been described in the basal forebrain, as well as in the dentate gyrus, in addition to what we have shown in CA1 (Deng et al. 2024 and Turi et al. 2024). Furthermore, our results showing that hippocampal-cortical coherence changes according to the phase of hippocampal ultraslow 5-HT oscillations suggests that 5-HT can affect oscillatory activity either indirectly by modulating hippocampal cells projecting to the cortical network or directly by modulating the cortical postsynaptic targets. Given the heterogeneity in projection strength, as well as in pre- and postsynaptic serotonin receptor densities across brain regions (de Filippo & Schmitz, 2024), it would be interesting to see whether local ultraslow 5-HT oscillations are differentially modulated, e.g. in terms of oscillation power. Future studies investigating different brain regions via implantation of multiple optic fibers in different brain areas or using the mesoscopic imaging approach adopted in Deng et al. 2024, will be needed to examine the extent of spatial heterogeneity in this ultraslow oscillation.

      (6) Long-term effects not assessed: Long-term effects of ultra-low 5-HT oscillations (e.g., on memory consolidation or learning) were not assessed.

      While beyond the scope of our current study, we agree that an important next step would involve modulating the ultraslow serotonin oscillation after learning, and then examining potential effects on memory consolidation, presumably via changes in ripple dynamics, though many possibilities could explain potential effects. There, our results suggest it would be important to isolate effects due to the change in ultraslow oscillation features, rather than simply overall levels of 5-HT. To that end, it would be important to test different modulation dynamics, specifically modulating the oscillation strength, around a constant mean 5-HT level by carefully timed optogenetic stimulation/inhibition. Afterwards, showing a clear correlation between the strength of the 5-HT modulation and memory performance would be important to establishing the relationship, as done in Lecci et al 2017, where more prominent ultraslow oscillations of sigma power in the cortex during sleep, alongside a higher density of spindles, were correlated with better memory consolidation. Given the tight coupling of spindles and ripples during sleep, it is possible that a similar effect on memory consolidation would be observed following changes in ultraslow 5-HT oscillation power.

      (7) Possible species differences: It's uncertain whether the findings in mice apply to other mammals, including humans.

      We agree that the experiments should ultimately be replicated in humans. In the 2017 study by Lecci et al., the authors highlighted the shared functional requirements for sleep across species, despite apparent differences, such as variations in sleep volume. To explore these commonalities, the researchers conducted parallel experiments in both mice and humans, aiming to identify a universal organizing structure. They discovered that the ultraslow oscillation of sigma power serves this role, enabling both species to balance the competing demands of arousability and sleep imperviousness. Based on this finding, it is plausible that ultraslow oscillations of serotonin, which similarly modulate activity according to arousal levels, would serve a comparable function in humans.

      (8) Technical limitations: The temporal resolution and sensitivity of the GRAB5-HT3.0 sensor may not capture faster 5-HT dynamics.

      The kinetics of the GRAB5-HT3.0 sensor used in this study limit the range of serotonin dynamics we can observe. However, the ultraslow oscillations we measure reflect temporal changes on the scale of 20 s and greater, whereas the GRAB sensor we use has sub-second on kinetics and below 2 s off kinetics (Deng et al. 2024). Therefore, the sensor is capable of reporting much faster activity than the ultraslow oscillations we observe, indicating that the ultraslow 5-HT signal accurately reflects the dynamics on this time scale. Furthermore, the presence of ultraslow oscillations in spiking activity—observed in the hippocampal formation (Gonzalo Cogno et al., 2024; Aghajan et al., 2023; Penttonen et al., 1999) and in the dorsal raphe (Mlinar et al., 2016), which are not affected by the same temporal smoothing, suggests that the oscillations we record are not likely due to signal aliasing, but instead reflect genuine oscillatory activity. Of course, this does not preclude that other, faster serotonin dynamics are also present in our signal, some of which may be too fast to be observed. For instance, rapid serotonin signaling via the ionotropic 5-HT3a receptors could be missed in our recordings. Additionally, with the fiber photometry approach we adopted, we are limited to capturing spatially broad trends in serotonin levels, potentially overlooking more localized dynamics.

      (9) Interactions with other neuromodulators: The study does not explore interactions with other neuromodulators (e.g., norepinephrine, acetylcholine) or their potential ultraslow oscillations.

      We agree that the interaction between neuromodulators in the context of ultraslow oscillations is an important issue, which we have addressed in our response to reviewer #1 under ‘Weaknesses.’

      (10) Limited exploration of functional significance: While the study suggests a potential role for 5-HT oscillations in memory consolidation and arousal, direct tests of these functional implications are not included.

      We agree and reference our answer to (6) regarding memory consolidation. Regarding arousal, direct tests of arousability to different sensory stimuli during different phases of the ultraslow 5-HT oscillation during sleep would be beneficial, in addition to the indirect measures of arousal we examine in the current study, e.g. degree of movement (icEMG) and long range coherence. In line with what we have shown, Cazettes et al. (2021) has demonstrated a direct relationship between 5-HT levels and pupil size, an indicator of arousal level, which like our findings, is consistent across behavioral states.

      Reviewer #3 (Public review):

      Summary:

      The activity of serotonin (5-HT) releasing neurons as well as 5-HT levels in brain structures targeted by serotonergic axons are known to fluctuate substantially across the animal's sleep/wake cycle, with high 5-HT levels during wakefulness (WAKE), intermediate levels during non-REM sleep (NREM) and very low levels during REM sleep. Recent studies have shown that during NREM, the activity of 5HT neurons in raphe nuclei oscillates at very low frequencies (0.01 - 0.05 Hz) and this ultraslow oscillation is negatively coupled to broadband EEG power. However, how exactly this 5-HT oscillation affects neural activity in downstream structures is unclear.

      The present study addresses this gap by replicating the observation of the ultraslow oscillation in the 5-HT system, and further observing that hippocampal sharp wave-ripples (SWRs), biomarkers of offline memory processing, occur preferentially in barrages on the falling phase of the 5-HT oscillation during both wakefulness and NREM sleep. In contrast, the raising phase of the 5-HT oscillation is associated with microarousals during NREM and increased muscular activity during WAKE. Finally, the raising 5-HT phase was also found to be associated with increased synchrony between the hippocampus and neocortex. Overall, the study constitutes a valuable contribution to the field by reporting a close association between raising 5-HT and arousal, as well as between falling 5-HT and offline memory processes.

      Strengths:

      The study makes compelling use of the state-of-the-art methodology to address its aims: the genetically encoded 5-HT sensor used in the study is ideal for capturing the ultraslow 5-HT dynamics and the novel detection method for SWRs outperforms current state-of-the-art algorithms and will be useful to many scientists in the field. Explicit validation of both of these methods is a particular strength of this study.

      The analytical methods used in the article are appropriate and are convincingly applied, the use of a general linear mixed model for statistical analysis is a particularly welcome choice as it guards against pseudoreplication while preserving statistical power.

      Overall, the manuscript makes a strong case for distinct sub-states across WAKE and NREM, associated with different phases of the 5-HT oscillation.

      Weaknesses:

      All of the evidence presented in the study is correlational. While the study mostly avoids claims of causality, it would still benefit from establishing whether the 5-HT oscillation has a direct role in the modulation of SWR rate via e.g. optogenetic activation/inactivation of 5-HT axons. As it stands, the possibility that 5-HT levels and SWRs are modulated by the same upstream mechanism cannot be excluded.

      We agree that causality claims cannot be made with our data, and acknowledge the interest in exploring causal interactions between ultraslow serotonin oscillations and the correlated activity we measure. We address this point in depth in our answer to Reviewer #2, Weaknesses #3.

      Recommendations for the authors:

      Reviewer #1 (Recommendations for the authors):

      One major question in the presented data is the nature of the asymmetrical shape of the targeted slow events. How much does it reflect the 5-HT concentration and how much is this shape affected by the dynamics of the designed 5-HT sensor? This needs to be addressed in more detail referencing the original paper for the used sensor.

      We have added a paragraph in the Results section of the manuscript to address the asymmetric waveform of the ultraslow 5-HT oscillations and whether it could be affected by the asymmetric kinetics of the GRAB sensor we use: “The waveform of these ultraslow 5-HT oscillations…” (Results, paragraph #4, pg. 5). We include an extended answer to the question here:

      Indeed, the GRAB5-HT3.0 sensor we use in the study shows activation response kinetics which are faster than their deactivation time, with time constants at 0.25 s and 1.39 s, respectively (Deng et al. 2024). Likewise, the slope of the rising phase of the ultraslow serotonin oscillation we measure is faster than the slope of the falling phase, and the ratio of time spent in the rising phase versus the falling phase is less than 1, indicating longer falling phases (Figure S2). Although we cannot completely rule out that the asymmetric shape of the ultraslow serotonin oscillations we record is affected by this asymmetry in the 5-HT sensor kinetics, we believe this is unlikely, as the 5-HT signal clearly contains reductions in 5-HT levels that are much faster than the descending phase of the ultraslow oscillation. Although it is difficult to directly compare the different-sized signals, the reported timescales of off kinetics, on the order of a few seconds (Deng et al. 2024), are far below the tens of seconds timescale of the ultraslow oscillation. Furthermore, the finding that some dorsal raphe neurons modulate their firing rate at ultraslow frequencies, and moreover that all examples of such ultraslow oscillations shown display clear asymmetry in rising time versus decay, suggests that the asymmetry we observe in our data could be due to neural activity rather than temporal smoothing by the sensor (Mlinar et al. 2016). In this same direction, another study found similar asymmetry in extracellular 5-HT levels measured with fast scan cyclic voltammetry (FSCV), a technique with greater temporal resolution (sampling rate of 10 Hz) than GRAB sensors, after single pulse stimulation (Bunin and Wightman 1998). In this study, 5-HT was shown to be released extrasynaptically, making the longer clearing time compared to the release time intuitive. Finally, the observation that the onsets and offsets of ripple clusters, recorded with a sampling rate of 20 kHz, are precisely aligned with the peaks and troughs of ultraslow serotonin oscillations (Figure 1, H1-2, columns 2-3) suggests that the duration of the falling phase is not artificially distorted by the temporal smoothing of the sensor dynamics.

      Regardless of the dynamics of the serotonin concentration, it should be noted that the elicited neuronal effect might have different dynamics compared to the 5-HT concentration that need to be more studied: to address this one can either examine the average of the broadband LFP (not high passfiltered by the amplifier) or the distribution of simultaneously recorded spiking activity around the peak of ultra-slow oscillations.

      We have added Figure S6, showing unit activity relative to the phase of ultraslow serotonin oscillations.

      From this analysis, we uncover three groups of units which are largely preserved across states (Figure S6, E vs. F), albeit with a slight temporal shift rightward from NREM to WAKE (Figure S6, C vs. D). Namely, some units spike preferentially during the rising phase, some during the falling phase, and a third group have no clear phase preference. Unit activity during the falling phase is unsurprising, as it is where ripples largely occur, which themselves are associated with spike bursts. During the rising phase, the unit activity we observe could correspond to firing of the hippocampal subpopulation known to be active during NREM interruption states (Jarosiewicz et al. 2002, Miyawaki et al. 2017). While the units’ phase preference was tested based on the category of rising vs. falling phase, as this division described most variation in the data, a few units in the ‘No preference’ group showed heightened activity near the oscillation peak. However, given the very small number of units with this preference, more unit data is needed to describe this group, ideally with high-density recordings. Overall, most units showed a falling vs. rising phase preference, indicating a phase coding of hippocampal activity by 5-HT ultraslow oscillations.

      Related to the previous point, it would be helpful to show the average cycle shape of these oscillations (relative to the phase 0 extracted in Figure 3) and do the shape comparison across sessions and also wake/NREM

      We agree, and to this end we have added Figure S2. From this waveform analysis, we show that the ultraslow serotonin oscillation is asymmetric, with the rising phase having a greater slope, but shorter length, than the falling phase. While this asymmetry is observed both in NREM and WAKE, the slope difference and length ratio difference in rising vs. falling phase is greater in NREM (Figure S2. B).

      In Figure 3D, there seem to be oscillatory rhythms with faster cycles on top of the targeted oscillations. That would make the phase estimation less accurate, e.g. in the left panel, in the second cycle, it is not clear if there are two faster cycles or it is one slow cycle as targeted, and if noted in the rising phase of the second fast cycle there are no ripples. This might suggest that regardless of specific oscillation frequency whenever 5-HT is started to get released, the ripples are suppressed and once the 5-HT is not synaptically effective anymore the ripples start to get generated while the photometry signal starts to wane with the serotonin being cleared. Still, if there is any rhythmicity between bouts of no ripple, it would suggest an ultra-slow regularity in the 5-HT release.

      The reviewer is correct to point out that some faster increases in serotonin, which occur on top of the ultraslow oscillations we measure, seem to be associated with decreased ripple incidence, as in the example referenced. The dominance of ultraslow frequencies in the power spectrum of the 5-HT signal suggests, however, that oscillations faster than the ultraslow oscillations we describe are far less prevalent in the data. While there may be some coupling of ripples and other measures to serotonin oscillations of different frequencies, this may be hard or impossible to detect with phase analysis based on their infrequent occurrence and nonstationary nature. In fact, we show in Figure S3 that the strongest phase modulation of ripples by ultraslow serotonin oscillations is observed in the frequencies we use (0.01-0.06 Hz). Methodologically, phase analysis indeed assumes stationary signals, which are rare if not absent in physiological data (Lo et al. 2009), however generally the narrower the frequency band, the better the phase estimation. The narrow frequency band we use provides phase estimates that are largely robust and unaffected by the presence of faster oscillations, as can be seen in the example phase traces shown in Figure 4.

      The hypothesis that the rising phase burst of synaptic serotonin is what silences ripples, and that with the clearing of serotonin from the synapses, ripples recover, is a possible explanation of our findings. However, if this were the case, one could expect the ripple rate to increase over the course of the falling phase of ultraslow 5-HT oscillations, as 5-HT decreases, and peak at the trough. This is at odds with what we observe, namely a fairly uniform distribution of ripples along the falling phase (Figure 3F2,F4). Furthermore, the Mlinar et al. 2016 study describes a subpopulation of raphe neurons whose firing rates themselves oscillate at ultraslow frequencies, rather than on-off bursting at ultraslow frequencies, which would argue against this hypothesis. However, as this study looks at a small number of neurons in slices, further in vivo experiments examining firing rates of median raphe neurons are required to understand how the ultraslow oscillation of extracellular serotonin that we measure is generated as well as how it is related to ripple rates.

      In Figure 3B, it is not clear why IRI is z-scored. It would be informative to have the actual value of IRI. What is the z relative to? Is it the mean value of IRI in each recording session? Is this to reduce the variability across sessions?

      We have now included in Figure 3D a box plot displaying the IRI distributions across different states and sessions. To minimize inter-session variability, data were z-scored within each session for visualization purposes. However, all general linear models were based on raw data, and as a result, the raw differences in IRI are shown in Figure 3C.

      Figure 3E, panel labels don't match with the caption

      We are grateful to the reviewer for pointing out this mistake, which we have corrected in the updated version of the manuscript.

      In the text related to Figure 3E, the related analysis can be more clearly described. "phase preference of individual ripples" does not immediately suggest that the occurring phase of each ripple relative to the targeted oscillation is extracted. I suggest performing this analysis individually for each session and summarizing the results across the sessions.

      We have reworded the sentence in Results: 5-HT and ripples to better reflect the analysis performed: “Next, we calculated the ultraslow 5-HT phases at which individual ripples occurred during both NREM and WAKE (3E-F) ...”. Regarding session-level data, we have added Figure S3, which shows session level mean phase vectors, as well as the grand mean across sessions for both NREM and WAKE. Included in this figure are session level means for frequency bands outside of the ultraslow band we used in our study, intended to show that ripples are most strongly timed by the ultraslow band (0.01-0.06 Hz), reflected by the greater amplitude of the mean phase vector for this band.

      Figure 3E2, based on the result of ripple-triggered 5-HT in left panels of 2H1-2, one would expect to see a preferred phase closer to 180 (toward the end of the falling phase), it would be helpful to compare and discuss the results of these two analyses.

      The reviewer is correct to point out the apparent discrepancy in where the mean ripple falls with respect to the ongoing serotonin oscillation between the two figures mentioned. We have addressed this point in Results: 5-HT and ripples, paragraph #4: “This result appear to be at odds with…”.

      Regarding the analysis in 3F, please also compare the power distribution of ripples between NREM and wake. This will help to better understand the potential difference behind the observed difference: how much the strong ripples are comparable between wake and NREM. It is also necessary to report the ripple detection failure rate across ripples with different strengths.

      We have added a figure showing analysis done on a subset of the data in which ripples were manually curated in order to evaluate the performance of the ripple detection model (Figure S7) and explanatory text in Methods: Model performance: ‘To ensure that our model …’. In summary, while missed ripples did tend to have lower power than correctly detected ripples, including them did not change the distribution of ripples by the phase of the ultraslow serotonin oscillation (Figure S7C). We would also note that while the phase preference is noisier than what is presented in Figure 3F because this analysis was done with a small subset of all recorded ripples, the fact that ripples occur more clearly on the falling phase is visible for both detected ripples and detected + false negative ripples.

      The mixed-effects model examining the influence of 5-HT ultraslow oscillation phase on ripple power revealed no significant effect of state (p = 0.088). This indicates that whether the data were collected during NREM or wake periods did not significantly impact ripple power and that the lack of a significant effect (in Figure 3G,H) in WAKE is probably not due to a difference in the distribution of ripple power between states.

      4D, y label is z?

      We are grateful for the reviewer to point that out, yes, the y label should be ‘z-score’, as the two traces represent z-scored 5-HT (blue) and z-scored shuffled data (orange). Figure 4D2 and Figure 2H1-2, which show similar data, have been corrected to address this oversight.

      Relating to Figure 4, EMG comparison across phases of the oscillations is insightful. Two related and complementary analyses are to compare the theta and gamma power between the falling and rising phases.

      We have addressed this suggestion in Figure S5 A-C. While low gamma, high gamma and theta power are modulated identically in NREM, with higher power observed during the falling phase than the rising phase, during WAKE, different patterns can be seen. Specifically, low gamma power shows no phase preference, while high gamma shows a peak near the center of the ultraslow 5-HT oscillation. Theta power, as in NREM, is higher during the falling phase of ultraslow 5-HT oscillations. Increased power across many frequency bands was shown to coincide with decreases in DRN population activity during NREM, which matches with what we report here (Kato et al. 2022). In summary, while NREM patterns are consistent in all frequency bands tested, aligning with the pattern of ripple incidence, in WAKE low and high gamma power show different relationships to ultraslow 5-HT phase.

      In the manuscript, we have used the data in both Figure S5 and S6 (unit activity relative to ultraslow 5-HT oscillations), to argue against the idea that our coherence findings result from a lack of activity in the rising phase (see next question), which would have the effect of ‘artificially’ reducing coherence in the falling phase relative the rising phase. The text can be found in Results: 5-HT and hippocampal cortical coherence, paragraph #2.

      The results presented in Figure 5 could be puzzling and need to be further discussed: if the ripple band activity is weak during the rising phase, in what circumstances the coherence between cortex and CA1 is specifically very strong in this band?

      As mentioned in the previous answer, we have addressed this concern in Results: 5-HT and hippocampal-cortical coherence, paragraph #2. In summary, it is true that the higher coherence in rising phase than in the falling phase for the highest frequency band (termed ‘high frequency oscillation’ (HFO), 100-150 Hz) could be unexpected, given that ripples occur largely during the falling phase. A few points could help explain this finding. Firstly, it should be noted that power in the 100-150 Hz band can arise from physiological activity outside of ripples, such as filtered non-rhythmic spike bursts (Liu et al. 2022), whose coherent occurrence in the rising phase could explain the coherence findings. Secondly, coherence is a compound measure which is affected by both phase consistency and amplitude covariation (Srinath and Ray 2014), thus from only amplitude one cannot predict coherence. Furthermore, HFO power in the cortex is highest near the peak of ultraslow 5-HT oscillations (Figure S5D), as opposed to the falling phase peak in the hippocampus. This shows a lack of covariation in amplitude by phase between the hippocampus and cortex at this frequency band. An alternative explanation of our findings regarding coherence could be that in the rising phase, there is simply little to no activity, which is easier to ‘synchronize’ than bouts of high activity. Hippocampal unit activity in the rising phase (Figure S6) suggests however, that it is not likely to be the absence of activity supporting higher coherence in the rising phase across frequencies. Additional experiments using high density recordings should be conducted to examine 5-HT ultraslow oscillations and their role in gating activity across brain regions, though these results strongly suggest some role exists.

      Reviewer #2 (Recommendations for the authors):

      I would like to offer two comments. I believe that these are not unusual requests, and thus I would like the authors to respond.

      (1) It would be prudent to investigate the possibility that the observed correlation between ultraslow and hippocampal ripples/microarousals is merely superficial and that there are unidentified confounding factors at play. For example, it would be beneficial to provide evidence that administering a serotonin receptor inhibitor result in the disappearance of the slow oscillation of ripples and microarousals, or that the correlation with ultraslow is no longer present. Please note that the former experiments do not require GRAB5-HT3.0 imaging.

      We agree that causality claims cannot be made with our data and acknowledge the interest in exploring causal interactions between ultraslow serotonin oscillations and the correlated activity we measure. We address this point in depth in our answer to Reviewer #2, Weaknesses #3. We would further like to note that given the large number of serotonin receptors and the lack of selectivity of many serotonin receptor antagonists, a pharmacological approach would be difficult, though the results certainly useful. Finally, we highlight the psilocin study, which reported changes in the rhythmic occurrence of microarousals, and therefore likely ultraslow oscillations, after administering a 5-HT2a receptor agonist, suggesting a potential causal effect of 5-HT (via 5-HT2a receptor) on MA occurrence (Thomas et al. 2022).

      (2) The slow frequency appears to be associated with the default mode network as observed in fMRI signals. The neural basis of the default mode network remains unclear; therefore, a more detailed examination of this possibility would be beneficial.

      We agree that it would be interesting to investigate the role of 5-HT in the neural basis of the DMN.

      The DMN as described in humans (Raichle et al. 2001) and rodents (Lu et al. 2012) may indeed include some parts of the hippocampus and perhaps some of our neocortical recordings could also be considered part of the DMN. The fact that the activity across the inter-connected brain structures of the DMN is correlated at ultraslow time scales (Gutierrez-Barragan et al. 2019, Mantini et al. 2007), as well as serotonin’s ability to modulate the DMN is intriguing (Helmbold et al. 2016). Further studies simultaneously recording DMN activity via fMRI and electrical activity via silicon probes, as done in Logothetis et al. 2001, could elucidate further a potential link between ultraslow oscillations and the DMN, with serotonergic modulation as a means to understand any potential contribution of serotonin.

      Reviewer #3 (Recommendations for the authors):

      (1) The impact of the study would benefit from an experiment causally testing the effect of hippocampal 5-HT levels on hippocampal physiology, e.g. using optogenetic manipulations.

      We agree that causality claims cannot be made with our data and acknowledge the interest in exploring causal interactions between ultraslow serotonin oscillations and the correlated activity we measure. We address this point in depth in our answer to Reviewer #2, Weaknesses #3.

      (2) Data presentation: the figures are of poor resolution, making some diagram details and, more importantly, some example traces (e.g. Figure 1A, right) impossible to see. This should be corrected by either increasing figure resolution or making important figure elements large enough to be readable.

      We apologize for the poor resolution and have corrected it in the updated version of the manuscript.

      (3) Differences in some figure panels are not statistically assessed: Figure 1H (differences in spectrum peak power), Figure 3E1 & Figure 3E3 (directional bias of the circular distributions), Figure 4C (difference from 0 mean).

      We acknowledge this oversight and have added statistical tests for all three figures, as well as further information regarding the models used in Methods: Statistics.

      (4) Lines 279-280: the claim that the study shows "organization of activity by ultraslow oscillations of 5-HT" implies a causal role of 5-HT in organizing hippocampal activity. I suggest that this statement be toned down to reflect the correlational nature of the presented evidence.

      We have rephrased the sentence in question to the following: “In our study, including both NREM and WAKE periods allowed us to additionally show that the temporal organization of activity relative to ultraslow 5-HT oscillations operates according to the same principles in both states...”, which we believe better reflects the temporal correlation we describe.

      (5) While the study claims to use the EMG (i.e. electromyograph) signal, it does not describe any electrodes placed inside the muscle in the methods section. The SleepScoreMaster toolbox used in the study estimates the EMG using high-frequency activity correlated across recording channels, so I assume this is how this signal was obtained. While such activity may well reflect muscular noise to some degree, it is an indirect measure as the electrodes are not in the muscle. Since the EMG signal is central to the message of the manuscript, the method for calculating it should be described in the methods section and it should be explicitly labelled as an indirect measure in the main text, e.g. by referring to this signal as pseudo-EMG.

      We agree and have added explanatory text to the State Scoring subsection in Methods. Given that the EMG we refer to is derived from intracranial data, and not from traditional EMG probes, we now refer to the EMG as intracranial EMG, or icEMG for short, throughout the main text.

      (6) Is ripple frequency or ripple duration different across the rising and falling phases of the ultraslow oscillation?

      We have now investigated this suggestion in Figure S4, where we show that ripple frequency is higher in the falling phase than rising phase, while ripple duration appears to show no phase preference.

      (7) Lines 315-317: I am not sure why the manuscript refers to the coupling between EMG and 5-HT levels as 'puzzling' given that, as stated, the locomotion-inducing effects of 5-HT are well documented. While the fact that even non-locomotory motor activity may be associated with 5-HT rise is certainly interesting (although not sure if 'puzzling'), the manuscript does not directly compare the association of 5-HT levels with locomotory and non-locomotory EMG spikes. Thus, I think this discussion point is not fully warranted.

      We agree and have rephrased the discussion point in question to reflect that the EMG link to serotonin oscillations is not necessarily surprising, given both the literature linking 5-HT and spontaneous movement in the hippocampus, as well as the involvement of 5-HT in repetitive movements, where the role for a regularly-occurring oscillation is perhaps more intuitive.

      (8) Line 441: Reference #67 does not describe the use of fiber photometry.

      The reviewer is to correct to point out this typo, which has been now corrected. The reference in question should be 64, where fiber photometry experiments are described. For further clarity, we have changed our referencing scheme to include authors and years in in-text references.

      (9) In Figures 3E1-3, the phase has different bounds than in the other Figures in the manuscript (0:360 vs -180:180), this should be corrected for consistency.

      We agree and have made changes so that all figures have a phase range of -180 to 180°.

      References

      (1) Z. M Aghajan, G. Kreiman, I. Fried, Minute-scale periodicity of neuronal firing in the human entorhinal cortex. Cell Rep 42, 113271 (2023).

      (2) M.A. Bunin, R.M. Wightman (1998). Quantitative Evaluation of 5-Hydroxytryptamine (Serotonin) Neuronal Release and Uptake: An Investigation of Extrasynaptic Transmission. J. Neurosci. 18 (13) 4854-4860

      (3) F. Cazettes, D. Reato, J. P. Morais, A. Renart, Z. F. Mainen, Phasic Activation of Dorsal Raphe Serotonergic Neurons Increases Pupil Size. Curr Biol 31, 192-197.e4 (2021).

      (4) Cole SR, Voytek B. Brain Oscillations and the Importance of Waveform Shape. Trends Cogn Sci. 21(2):137-149 (2017).

      (5) F. Deng, et al., Improved green and red GRAB sensors for monitoring spatiotemporal serotonin release in vivo. Nat Methods 21, 692–702 (2024).

      (6) C. Dong, et al., Psychedelic-inspired drug discovery using an engineered biosensor. Cell 184, 2779-2792.e18 (2021).

      (7) A. Eban-Rothschild, L. Appelbaum, L. de Lecea, Neuronal Mechanisms for Sleep/Wake Regulation and Modulatory Drive. Neuropsychopharmacol. 43, 937–952 (2018).

      (8) M. S. Fanselow, H.-W. Dong, Are the dorsal and ventral hippocampus functionally distinct structures? Neuron 65, 7–19 (2010).

      (9) J. S. Farrell, E. Hwaun, B. Dudok, I. Soltesz, Neural and behavioural state switching during hippocampal dentate spikes. Nature 1–6 (2024). https://doi.org/10.1038/s41586-024-07192-8.

      (10) De Filippo, R., & Schmitz, D. (2024). Transcriptomic mapping of the 5-HT receptor landscape. Patterns (New York, N.Y.), 5(10), 101048.

      (11) M. J. Fisher, et al., Neural mechanisms of sensory gating: Insights from human and animal studies. NeuroImage 207, 116374 (2020).

      (12) P. Fries, D. Nikolić, W. Singer, The gamma cycle. Trends in Neurosciences 30, 309–316 (2007).

      (13) S. Gonzalo Cogno, et al., Minute-scale oscillatory sequences in medial entorhinal cortex. Nature 625, 338–344 (2024).

      (14) D. Gutierrez-Barragan, M. A. Basson, S. Panzeri, A. Gozzi, Infraslow State Fluctuations Govern Spontaneous fMRI Network Dynamics. Current Biology 29, 2295-2306.e5 (2019).

      (15) K. Helmbold, et al., Serotonergic modulation of resting state default mode network connectivity in healthy women. Amino Acids 48, 1109–1120 (2016).

      (16) B. Jarosiewicz, B. L. McNaughton, W. E. Skaggs, Hippocampal Population Activity during the Small-Amplitude Irregular Activity State in the Rat. J. Neurosci. 22, 1373–1384 (2002).

      (17) J. T. Jordan, The rodent hippocampus as a bilateral structure: A review of hemispheric lateralization. Hippocampus 30, 278–292 (2020).

      (18) T. Kato, et al., Oscillatory Population-Level Activity of Dorsal Raphe Serotonergic Neurons Is Inscribed in Sleep Structure. J. Neurosci. 42, 7244–7255 (2022).

      (19) M.A. Kim, H. S. Lee, B. Y. Lee, B. D. Waterhouse, Reciprocal connections between subdivisions of the dorsal raphe and the nuclear core of the locus coeruleus in the rat. Brain Research 1026, 56–67 (2004).

      (20) C. Kjaerby, et al., Memory-enhancing properties of sleep depend on the oscillatory amplitude of norepinephrine. Nat Neurosci 25, 1059–1070 (2022).

      (21) S. Lecci, et al., Coordinated infraslow neural and cardiac oscillations mark fragility and offline periods in mammalian sleep. Sci Adv 3, e1602026 (2017).

      (22) A. A. Liu, et al., A consensus statement on detection of hippocampal sharp wave ripples and differentiation from other fast oscillations. Nat Commun 13, 6000 (2022).

      (23) M.-T. Lo, P.-H. Tsai, P.-F. Lin, C. Lin, Y. L. Hsin, The nonlinear and nonstationary properties in eeg signals: probing the complex fluctuations by hilbert–huang transform. Adv. Adapt. Data Anal. 01, 461–482 (2009).

      (24) N. K. Logothetis, J. Pauls, M. Augath, T. Trinath, A. Oeltermann, Neurophysiological investigation of the basis of the fMRI signal. Nature 412, 150–157 (2001).

      (25) H. Lu, et al., Rat brains also have a default mode network. Proc Natl Acad Sci U S A 109, 3979–3984 (2012).

      (26) D. Mantini, M. G. Perrucci, C. Del Gratta, G. L. Romani, M. Corbetta, Electrophysiological signatures of resting state networks in the human brain. Proc Natl Acad Sci U S A 104, 13170– 13175 (2007).

      (27) J. E. Markowitz, et al., The striatum organizes 3D behavior via moment-to-moment action selection. Cell 174, 44-58.e17 (2018).

      (28) H. Miyawaki, Y. N. Billeh, K. Diba, Low Activity Microstates During Sleep. Sleep 40, zsx066 (2017).

      (29) B. Mlinar, A. Montalbano, L. Piszczek, C. Gross, R. Corradetti, Firing Properties of Genetically Identified Dorsal Raphe Serotonergic Neurons in Brain Slices. Front Cell Neurosci 10, 195 (2016).

      (30) A. Osorio-Forero, et al., Noradrenergic circuit control of non-REM sleep substates. Current Biology 31, 5009-5023.e7 (2021).

      (31) S. Panzeri, N. Brunel, N. K. Logothetis, C. Kayser, Sensory neural codes using multiplexed temporal scales. Trends in Neurosciences 33, 111–120 (2010).

      (32) M. E. Raichle, et al., A default mode of brain function. Proc Natl Acad Sci U S A 98, 676–682 (2001).

      (33) R. Srinath, S. Ray, Effect of amplitude correlations on coherence in the local field potential. J Neurophysiol 112, 741–751 (2014).

      (34) B. P. Staresina, J. Niediek, V. Borger, R. Surges, F. Mormann, How coupled slow oscillations, spindles and ripples coordinate neuronal processing and communication during human sleep. Nat Neurosci 26, 1429–1437 (2023).

      (35) C. W. Thomas, et al., Psilocin acutely alters sleep-wake architecture and cortical brain activity in laboratory mice. Transl Psychiatry 12, 77 (2022).

      (36) G. F. Turi, et al., Serotonin modulates infraslow oscillation in the dentate gyrus during Non-REM sleep. eLife 13 (2025).

      (37) J. Vazquez, H. A. Baghdoyan, Basal forebrain acetylcholine release during REM sleep is significantly greater than during waking. American Journal of Physiology-Regulatory, Integrative and Comparative Physiology 280, R598–R601 (2001).

      (38) J. Wan, et al., A genetically encoded sensor for measuring serotonin dynamics. Nat Neurosci 24, 746–752 (2021).

      (39) Y. Zhang, et al., Cholinergic suppression of hippocampal sharp-wave ripples impairs working memory. Proc. Natl. Acad. Sci. U.S.A. 118, e2016432118 (2021).

      (40) Y. Zhang, et al., Interaction of acetylcholine and oxytocin neuromodulation in the hippocampus. Neuron (2024).

    1. Note de synthèse détaillée : L'Enseignement Explicite pour la Réussite Scolaire et la Gestion de Classe

      Cette note de synthèse s'appuie sur la conférence "Enseignement explicite : des pistes pour gérer les apprentissages et les comportements des élèves" pour présenter les thèmes principaux, les idées clés et les faits importants concernant l'enseignement explicite, en incluant des citations pertinentes.

      1. Introduction : Une double problématique et un enjeu sociétal

      La conférence aborde une double problématique touchant les élèves et les enseignants :

      Pour les élèves : Les difficultés scolaires et comportementales peuvent entraîner des problèmes d'apprentissage et un risque d'abandon scolaire sans qualification.

      Pour les enseignants : La gestion des apprentissages et la gestion de classe sont des défis majeurs, même pour les expérimentés, contribuant à la pénurie d'enseignants.

      Dans ce contexte, "la mise en œuvre de pratiques efficaces ça représente finalement un enjeu sociétal majeur pour favoriser la réussite du plus grand nombre d'élèves mais aussi la rétention des enseignants".

      L'enseignement explicite est présenté comme un cadre pertinent pour adresser ces deux facettes inséparables : la gestion des apprentissages et la gestion des comportements.

      "La gestion des apprentissages et la gestion des comportements représentent les deux phases d'une même pièce".

      2. Qu'est-ce que l'efficacité en éducation ?

      L'efficacité en éducation est définie non pas comme un gros mot, mais comme la capacité à atteindre un objectif. Se basant sur la définition de Bloom, l'efficacité de l'enseignement va au-delà de la simple sélection des talents.

      Pour Bloom, "les sociétés modernes optent pour le développement éducatif d'un plus grand nombre de personnes et toute société qui accorde une telle valeur à l'éducation ou à la scolarité jusqu'à obliger tout individu à consacrer à l'école une partie importante de sa vie elle ne peut se contenter de sélectionner des talents elle doit les développer".

      Un enseignement efficace, selon Bloom, doit :

      • Augmenter la moyenne des élèves de la classe.
      • Réduire la variance (différences de résultats) entre les élèves.
      • Diminuer la corrélation entre les résultats et les caractéristiques initiales (ex: origine sociale), rendant ainsi l'enseignement équitable.

      Pour la gestion de classe, l'efficacité est mesurée différemment : elle vise "à instaurer les conditions propices pour que les apprentissages puissent se réaliser", en augmentant l'attention des élèves et en diminuant les écarts de conduite.

      C'est la conjonction des stratégies d'apprentissage et de gestion de classe qui permet d'améliorer les apprentissages et le cadre d'apprentissage.

      3. Les fondements de l'enseignement explicite : Une approche basée sur la recherche

      L'enseignement explicite n'est pas une théorie isolée, mais le fruit de décennies de recherches :

      • Recherches corrélationnelles : Observation des comportements des enseignants et des résultats des élèves, identifiant des pratiques liées à une meilleure réussite (ex: révisions, démonstration, pratique guidée).

      • Recherches expérimentales : Formation d'un groupe d'enseignants à ces pratiques prometteuses et comparaison avec un groupe contrôle, démontrant un lien de cause à effet.

      • Méta et méga-analyses : Synthèse de nombreuses recherches expérimentales, confirmant "l'efficacité d'un enseignement explicite pour aider les élèves et en particulier ce en difficulté", mais aussi pour les élèves ayant plus de facilité, et ce, à tous les âges.

      L'enseignement explicite est une "importante base de connaissance qui a été minutieusement conçue", s'étendant des années 70-80 jusqu'à nos jours, et aucune recherche n'a fondamentalement remis en cause son efficacité.

      Il repose sur une triple concordance :

      • Efficacité démontrée par les recherches pédagogiques.

      Recherches en psychologie cognitive :

      • Distinction apprentissages naturels/secondaires : Certains apprentissages (lire, calculer, écrire) sont "secondaires" et nécessitent un enseignement formel et explicite, contrairement aux apprentissages naturels (marcher, reconnaître des visages).

      • Charge cognitive : L'enseignement explicite tient compte de la charge cognitive.

      L'effet du problème résolu (Cooper et Swiller, 1987) montre que les élèves étudiant un problème résolu performant mieux et peuvent expliquer leur démarche, contrairement à ceux en résolution de problèmes classique qui peuvent réussir sans comprendre le cheminement.

      • Définition conceptuelle robuste : Les concepts et stratégies sont concrets, opérationnels et réplicables.

      4. Clarifications et définitions de l'enseignement explicite

      Le terme "explicite" signifie "ouvert à la compréhension, pas obscur ni ambigu".

      John Hattie utilise les termes "visible teaching" et "visible learning", soulignant que l'enseignement doit être visible pour les élèves et que leur apprentissage doit être rendu visible pour l'enseignant.

      L'enseignement explicite est "une combinaison de comportements conçus pour promouvoir l'apprentissage des élèves".

      Il est important de ne pas le confondre avec d'autres terminologies :

      • "Instruction directe" (minuscules) : Peut désigner l'enseignement explicite ou d'autres approches, voire tout enseignement mené par le maître.

      • "Direct Instruction" (majuscules ou DI) : Approche très formalisée créée par Engelmann où les enseignants suivent un script, différente de l'enseignement explicite où les enseignants conçoivent leurs leçons.

      Le terme "enseignement explicite" est utilisé depuis 1986 par Rosensteine, formalisant l'approche à partir des recherches.

      Un synonyme apprécié est "Active Teaching", soulignant une approche très active pour l'enseignant et les élèves.

      5. Stratégies de gestion des apprentissages : Les cinq étapes de la leçon explicite

      L'enseignement explicite s'inscrit dans le modèle de réponse à l'intervention (RTI), qui propose des stratégies universelles (palier 1) bénéficiant à 80% des élèves.

      Il met l'accent sur la phase d'interaction et la planification, ainsi que la consolidation (pour contrer la courbe de l'oubli).

      Les cinq étapes fondamentales d'une leçon d'enseignement explicite sont :

      Ouverture de la leçon :

      • But : Capter l'attention, présenter les objectifs et leur utilité, rappeler les connaissances préalables.

      • Stratégies : Signal non verbal, énoncé clair de l'objectif, explication de l'utilité dans la vie quotidienne et future scolarité (ex: inférences en lecture). Vérification fine de la compréhension et rétroactions de qualité. Réenseignement des prérequis si nécessaire.

      Modelage (Je te montre) :

      • But : Montrer et expliquer comment réaliser la tâche, en "mettant un haut-parleur sur sa pensée".

      • Stratégies : Verbaliser le raisonnement (étapes, questions, pièges à éviter). Montrer des exemples et contre-exemples. C'est une étape riche qui développe la métacognition. "Elle est parfois mal comprise et assimilée à tort à une sorte uniquement d'exposé". C'est une étape brève (quelques minutes).

      Pratique guidée (On le fait ensemble) :

      • But : Les élèves réalisent des tâches similaires sous la supervision active de l'enseignant, dialoguent et explicitent leur cheminement.

      • Modalités :Collective : Choisir des élèves au hasard pour refaire la tâche en explicitant.

      • En binômes (enseignement réciproque) : Les élèves s'expliquent mutuellement comment ils ont fait.

      • Stratégies clés :Consignes claires.

      • Vérification de la compréhension (plus pertinente que "avez-vous compris ?" : "si je prenais le temps maintenant de m'arrêter de choisir quelqu'un et lui demander de me reformuler ce qui est une métaanalyse ben là j'aurai beaucoup plus d'informations sur sa compréhension").

      • Désignation aléatoire des élèves : Pour augmenter l'attention et répartir équitablement la parole.

      • Rétroactions de qualité : Fournir des informations sur la production et comment l'améliorer, et former les élèves à l'auto-feedback et au feedback mutuel (métacognition).

      • Aide si besoin : Rappels, listes d'étapes.

      • Test formatif : Avant de passer à la pratique autonome, s'assurer que les élèves ont atteint un seuil de réussite (80%). Les autres restent en pratique guidée ou reçoivent un réenseignement.

      Pratique autonome (Tu le fais seul) :

      • But : Consolider les nouvelles connaissances en mémoire. L'aide de l'enseignant est réduite mais il continue de vérifier la compréhension et de fournir de l'aide.

      • Stratégies : Suffisamment d'exercices variés, incluant des exercices de transfert. Le seuil de réussite visé est de 90 à 95% de réponses correctes.

      Clôture :

      • But : Synthétiser les apprentissages, prendre du recul, poursuivre la pratique et introduire la prochaine leçon en explicitant les liens.

      • Stratégies : Questions métacognitives ("Qu'a-t-on appris aujourd'hui ?", "À quoi ça sert ?"), rétroactions riches, introduction de l'objectif de la prochaine leçon.

      • Différenciation : Ces étapes ne sont pas linéaires mais itératives. L'enseignant peut revenir à une étape précédente si nécessaire (ex: refaire un modelage ou une pratique guidée pour des élèves en difficulté).

      Cela permet une différenciation basée sur l'observation objective des besoins des élèves, rendant l'approche "beaucoup plus réaliste que l'idée de se dire qu'on va différencier de manière un peu finalement même à l'aveugle".

      6. Stratégies de gestion des comportements : Mieux vaut prévenir que guérir

      Le principe fondamental est que "mieux vaut prévenir que guérir".

      Les enseignants efficaces mettent en œuvre environ 80% d'interventions préventives et seulement 20% d'interventions réactives.

      La punition n'est pas la seule option corrective, et d'autres stratégies sont à privilégier.

      Les gestes professionnels fondamentaux incluent :

      Relations positives :

      • Stratégies concrètes : S'intéresser aux élèves, discuter avec eux, les accueillir. "Le positif finalement attire le positif".

      • Attentes élevées : Croire au potentiel de tous les élèves, sans se fier aux préjugés.

      • Outil "Efforts et stratégies" : La réussite dépend des efforts des élèves et des stratégies fournies par l'enseignant. "Je bannis de mon vocabulaire les mots faciles et difficiles".

      • Environnement sécurisant et enseignement explicite des comportements :

      • Justification : L'éducation aux comportements est aussi le rôle de l'école, car tous les élèves n'ont pas appris ces codes à la maison.

      Cela fait gagner du temps à long terme en réduisant les problèmes. "Si un élève ne sait pas lire, on va lui apprendre à lire... mais s'il ne sait pas se comporter, est-ce qu'on va lui apprendre ou est-ce qu'on va le punir ?".

      • Matrice comportementale : Choisir 3 valeurs (ex: respect, responsabilité, solidarité) et identifier les comportements positifs attendus dans les différentes activités/lieux (formuler en "je" et de manière positive).

      • Enseigner les comportements : Appliquer les cinq étapes de l'enseignement explicite pour les comportements, en contexte réel (ex: dans le couloir, dans le bus).

      • Ouverture : Présenter la valeur et la règle, son importance.

      • Modelage : Montrer le comportement attendu (ex: marcher calmement, donner une rétroaction). Inclure des contre-exemples humoristiques.
      • Pratique guidée : Les élèves pratiquent les comportements attendus devant l'enseignant, qui donne des rétroactions sur leur comportement par rapport aux valeurs.
      • Pratique autonome : Non explicitée mais implicite dans la consolidation.
      • Clôture : Non explicitée.

      Encadrement et supervision des élèves :

      • Stratégies : Superviser constamment du regard, "marcher la classe de manière imprévisible" pour augmenter la prévention des écarts de conduite.

      Renforcement positif :

      • Importance : Dire aux élèves que leur comportement est bon est essentiel pour le maintenir. Le renforcement verbal est prioritaire, mais des renforcements tangibles (étiquettes, jetons échangeables contre des privilèges) sont aussi efficaces.
      • Principe : "On ne retire jamais de points on s'en sert uniquement pour dire aux élèves ce qui est bien". Les écarts de conduite sont gérés par un autre système.
      • Organisation de la classe :
      • Stratégies : Disposer le mobilier pour une visibilité et une circulation aisées, préparer le matériel à l'avance. "Au plus ma classe est organisée au moins aussi il va y avoir de de place pour des écarts de conduite".

      • Enseignement efficace (en tant que stratégie préventive) :

      • Les cinq étapes de l'enseignement explicite, lorsqu'appliquées aux matières académiques, "augmentent l'attention des élèves parce que c'est une approche qui les sollicite constamment".

      Cela contribue directement à une meilleure gestion de classe.

      7. Gestion des écarts de conduite : Interventions correctives

      Les interventions correctives sont hiérarchisées et visent à être les plus discrètes et à moindre coût.

      Une distinction est faite entre :

      • Écart de conduite mineur : Ne perturbe pas l'enseignement ni l'apprentissage des autres (ex: bavardage léger).

      • Écart majeur : Nécessite une intervention plus forte, potentiellement le retrait temporaire de l'élève (ex: bagarre).

      Stratégies pour les écarts mineurs (du plus discret au plus direct) :

      • Proximité physique.

      • Contact physique (ex: main sur le bureau).

      • Signal sonore (ex: raclement de gorge).

      • Ignorer momentanément et féliciter un autre élève ayant un bon comportement ("quatre interventions positives si possible pour une négative").

      • Rediriger : Rappeler brièvement le comportement attendu.

      • Réenseigner le comportement (avec les 5 étapes).

      • Offrir un choix (ex: écouter ou conséquence).

      • Conséquences formatives : Réparer (ex: nettoyer ce qui a été sali, s'excuser).

      • Isolement avec activité réflexive : Demander à l'élève d'observer et de décrire les bons comportements de ses pairs.

      • Rencontre en face-à-face hors du cours pour comprendre les raisons du comportement.

      • La punition (ex: recopier un texte) est une option si aucune stratégie constructive n'est trouvée, mais elle "n'apprend nullement le comportement qui est attendu de lui". L'objectif est d'apprendre à l'élève le comportement attendu.

      Gestion des écarts majeurs : Dépend fortement de la politique d'école (plan d'intervention, schéma de procédure) car l'enseignant seul est limité.

      Un exemple d'étude récente sur le soutien au comportement positif (PBIS) montre une diminution significative des écarts de conduite majeurs dans les écoles appliquant ce système sur plusieurs années.

      8. Conclusion

      L'enseignement explicite est une "approche pédagogique concrète qui favorise la réussite des élèves et la mise en place d'un climat propice aux apprentissages".

      C'est une série de stratégies concrètes pour la gestion des apprentissages et des comportements, pour lesquelles il est possible de se former.

    1. Compte-rendu : L'Évolution du Rôle des Directions d'Établissement et la Formation au Pilotage

      Ce document de synthèse est basé sur l'épisode 54 des "Cafés de l'INAS", qui poursuit la réflexion amorcée lors de la journée d'étude marquant les 10 ans du "Pacte pour un enseignement d'excellence".

      Il met en lumière les discussions avec des acteurs impliqués dans la formation des directions d'école en Belgique francophone, notamment Christine Joris (référente de la cellule d'appui pédagogique au CECP) et Jean Castin (chercheur, formateur, accompagnateur à l'Université de Mons et l'INAS).

      1. Contexte et Objectifs

      L'émission s'inscrit dans un contexte de profonde transformation du paysage éducatif belge francophone, où les politiques de pilotage redéfinissent le rôle des directions d'établissement.

      L'objectif est de comprendre les liens entre les directions d'école et de recueillir leurs perceptions sur un métier devenu "plus exigeant et plus complexe".

      2. Types de Formation des Directions d'École

      Les formations se déclinent en deux grands types :

      • Formation initiale des directeurs : Composée de trois volets, elle inclut des modules pédagogiques, relationnels et un module d'intégration/accompagnement à l'entrée en fonction. Jean Castin est particulièrement investi dans ces modules à l'Université de Mons.

      • Formation continue : Destinée aux directeurs en cours de carrière.

      Christine Joris est concernée par le volet réseau et l'axe pédagogique de la formation initiale.

      3. L'Intégration du Pilotage dans les Formations

      Depuis 2018, la formation pédagogique a été profondément revue pour axer les modules sur le modèle du pilotage.

      • Approche interactive et contextualisée : Les modules partent d'"analyse de cas", d'"analyse de données" et sont "très interactifs", rompant avec la "formation descendante".

      L'objectif est de "donner du sens à toute cette réforme" en liant les actions pédagogiques au plan de pilotage de l'établissement.

      • Développement de la capacité d'analyse et de la réflexion systémique : Un axe majeur est d'apprendre aux directions à "s'arrêter, à regarder la situation, à l'évaluer, à essayer de comprendre ce qui se passe avant de poser des axes". Il s'agit de les aider à "aller au-delà de ce qui de ce qu'on voit en premier lieu".

      • Positionnement et leadership : Les formations travaillent sur la manière dont le directeur "se positionne dans le système", notamment à travers l'exercice de son leadership.

      L'objectif est de le rendre capable de "mobiliser son équipe et faire en sorte que ben il ne soit pas le seul acteur de l'école mais que son équipe soit partie prenante du travail".

      4. L'Évolution vers un Leadership Partagé et Distribué

      Le leadership partagé est une "demande institutionnelle" et une nécessité sur le terrain.

      Injonction institutionnelle et adaptation : Il est attendu des directeurs qu'ils exercent un "leadership partagé distribué".

      Les formations les aident à "réfléchir à la manière dont ils exercent naturellement leur leadership et aussi de pouvoir on va dire adapter leur leadership aux situations qu'ils rencontrent".

      Nécessité pragmatique : Christine Joris souligne que "le directeur ne peut plus être à la barre de tout au niveau de du pilotage de son école et donc forcément effectivement il distribue enfin ce leadership partagé se met en place et se distribue".

      Cette évolution a donné du sens à la demande institutionnelle pour les directeurs.

      5. Surprises et Évolutions dans l'Approche des Directeurs

      Au fil des dix dernières années, l'approche des directeurs a évolué positivement.

      Passage de la conformité au besoin : Initialement, la demande institutionnelle était très présente et les directeurs cherchaient à être conformes.

      Aujourd'hui, on observe un passage à une motivation intrinsèque : "maintenant on est plus dans une on y va parce qu'on en a besoin".

      Prise de sens et confortement : Jean Castin note que "beaucoup de directions maintenant mettent beaucoup plus de sens dans ce qu'ils font" et ont compris que le travail demandé "pouvait les aider les servir et pouvait cadrer la manière dont ils pilotaient leur école avec leurs équipes".

      L'idée d'un "sens plus construit et partagé avec les autres de leur équipe" conforte les choix institutionnels.

      6. Besoins Particuliers des Directions en Formation La formation actuelle est jugée insuffisante pour couvrir tous les besoins des directeurs.

      • Accompagnement au transfert et temps : Il existe un besoin d'accompagnement pour "faire ce transfert" entre la formation et la réalité du terrain, et un besoin de "temps pour installer les choses" car les transformations ne se font pas du jour au lendemain.

      • Difficultés relationnelles et communication : Un besoin majeur identifié par Jean Castin concerne les "difficultés relationnelles" (parents, élèves, équipe, extérieur) auxquelles les directeurs sont confrontés sans prévenir.

      D'où un besoin de "continuer à se former au niveau du développement de leurs compétences relationnelles" et de la "communication" pour "pacifier les choses à certains moments". Ce besoin est généralisé à toutes les directions.

      • Temps réflexif et analyse de pratique : Les directeurs apprécient énormément les "temps de s'asseoir, un temps d'arrêt de réfléchir à leur pratique, d'avoir ce temps réflexif sur leur manière d'agir". Ce temps d'analyse de pratique est considéré comme manquant dans le système.

      • Codéveloppement et communautés de pratique : Les ateliers de codéveloppement, où les directions se réunissent et choisissent leur thématique, rencontrent un grand succès. Ils répondent au besoin d'être "un peu moins isolés", constituant des "communautés de pratique professionnelle".

      7. Frustrations et Défis des Directions

      Le principal défi est le manque de temps et la surcharge de travail, qui entravent le pilotage réel.

      • Surcharge et "lasagne des injonctions institutionnelles" : Les directeurs se disent "noyés" par les "injonctions institutionnelles" et les "interactions" quotidiennes. Jean Castin parle de "lasagne des injonctions institutionnelles".

      • Gestion à court terme vs. pilotage : Cette surcharge conduit les directeurs à ne faire que "ce qu'on leur demande de faire, de la gestion à très court terme", ce qui n'est pas du pilotage. Il y a "très peu de vue à moyen terme, à long terme, de régulation, d'une mise en projet".

      • Impossibilité de piloter : Pour Jean Castin et ses collègues chercheurs, les directions sont "dans l'impossibilité de piloter" compte tenu du contexte et de la situation actuelle.

      Christine Joris confirme qu'ils sont "tout le temps dans la réponse, dans l'action-réponse" et n'ont plus "ce temps de recul pour pouvoir se poser" et avoir des "temps de réflexion, des temps d'analyse".

      8. Évolutions Positives et Tendances Encourageantes

      Malgré les défis, des évolutions positives sont observées chez les directions.

      • Volonté et motivation : Les directeurs sont jugés "très volontaires et très motivés" en formation initiale, avec une "prise de conscience de toute l'étendue" de leur nouveau métier et une "vraie volonté de bien faire les choses".

      • Nécessité du pilotage : Il y a une prise de conscience accrue de la "nécessité de piloter l'établissement", d'avoir "réellement un pilote dans l'avion de l'école". Par le passé, les directeurs étaient plus "purement dans l'organisationnel".

      • Développement de la réflexion pédagogique : Jean Castin observe avec satisfaction que les directeurs "développent une réflexion pédagogique".

      Ils "remettent l'enfant au cœur de leur réflexion et ils emmènent leur équipe à réfléchir à remettre en question leur pédagogie, à évoluer".

      Cette évolution, bien qu'ils ne puissent abandonner totalement l'obsession organisationnelle, est un point positif majeur.

      • En conclusion, si le métier de direction d'école est devenu plus exigeant et complexe, notamment en raison de la surcharge de travail et des injonctions, les formations ont permis une meilleure appropriation du concept de pilotage et une évolution positive des directeurs vers un leadership partagé et une réflexion davantage axée sur le pédagogique.

      Cependant, des besoins importants subsistent, notamment en matière d'accompagnement, de gestion relationnelle et de temps dédié à la réflexion et au pilotage stratégique.

    1. Compte Rendu Détaillé : Les Niveaux d'Explication et les Levers de Changement Comportemental face à la Crise Climatique (d'après le neuroscientifique Moukheiber à l'Académie du Climat)

      • Ce document de briefing synthétise les points clés et les arguments principaux développés par le neuroscientifique Moukheiber lors de son intervention à l'Académie du Climat, en se concentrant sur les niveaux d'explication des phénomènes et les stratégies efficaces pour induire un changement comportemental, notamment en lien avec la transition écologique.

      1. La Faillite du Niveau d'Explication Cérébral et Individualiste pour les Problèmes Sociétaux

      Moukheiber insiste sur la nécessité de choisir le "bon niveau explicatif" pour comprendre un phénomène.

      Il utilise l'analogie d'un accident de voiture : chercher la cause au niveau atomique de la carrosserie est absurde si la cause réelle est le verglas ou l'alcoolémie du conducteur.

      De même, réduire des comportements complexes, comme ceux liés à la transition écologique, au seul fonctionnement du cerveau est une erreur fondamentale.

      • Le Mythe du "Cerveau Seul" et la Cognition Incarnée : Le neuroscientifique critique le "tour de passe-passe cognitif" qui a remplacé l'esprit par le cerveau, traitant ce dernier comme une entité isolée.

      Il promeut le concept de cognition incarnée, un courant majeur en neuroscience qui stipule que le comportement humain doit être analysé à travers un "triptyque" : le cerveau, l'état du corps (sommeil, faim, douleurs, etc.), et l'environnement/contexte.

      • Citation : "On pourra jamais expliquer le comportement d'un humain juste en regardant son cerveau

      Il faut regarder tout le temps un triptique le cerveau l'état du corps... et l'environnement le contexte dans lequel cet agent incarné qui est l'humain est en train d'évoluer."

      • L'Exemple des Fast-Foods : Plutôt que d'expliquer la consommation de fast-food par le cerveau des jeunes, le bon niveau explicatif est "l'organisation des villes qui ont mis des McDo à chaque coin de rue."

      Cela illustre que des phénomènes comme l'anxiété sociale peuvent relever du cerveau, mais d'autres, comme la surconsommation, sont des "propriétés émergentes" liées à des facteurs macro.

      • Le Refus de la Réduction au Cerveau : La complexité de nos rapports à la transition écologique ne peut être attribuée "simplement au fonctionnement de nos cerveaux."

      Il remet en question la tendance à sur-responsabiliser l'individu et son cerveau pour des problèmes systémiques.

      2. Le Modèle du Déficit Informationnel est "Profondément Fallacieux"

      Moukheiber dénonce avec force l'idée que les gens n'agissent pas pour le climat par manque d'information, qu'il nomme le modèle du déficit informationnel.

      • L'Inefficacité de la Pédagogie Seule : Des milliards ont été dépensés en campagnes de sensibilisation, notamment sur la cigarette ou le climat, avec des résultats limités.

      • Citation : "On a dépensé des milliards... Les hommes et les femmes politiques [disent] que si on s'oppose à une loi c'est qu'on a c'est qu'il faut faire de la pédagogie

      Les Français n'ont pas compris C'est vraiment l'arbre qui cache la forêt c'est ça revient tout le temps à une cette sorte de surres de l'individu

      Si les gens ne sont pas en train de prendre moins à l'avion c'est parce qu'ils ont pas compris S'ils sont encore en train de manger de la viande c'est parce qu'ils ont pas compris Alors que c'est pas vrai."

      • La Dissonance Cognitive : Bien que la dissonance cognitive (savoir qu'une action est mauvaise mais la faire quand même) soit un phénomène réel, les neurosciences, au travers du cadre de la cognition incarnée, ne suggèrent pas que la solution réside dans plus de pédagogie individuelle.

      3. L'Importance des "Conditions Facilitantes" et des Actions Systémiques

      Le neuroscientifique met en lumière le pouvoir des "conditions facilitantes" (enabling conditions) et des "propriétés émergentes" pour modifier les comportements à grande échelle.

      • L'Exemple du Tabac : L'interdiction de fumer en intérieur et l'augmentation des prix ont eu un impact bien plus significatif sur la consommation de tabac que des années de campagnes de sensibilisation.

      • Citation : "À un moment on a fait quelque chose à un niveau supérieur dans ces niveaux explicatifs On a passé une loi deux lois principalement une loi qui a augmenté le le prix une deuxième loi qui a interdit de fumer en intérieur

      Et là tout d'un coup le taux de nouveau fumeur à toutes les tranches d'âge commença à diminuer."

      • Le Climat : Une Problématique Systémique : Les comportements néfastes pour le climat ne relèvent pas du niveau individuel, mais de l'organisation des villes, des tarifs, des salaires, et des lois.

      • Citation : "Les comportements qu'on a qui sont délétaires pour la transition écologique ne se jouent pas au niveau de l'individu il se joue au niveau de l'organisation des villes des tarifs des salaires des lois qu'on est en train de faire passer

      Et tant qu'on va essayer de tout toute la pédagogie du monde tout l'esprit critique du monde ne suffira pas à inverser la tendance tant qu'on veut juste agir au niveau de l'individu."

      • Le Conseil aux Partis Écologistes : Moukheiber conseillerait d'« arrêter d'avoir une grille de lecture individualiste ». Les initiatives individuelles sont une "goutte d'eau dans l'océan" face à un problème systémique.

      L'impact réel vient de l'influence sur des acteurs systémiques (ex: convaincre Tim Cook de modifier le cycle de vie des iPhones plutôt que 300 000 individus).

      4. La Nuance de la Dérégulation et de la Responsabilité Individuelle

      Moukheiber anticipe l'objection de la "déresponsabilisation" de l'individu.

      • Une Part de Responsabilité Individuelle Minime : Il reconnaît qu'il y a une part de responsabilité individuelle (trier ses déchets, moins prendre l'avion, moins manger de viande, consommer local).

      • Citation : "Il y a comme une part des choses qui est de ma responsabilité Trier c'est c'est minime C'est c'est c'est une goutte d'eau dans l'océan de ce qu'on doit faire."

      • Le But du Comportement Individuel : Un Signal Social : Le but de ces actions individuelles n'est pas d'inverser directement la tendance de la destruction climatique, mais d'envoyer un "signal social pour qu'il y ait systématisation", de créer une "norme sociale" qui puisse ensuite se traduire par des changements plus macro (ex: interdire la pub pour le tabac).

      5. Stratégies de Changement Comportemental : Au-delà de l'Explication Rationnelle

      Face au déni ou à la résistance, Moukheiber suggère des approches alternatives à la seule explication rationnelle.

      • Questionner la Motivation : Avant d'expliquer, il faut se demander "pourquoi vous voulez leur expliquer ?" Si l'objectif est un changement de comportement, l'explication seule est souvent inefficace.

      • L'Action Avant la Compréhension : Il a réussi à changer des comportements sans mentionner le climat, en proposant des alternatives attrayantes.

      • Exemple : Emmener un ami dans un restaurant végétarien sans dire que c'est végétarien, le laissant découvrir et apprécier par lui-même.

      • Adapter le Message : L'approche doit être différente selon la personne (expliquer le cycle de l'eau à un enfant vs. parler politique à un oncle de 65 ans).

      • Le Rôle des Normes Sociales et des Tendances : Une grande partie de nos comportements ne découlent pas d'un fonctionnement rationnel ("homo économicus") mais de ce que font nos pairs, de la disponibilité, et des effets de mode (ex: la quinoa, le chou kale).

      • Citation : "Une grande partie de nos comportements ne viennent pas d'un fonctionnement rationnel... On fonctionne selon ce que font les les nos potes Euh qu'est-ce qui est disponible."

      • La "Manipulation" comme Levier (non péjoratif) : Le neuroscientifique conclut que parfois, il suffit de "manipuler" les conditions ou les choix pour modifier les comportements, reconnaissant que nous nous "manipulons les uns les autres" constamment.

      Cela implique de créer les environnements et les incitations qui favorisent les comportements souhaités, plutôt que de s'appuyer uniquement sur la conviction intellectuelle.

      • Citation : "Il suffit de manipuler Vous avez bien compris ouais On est tous en train de se manipuler de toute façon les uns les autres."

      En somme, Moukheiber plaide pour un changement de paradigme dans l'approche de la transition écologique, délaissant l'individualisme et la survalorisation de la pédagogie au profit d'une compréhension plus nuancée des niveaux d'explication et d'une action prioritairement orientée vers les leviers systémiques et les "conditions facilitantes".

    1. Compte rendu détaillé : Agir pour l'Éducation

      Ce document de synthèse présente les thèmes principaux et les faits les plus importants abordés lors du webinaire "Agir pour l'éducation", une initiative des professeurs du Collège de France.

      Il vise à récapituler les défis identifiés, les approches proposées et les discussions clés concernant l'amélioration du système éducatif français.

      1. Introduction et Objectifs de l'Initiative

      L'initiative "Agir pour l'éducation" est née d'une prise de conscience collective des professeurs du Collège de France face aux défis du système éducatif français. Comme l'a souligné Stanislas Dehaene, titulaire de la chaire de psychologie cognitive expérimentale et président du Conseil Scientifique de l'Éducation Nationale :

      "Nous nous sommes mobilisés collectivement pour répondre à l'un des grands défis auxquels la France est confrontée actuellement : les difficultés que rencontre notre système éducatif."

      La Fondation UK, dont la création a été récemment finalisée, a pour but de "faire rayonner le Collège de France Royaume-Uni, de soutenir la recherche française et des projets communs entre nos deux pays.

      Le Brexit nous encourage plus que jamais à créer des ponts ou les échanges intellectuels pour que les échanges intellectuels perdurent."

      2. Les Défis Majeurs du Système Éducatif Français Plusieurs points de faiblesse sont mis en évidence, témoignant d'une dégradation de la performance éducative en France :

      • Baisse du niveau dans les fondamentaux, notamment en mathématiques : La France a été classée "derniers d'Europe en mathématiques" lors de l'enquête PISA de l'OCDE en décembre 2020.

      Stanislas Dehaene note une "baisse continue des performances depuis trente ans, on perd à peu près un demi écart-type tous les dix ans, ce qui veut dire que les élèves d'aujourd'hui sont les meilleurs d'aujourd'hui sont au niveau des moyens avoir des médiocres d'il y a 30 ans." Serge Haroche, Prix Nobel de Physique, a trouvé cela "assez inquiétant".

      Un chiffre frappant est qu'environ "trois quarts des élèves de 6ème à l'entrée en 6ème n'ont pas su placer la fraction 1/2 au bon endroit sur une ligne numérique."

      • Accroissement des inégalités : Cette baisse des performances affecte particulièrement les élèves issus de milieux socio-économiques défavorisés.

      Malgré des efforts comme le dédoublement des classes en réseaux d'éducation prioritaire, cela reste insuffisant pour compenser des inégalités plus fortes qu'ailleurs.

      Philippe Aghion, titulaire de la chaire d'économie de l'innovation, souligne que "le revenu des parents compte énormément... les parents qui gagnent davantage sont en général plus éduqués et donc ils transmettent à leurs enfants pas seulement du savoir mais également ce qu'on appelle en anglais aspirations, des perspectives, des ambitions."

      Il insiste sur l'importance d'un système éducatif de qualité et accessible à tous pour stimuler la mobilité sociale et réduire la dépendance à l'origine sociale pour devenir innovateur. * Déficit en "soft skills" (compétences socio-comportementales) : Les élèves français sont "au plus bas de l'échelle" concernant des compétences telles que la collaboration, la persévérance, la confiance en soi et le contrôle de leur propre apprentissage. Il y a une "perte de confiance à l'école". * Formation des enseignants insuffisante : La France est "au bas de l'échelle" en termes de formation, notamment continue, de ses enseignants. Serge Haroche compare la France à des pays comme la Corée du Sud et Singapour, qui ont investi massivement dans le statut et la formation des enseignants pour améliorer drastiquement leur système éducatif. Il déplore que "le statut social qui est donné dans l'autre société différencie de façon excessive les ingénieurs par exemple des enseignants. Il est clair qu'au niveau de la rémunération, il n'y a pas de comparaison possible."

      Stanislas Dehaene mentionne qu'en France, la formation continue est de 18 heures par an, contre plusieurs semaines dans d'autres pays.

      • Sous-représentation des femmes dans les carrières scientifiques et techniques : Notamment en informatique (92% de garçons, 8% de femmes) et en mathématiques pures. Des études menées par le Conseil Scientifique de l'Éducation Nationale (EVA-LCP) montrent que "il n'y a pas de différences entre garçons et filles à l'entrée au CP... et au bout d'un an la différence est très importante."

      3. Axes d'Action Proposés par le Collège de France

      • Les professeurs du Collège de France entendent se mobiliser autour de quatre piliers :

      • Comprendre : Recenser les connaissances, notamment internationales, sur les causes des difficultés françaises, la sociologie des enseignants, et les réactions d'autres pays.

      Pierre-Michel Menger, sociologue, dont la chaire porte sur la dimension créatrice du travail, insiste sur l'étude des trajectoires scolaires en mathématiques et l'analyse fine des facteurs (milieux sociaux, composition des classes, caractéristiques des enseignants) influençant les performances.

      Il propose d' "ouvrir la boîte noire" du monde scolaire et périscolaire.

      • Inspirer : Utiliser les connaissances disciplinaires des professeurs pour conseiller, enthousiasmer et orienter les élèves, notamment les jeunes femmes vers les filières scientifiques. Philippe Aghion a développé le "Campus de l'Innovation pour les Lycées" en partenariat avec le Ministère de l'Éducation Nationale pour permettre aux lycéens de zones prioritaires d'accéder à la recherche en train de se faire et d'éveiller des vocations.

      • Outiller : Développer et diffuser des outils pour mieux apprendre et enseigner. Stanislas Dehaene et son équipe ont créé des logiciels comme "Kalulu" pour aider à automatiser le décodage en lecture et développer des tests de diagnostic des difficultés en mathématiques, notamment concernant les fractions. L'objectif est de les rendre "disponibles dans toutes les classes gratuitement".

      • Expérimenter : Mettre en place des "expérimentations randomisées contrôlées" (RCTs) pour vérifier l'efficacité des propositions, à l'image des travaux d'Esther Duflo (Prix Nobel d'Économie).

      Il est crucial de "vérifier ce qui marche et ce qui ne marche pas" plutôt que de se fier aux convictions.

      4. Projets Spécifiques et Innovations

      • Stanislas Dehaene (Psychologie Cognitive Expérimentale) :
      • Recherche sur l'organisation cérébrale pour les mathématiques et la lecture (25 ans de recherche).
      • Développement d'outils de mesure des performances de lecture et de diagnostic des types de dyslexie.
      • Conception de logiciels d'entraînement pour les élèves (ex: Kalulu pour le décodage en lecture), avec des résultats positifs prouvés par des expérimentations.
      • Volonté de diffuser gratuitement ces outils de diagnostic et d'intervention, notamment pour le premier degré et les mathématiques (ex: test sur les fractions en 6ème).
      • Philippe Aghion (Économie de l'Innovation) :
      • Axé sur la création d'une économie plus innovante et inclusive. L'éducation est un vecteur clé pour l'innovation et la mobilité sociale.
      • Campus de l'Innovation pour les Lycées : Initié en 2016, ce partenariat avec le Ministère de l'Éducation Nationale a touché 4500 lycéens et 900 enseignants entre 2016 et 2021 dans 40 villes. Il vise à apporter le "savoir en train de se faire" aux élèves et enseignants de zones prioritaires.
      • Réforme des programmes SES : Co-création avec Pierre-Michel Menger d'une approche pédagogique pour les sciences économiques et sociales, axée sur l'acquisition de concepts fondamentaux en microéconomie avant la macroéconomie, et le croisement des disciplines.

      Ce programme est devenu le plus choisi après les mathématiques en première et seconde. Extension prévue aux sciences de la vie et aux mathématiques.

      Pierre-Michel Menger (Sociologie du Travail) :

      • Étudie le "learning content" du travail et la relation entre travail et éducation.
      • Travaux sur l'organisation et la compétition dans l'enseignement supérieur et la recherche, la diffusion de la sémantique du talent et la méritocratie.
      • Recherche sur les trajectoires scolaires en mathématiques (primaire aux classes préparatoires), utilisant de vastes enquêtes (PISA, enquêtes nationales).
      • Aborde trois défis majeurs en mathématiques :
      • Élever le niveau moyen et médian des élèves en numératie, en corrigeant les inégalités de départ ("dimension inclusive"). Il insiste sur la transversalité des mathématiques comme "socle indispensable pour s'orienter et pour agir et pour travailler dans le monde".
      • Assurer l'excellence mathématique et l'attractivité pour les chercheurs et doctorants, alors que des signes d'érosion apparaissent (départ de brillants mathématiciens à l'étranger).
      • Lutter contre la "surreprésentation absolument persistante des femmes" en mathématiques.
      • Propose d' "ouvrir la boîte noire" en enquêtant sur le terrain (monde scolaire et périscolaire, clubs de mathématiques) et en mobilisant les parents, les enseignants et les élèves.
      • Serge Haroche (Physique Quantique, Prix Nobel) :
      • Élargit la discussion au contexte international (Brésil, Corée du Sud, Singapour).
      • Souligne la nécessité de donner aux citoyens les moyens d' "apprendre à apprendre" et de développer l'esprit critique.
      • Insiste sur la consolidation des bases (lecture, calcul) comme préalable.
      • Propose d'améliorer le statut et la formation des enseignants pour rendre la profession plus attractive, s'inspirant des exemples coréen et singapourien.
      • Remarque la baisse de l'intérêt pour les sciences chez les jeunes au passage du primaire au collège, en partie due à une formation insuffisante des enseignants dans les matières scientifiques.
      • Suggère d'intégrer l'histoire des sciences dans l'enseignement pour montrer son importance civilisationnelle et inspirer les jeunes.

      5. Débats et Questions Clés

      • Innovation et égalité : La France est égalitaire en termes de revenus après impôts, mais moins en termes de mobilité sociale. L'éducation est un levier essentiel pour stimuler cette mobilité et créer une économie plus innovante et inclusive.

      • Formation des enseignants : Le manque de formation continue (18h/an en France vs plusieurs semaines ailleurs) et le besoin d'actualiser les connaissances pédagogiques sont cruciaux. Il faut s'inspirer de modèles comme l'Education Endowment Foundation (EEF) britannique pour diffuser les recherches sur les stratégies pédagogiques efficaces et déconstruire les "neuromythes" (ex: intelligences multiples).

      • Place de la philosophie : La philosophie, comme les mathématiques, est une "méta-compétence" fondamentale pour le raisonnement logique et l'esprit critique. Son enseignement pourrait être élargi, pas nécessairement comme une spécialité, mais par des approches pédagogiques qui valorisent le débat et la logique.

      • Disparité de genre en sciences : Des études montrent que la différence de niveau en mathématiques entre garçons et filles apparaît très tôt à l'école. Les pistes incluent la présentation de "role models" (femmes scientifiques), une redéfinition de la compétition (favorisant la coopération), et la prise en compte des choix de carrière liés aux perspectives d'épanouissement.

      L'expérimentation de la pédagogie par le jeu en mathématiques est aussi envisagée pour réduire les inégalités.

      • Impact de l'appréciation des professeurs : Des commentaires trop "incisifs" peuvent freiner l'enthousiasme. Un changement d'attitude vers une valorisation des efforts, une positivité et la déculpabilisation de l'échec est nécessaire, s'inspirant des systèmes qui encouragent la "deuxième chance".

      Le concept de "growth mindset" (tout le monde apprend) de Carole Dweck est un modèle à diffuser.

      • Décrochage en mathématiques et sens : La difficulté vient souvent d'un apprentissage par cœur des algorithmes sans connexion profonde avec le "sens" des concepts (ex: ligne numérique pour les fractions).

      Le manque de formation des professeurs du primaire en mathématiques et la difficulté à gérer l'hétérogénéité des classes sont aussi des facteurs.

      • Rôle de l'investissement et de l'autonomie des établissements : Il est souligné que "sans investissement, on ne pourra pas améliorer le système". Les salaires des enseignants sont jugés trop bas, ne valorisant pas suffisamment la profession.

      La Finlande est citée comme exemple pour avoir su réconcilier "standards nationaux et autonomie des chefs d'établissement", permettant des projets pédagogiques innovants et un meilleur encadrement des élèves.

      • Culture de l'effort : Il est important de réintroduire la "culture de l'effort" dans l'enseignement, car "on n'apprend pas sans y mettre une certaine intensité". Il faut que cet effort "paie" et que le système valorise le travail et les compétences.

      En conclusion, le webinaire met en lumière l'urgence d'une mobilisation collective pour transformer le système éducatif français.

      Les professeurs du Collège de France proposent une approche scientifique et expérimentale pour comprendre les problèmes, inspirer les élèves, outiller les enseignants et vérifier l'efficacité des solutions, avec l'ambition de construire une nation plus innovante et inclusive.

    1. It seems like the

      Can do noise calibration. X axis: Cr region percentage; Y axis: Proportion of data points included and do eCDF type graph, then decide on the optimum.

      Or simply, select 80% coverage in 80% interval or so

    1. Note de synthèse : Le rôle du Replay et de la Connaissance Structurelle dans l'Apprentissage et la Cognition

      Cette note de synthèse explore les idées principales présentées par le Professeur Tim Behrens sur la manière dont le cerveau construit des modèles du monde, en mettant l'accent sur le rôle du "replay" (rejeu) et des représentations structurelles dans l'apprentissage et l'inférence.

      1. Le Débat Fondamental en Psychologie : Skinner vs. Tolman L'exposé de Behrens débute par une rétrospective historique du débat entre deux figures majeures de la psychologie du milieu du XXe siècle :

      • B.F. Skinner (Behaviorisme) : Skinner soutenait que tout comportement est contrôlé par la récompense et la punition, à travers un processus de "conditionnement".

      Il affirmait qu'un comportement sophistiqué pouvait être créé en "assemblant" des comportements prédisant une récompense, même à long terme.

      Sa célèbre citation, "The real problem is not where the machines think but whether men do," illustre sa vision externaliste du contrôle du comportement.

      Ses idées ont eu une influence notable sur le système éducatif américain des années 60 et 70.

      • Edward Tolman (Cognitivisme) : À l'opposé, Tolman, étudiant les rats dans des labyrinthes, a démontré que les animaux apprenaient la structure du labyrinthe même en l'absence de récompense.

      Les rats pouvaient trouver des raccourcis plus tard lorsque des récompenses étaient introduites, ce qui suggère l'existence d'une "carte cognitive" interne ou d'un "modèle interne du monde".

      Sa métaphore était que "the central office itself is far more like a map controll room than it is like an oldfashioned telephone exchange."

      • Behrens conclut que "obviously like all debates in the history of science both of them are right to some extent or the other both of these processes exist in the brain", mais que la "knowledge structure process is a very interesting one and certainly has an increasing reliance as you get higher up The evolutionary chain towards primates and humans." Le cœur de la présentation est de comprendre à quoi ressemble cette "carte" et comment elle est construite dans le cerveau.

      2. La Représentation des Relations et la Généralisation

      • La construction d'un modèle du monde repose sur la compréhension des relations entre les choses. Behrens propose deux manières pour le cerveau de représenter ces liens :

      • Liaisons synaptiques directes : Des neurones associés à deux concepts (ex: Starbucks et café) pourraient former de nouvelles synapses pour s'activer mutuellement. C'est le principe de l'apprentissage associatif.

      • Neurones représentant explicitement les relations : Une approche plus sophistiquée implique des populations distinctes de neurones qui encodent la structure des relations elles-mêmes. L'avantage crucial de cette méthode est la capacité d'inférence et de généralisation.

      Si la relation entre la fée Starbucks et le café est encodée explicitement, le même mécanisme neuronal peut être utilisé pour comprendre la relation entre le "whoosh" de Nike et une chaussure, permettant une inférence comme "I can buy the shoe wherever I see the Nike whoosh."

      3. Les Cellules de Grille et de Lieu : Les Fondements des Cartes Cognitives

      • La démonstration de la représentation structurelle débute avec les découvertes en neurosciences spatiales chez les rongeurs :

      • Cellules de Lieu (Hippocampe) : Ces neurones s'activent lorsque l'animal se trouve dans une position spécifique de l'environnement.

      • Cellules de Grille (Cortex Entorhinal) : Ces cellules sont "super cool cells" qui s'activent selon un motif hexagonal régulier et "understand the structure of the problem that you're talking about". Elles fournissent un système de coordonnées pour la navigation spatiale. Il n'y aurait "no reason to have such a cell if you were not optimized for running around a two-dimensional plane."

      • Cellules de Vecteur d'Objet : Ces neurones représentent un vecteur entre la position actuelle de l'animal et un objet intéressant (ex: "I'm this Vector away from something interesting like a piece of cheese").

      • L'existence de ces cellules permet des inférences spatiales complexes, comme trouver un raccourci vers la récompense, au lieu de simplement reproduire le chemin appris (comme le prédirait Skinner).

      4. La Généralisation des Cellules de Grille aux Domaines Non-Spatiaux

      • Une idée centrale de l'équipe de Behrens est que ces "types of solutions are general types of solutions for many of the problems". Des preuves s'accumulent que les cellules de grille et des systèmes de coordonnées similaires peuvent être utilisés pour des problèmes non-spatiaux :

      • Espace de Fréquence : Des cellules de grille ont été observées chez les rats naviguant dans un espace de fréquence tonale, se comportant "as if you're moving through real space".

      • Dimensions Sémantiques : Dans des études sur les humains (via des "smoke signals" ou des signaux indirects détectés par MEG), des activités similaires aux cellules de grille ont été observées pour des problèmes à deux dimensions non spatiales, comme la longueur des pattes et du cou des oiseaux.

      Plus récemment, des cellules de grille non spatiales ont été enregistrées directement chez le singe, ce qui est "very exciting for me because I started this this thing I guess 12 15 years ago and now we can really see them."

      • Hiérarchies de Séquences : Même pour des structures non bidimensionnelles, comme les hiérarchies temporelles (jours, semaines, mois, années), des preuves indirectes de systèmes de coordonnées similaires ont été trouvées chez l'homme.

      • Ces découvertes renforcent l'idée que ces représentations structurelles sont des "General structural representations of the relationships between objects in your brain."

      5. Le Phénomène de Replay et son Rôle dans l'Inférence

      • Le "replay" est un phénomène d'activité neuronale rapide qui récapitule des séquences d'événements, se produisant souvent pendant le repos ou le sommeil. Behrens soutient que le replay n'est pas seulement une consolidation passive de la mémoire, mais un processus actif d'inférence sur des futurs possibles :

      • Décodage du Replay chez l'Humain : En utilisant la magnétoencéphalographie (MEG), les chercheurs peuvent décoder l'activité cérébrale pendant le repos et voir quelles séquences de stimuli sont "rejouées".

      • Replay Inférentiel : Dans une expérience inspirée de Kill Bill de Tarantino (où l'ordre des chapitres est jumbé), les sujets humains apprenaient des séquences d'événements dans le désordre.

      Pendant les périodes de repos, le replay ne montrait pas la séquence désordonnée vécue, mais la séquence "désembrouillée" et logiquement correcte.

      "What's happening in this rest period after we show subjects the jumbled up sequences... their brain in this rest period is going ABCD ABCD ABCD ABCD with like 40 milliseconds between them and these little packets the little packets being played out doing an inference over what's what's happened."

      Ce processus se produit rapidement (environ 40-50 millisecondes par élément).

      • Lien avec la Structure : Le replay utilise la connaissance structurelle préexistante (par exemple, l'ordre causal des événements) pour réorganiser et inférer des relations non directement vécues.

      • Replay dans la Vie Quotidienne : Des études montrent que le replay se produit "whenever the movie pauses at a scene boundary doing all all sorts of reorganization."

      Ce qui suggère aux éducateurs de "pause regularly when you're trying to explain something to give the opportunity for lots of Replay packets to be to be reorganized in your in your other people's brains."

      6. Mécanismes Cellulaires du Replay Inférentiel

      • Behrens explique comment le replay pourrait permettre la construction de cartes et l'inférence au niveau neuronal :

      • Construction de Cartes à partir de la Récompense :

      L'argument est que l'animal ne planifie pas seulement au moment de l'action, mais que le fait de trouver une récompense déclenche des paquets de replay qui construisent une carte de directions vers cette récompense depuis d'autres endroits de l'environnement. Ces replays "build an entire map to get to that cheese."

      • Association Coordonnée-Vecteur : Le replay lierait la position actuelle (coordonnée) avec un "neurone vecteur" (ex: "cheese over there neuron") pour créer une nouvelle "place field" (champ de lieu) ou modifier une existante. Si le point de récompense se déplace, le replay désassocie l'ancien vecteur et l'associe au nouveau.

      "The replay is taking the neuron that says cheese over here and it's moving it to say cheese is over there now right and so that's what the replay is doing and it's doing this throughout the whole map it's just going around the whole map organizing your representations to point you towards the cheese doing this inference in rest not at the time when you're going to need it when you need it but doing it way before you need it so that it's much quicker when you need it."

      • Surreprésentation des Neurones Vecteurs : Les neurones de vecteur seraient particulièrement représentés dans ces replays, suggérant qu'ils sont la cible principale de cette réorganisation.

      7. Replay Rapide vs. Replay Lent et leur Impact sur la Performance

      • Dans des tâches cognitives plus complexes chez l'humain (comme un jeu de cartes avec des dimensions d'attaque/défense), deux types de replay sont observés :

      • Replay Rapide (Fast Replay, ~50 ms) : Associé à une meilleure performance et à l'utilisation du système de coordonnées interne.

      Plus on a de replay rapide, moins on a besoin de "réfléchir" consciemment.

      Il se situe dans les zones du lobe temporal médian (hippocampe, cortex entorhinal).

      • Replay Lent (Slow Replay, ~150 ms) : Associé à une performance plus faible et à la nécessité de la "pensée" consciente. Il semble provenir davantage du cortex frontal.

      • Ces résultats suggèrent que le replay rapide, qui construit des cartes en mode hors ligne, "is preventing you from having to do this rapid thinking online."

      8. L'Importance du Repos et du Sommeil pour la Construction de Connaissances Structurelles

      • Behrens insiste sur le fait que le cerveau continue de "remplir la carte" pendant les périodes de repos :

      • Construction Hors Ligne de la Carte : Même lorsque les informations sont apprises de manière unidimensionnelle, le cerveau utilise le replay pendant le repos pour construire la carte complète bidimensionnelle.

      "It replays in the two- dimensional in the full two two Dimensions during rest when there's no inferences going on in in their behavior they're just sitting there the brain in the background is is sending these little packets filling out the map building in the two-dimensional replay."

      • Impact sur la Performance Future : "If you do that offline then later online you have more grid cell activity and you're better at the task."

      • Conseil Pratique : "All the time when you're just sitting around having a cup of tea what you should be doing what your brain is doing is filling in all the experiences that you've had that day and making them all match up with each other so that you um so so that you when you get asked a question later you know the answer already you don't have to think about it there and then so get lots of rest and have lots of Cups of Tea."

      • Lien avec l'Éducation et le QI : Les signaux de replay et de structure se développent "in the school time in the age of of school from 8 to 18 and they predict measures real world measures like IQ much better than things like age do."

      Ceci soutient l'idée que les programmes éducatifs devraient se concentrer sur le "developing Rich structural knowledge" plutôt que sur le conditionnement par récompense/punition ("take that Skinner!").

      • Replay et Sommeil Lent : Ces paquets d'activité sont les plus forts pendant le sommeil à ondes lentes, soulignant l'importance du sommeil pour l'organisation des connaissances.

      9. Discussion : Homme vs. Rongeur et Spécialisation Corticale

      • Similarité des Principes Mécanistiques : Behrens reconnaît que le répertoire structurel est "much richer in humans than it is in other species" mais pense que "the principles by which they mechanistically operate are the same." Cela justifie l'étude des mécanismes de base chez les rongeurs.

      • Transfert de Connaissances Hippocampe-Cortex : Il y a "definitely such a transfer" d'informations de l'hippocampe vers le reste du cortex pendant le sommeil.

      Une "onde d'activité" se propage de l'hippocampe vers le cortex entorhinal, puis le cortex préfrontal médian et pariétal médian, avant d'atteindre les cortex associatifs et sensorimoteurs. Ces régions médianes pourraient "mediate the communication of hippocampus to the rest of Cortex."

      • Le Modèle en "Anneaux d'Oignon" (Onion Rings) : Behrens propose une métaphore où les structures les plus universelles et fréquemment utilisées (comme l'espace ou les hiérarchies) seraient représentées "closest to the hippocampus", tandis que les structures plus spécialisées (comme la grammaire du langage) seraient plus éloignées, dans les systèmes corticaux dédiés.

      L'objectif est de construire les souvenirs avec le moins de nouvelles synapses possible, en utilisant au maximum les connaissances antérieures.

    1. Exposé Détaillé : Les États Hybrides Veille-Sommeil et les Fonctions Cognitives du Sommeil

      Ce document de synthèse présente les thèmes principaux, les idées essentielles et les faits marquants issus des extraits de la conférence de Stanislas Dehaene et de la présentation d'Isabelle Arnulf intitulée "Les états hybrides veille sommeil une fenêtre sur les fonctions cognitives du sommeil".

      1. Introduction : L'accès au Rêve et la Notion d'États Hybrides

      Isabelle Arnulf, Professeur de neurologie et chef de service des pathologies du sommeil à l'hôpital de la Pitié-Salpêtrière, souligne la difficulté majeure d'étudier les fonctions cognitives du sommeil : l'accès au rêve.

      Elle définit le rêve non seulement comme les "grands scénarios immersifs" mais aussi comme "tout ce qui est pensée, émotion, sensation, ressenti pendant le sommeil".

      Le défi réside dans le fait que le contenu cognitif est vécu pendant le sommeil, et l'approche traditionnelle de réveil du dormeur pour recueillir des souvenirs présente des biais significatifs :

      Oubli massif : "plus de 99 % de nos rêves soient oubliés à partir du moment où on se réveille". Distorsion du récit : La transformation du rêve en récit peut être inexacte en raison de la reconstruction difficile et de l'auto-censure.

      Manque de temporalité : L'incapacité de situer précisément le rêve par rapport au moment du réveil. Pour pallier ces difficultés, la recherche s'est orientée vers l'obtention de "marqueurs du rêve au moment où il se passe pendant le sommeil", notamment grâce aux "états hybrides" entre veille et sommeil.

      Ces états sont des zones frontalières où le cerveau n'est ni totalement éveillé ni totalement endormi, donnant lieu à des comportements ou des expériences particulières.

      2. Les États Hybrides Veille-Sommeil comme Fenêtre sur le Rêve

      Isabelle Arnulf identifie plusieurs états hybrides, qu'elle classe selon qu'ils se produisent entre :

      Veille et sommeil lent profond : somnambulisme, terreurs nocturnes, parler dans le sommeil (somniloquie), éveils confusionnels.

      Veille et sommeil paradoxal : cataplexie, troubles comportementaux en sommeil paradoxal (TCSP), parler en sommeil paradoxal, rêve lucide, hypnagogies (entre veille et sommeil lent léger).

      La présentation se focalise sur les TCSP, le somnambulisme, les terreurs nocturnes, la somniloquie et le rêve lucide, car ils offrent des pistes directes pour l'étude des rêves.

      2.1. Les Troubles Comportementaux en Sommeil Paradoxal (TCSP)

      Définition : Rêves et cauchemars agités, survenant généralement chez les personnes de plus de 50 ans.

      Le dormeur "va souvent donner des coups de poing, des coups de pied, parler, insulter dans son sommeil".

      Congruence avec le rêve : Le contenu mental rapporté au réveil est "congruent et isomorphe au comportement qu'on a vu avant", ce qui en fait un "outil assez extraordinaire pour voir les rêves en comportement". Physiologie : Normalement, le sommeil paradoxal est caractérisé par une atonie musculaire (paralysie).

      Chez les patients TCSP, le "verrou qui nous paralyse dans la phase paradoxale n'est pas complètement effectif", permettant l'expression physique des rêves.

      Conséquences : Les comportements violents peuvent entraîner des blessures pour le dormeur ou son conjoint.

      La paralysie pendant le sommeil paradoxal est donc cruciale pour la sécurité.

      Variété des comportements : Au-delà des violences, la perte de l'atonie musculaire peut révéler des comportements non-violents, mais toujours associés à des souvenirs de rêve congruents, comme chanter ou mimer des actions.

      Analogie animale : Michel Jouvet a pu déclencher des comportements oniriques chez les chats en ciblant la zone du tronc cérébral responsable de l'atonie, confirmant l'existence d'une dégénérescence similaire chez les patients TCSP.

      Marqueur précoce de maladies neurodégénératives : Le TCSP est un "très haut risque" de développer dans les années qui suivent une maladie de Parkinson ou des corps de Lewy.

      La dégénérescence d'une région focale du cerveau (locus coeruleus et subcoeruleus) est associée à ce trouble. Cela en fait un sujet de recherche majeur pour le prodrome de ces maladies.

      2.2. Les Parasomnies de Sommeil Lent Profond (Somnambulisme, Terreurs Nocturnes)

      Définition : Comportements anormaux (marche, fuite, cris) observés à la lisière de l'éveil et du sommeil lent profond.

      Cerveau hybride : Pendant ces épisodes, le "la partie postérieure du cerveau est réveillé la partie antérieure est encore dans du sommeil profond".

      Contenu onirique : Contrairement à l'idée reçue, les somnambules peuvent rêver. "76 % des adultes avec ces phénomènes là [...] ont occasionnellement le rappel d'un contenu de rêve qui est associé à l'épisode et qui une fois de plus est isomorphe au comportement qu'on a vu avant". Ces rêves sont souvent plus brefs et liés à des "catastrophes imminentes".

      Perception de l'environnement : À la différence des TCSP où le dormeur est dans un autre monde, les somnambules et sujets aux terreurs nocturnes ont une "perception de la chambre et de leur contenu de rêve qui apparaît comme une sorte d'hologramme dans la chambre".

      Origine des rêves : L'accélération cardiaque et l'activation des régions postérieures du cerveau jusqu'à 20 secondes avant le début du comportement suggèrent que l'expérience mentale commence avant le réveil moteur, et n'est pas simplement une création au moment de l'éveil partiel.

      3. Les Fonctions Cognitives du Sommeil et du Rêve

      La recherche utilise ces états hybrides pour "mieux décrire le contenu mental" et "tester des hypothèses sur les fonctions cognitives du sommeil et du rêve".

      3.1. La Simulation de la Menace (Théorie de Revonsuo) Hypothèse : La théorie de Revonsuo (2000) suggère que le rêve permet de "s'entraîner à faire face à la menace" et aurait une fonction darwinienne.

      Corrélation avec les TCSP et le somnambulisme : "60 à 70 % se rappelle que c'était un scénario de menace" dans les rêves des patients TCSP et des somnambules.

      Somnambules (sommeil lent profond) : Majoritairement des catastrophes (inondation, murs qui s'écroulent) avec une réponse de fuite ("100 % [...] fuit hors du lit"). TCSP (sommeil paradoxal) : Plus d'agressions par des personnes et des animaux avec une réponse de contre-attaque ("75 % [...] contre-attaque dans le lit"). Rêves des étudiants en médecine avant le concours : Une étude auprès de 2324 étudiants a montré que 171 sur 188 qui se souvenaient d'un rêve la veille de l'examen avaient "rêvé de l'examen" et l'avaient "raté de toutes les manières possibles". Le fait de rêver du concours, même négativement, "donne un demi-point de plus" à la note, suggérant un "gain cognitif" et corroborant la théorie de Revonsuo sur l'entraînement face à des situations stressantes.

      3.2. Le Langage pendant le Sommeil (Somniloquie) Méthodologie : Enregistrement et transcription de 883 vocalisations (dont 703 phrases complètes) sur environ 200 personnes.

      Caractéristiques du langage nocturne :Négativité : Le mot le plus fréquent est "non", et les tournures négatives représentent plus de 9 % des énoncés, bien plus que dans la conversation éveillée. Vulgarité : "les mots vulgaires sont beaucoup plus fréquents que dans la conversation d'éveil". Ils sont plus fréquents en sommeil lent qu'en sommeil paradoxal (où ce sont plutôt des insultes). Structure : Le langage est "adressé à une personne", respecte la grammaire, le tour de parole, et peut être complexe. Les gestes co-verbaux sont également "parfaitement conservés". Différences avec l'éveil : Plus de marmonnements, une parole "plus négative, plus répétée" et "plus vulgaire", suggérant une expression moins censurée ou plus primitive du contenu mental.

      3.3. La Consolidation de la Mémoire et la Réexécution des Apprentissages

      • Hypothèse : Le sommeil consolide la mémoire. La question est de savoir si les apprentissages récents sont réexécutés dans les rêves.
      • Expérience : Des patients somnambules et TCSP ont appris une chorégraphie ou un texte avant de dormir.
      • Résultats : La mémoire procédurale (chorégraphie) et verbale (texte) était bien consolidée. Cependant, la réexécution des comportements appris pendant le sommeil était "une grande déception" et "assez rare", suggérant que la fenêtre d'observation est trop étroite.
      • Cas anecdotique : Un patient TCSP a reproduit des mouvements de "taping" (examen neurologique) pendant son sommeil paradoxal, montrant une certaine transparence de l'apprentissage dans le rêve.

      3.4. La Régulation des Émotions

      • Fonction connue : Le sommeil aide à "digérer les émotions négatives", comme le montre le fait qu'une nuit de sommeil permet de répondre de manière plus rationnelle à un e-mail agressif.
      • Expression faciale des émotions pendant le sommeil :Sourires : Les adultes, y compris les personnes normales, sourient pendant leur sommeil (sommeil lent léger et paradoxal). 52 % de ces sourires sont des "sourires de Duchène", associés à de "vraies émotions positives".
      • Émotions négatives : Les froncements de sourcils (corrugator) sont fréquents dans tous les sujets. Les expressions complètes de mécontentement, peur ou colère sont observées "uniquement les troubles comportementaux en sommeil paradoxal".
      • Lien avec les mouvements oculaires rapides (MOR) : Les émotions négatives sont "très fortement associées [...] aux bouffées de mouvement oculaire" en sommeil paradoxal. Cela rappelle la technique de l'EMDR (Eye Movement Desensitization and Reprocessing) utilisée pour digérer les traumatismes, suggérant que les MOR rapides pourraient aider à traiter les émotions négatives pendant le sommeil paradoxal.
      • Dynamique des émotions pendant le sommeil paradoxal : Les émotions négatives apparaissent plus tôt (pic autour de 10 minutes) et sont plus présentes au début de la phase. Le cerveau semble traiter les émotions "à très haute vitesse", passant rapidement du positif au négatif, ce qui pourrait "éviter trop d'émotions négatives si elle se suivait sans arrêt".

      3.5. La Créativité et les Hypnagogies

      • Anectodes de chercheurs et artistes : Einstein et Mendeleïev auraient eu des intuitions créatives en rêve.
      • Méthode d'Edison : Thomas Edison utilisait une méthode pour se réveiller au début de l'endormissement (hypnagogies) pour capturer des "bonnes idées". Kekulé aurait découvert la structure du benzène lors d'une rêverie hypnagogique.
      • Expérience sur la résolution de problèmes : Des participants ont tenté de résoudre une tâche de réduction de nombres (avec une règle cachée) avant de dormir, puis se sont reposés avec une bouteille à la main (méthode d'Edison).
      • Résultats : Ceux qui se sont réveillés après 30 à 60 secondes de sommeil lent léger (stade N1) grâce à la chute de la bouteille ont eu un taux de réussite de 83 % pour trouver la solution cachée. Ceux qui sont restés éveillés ou qui sont passés en sommeil N2 n'ont pas trouvé la solution.
      • Explication : La résolution du problème semble nécessiter un "cocktail EEG favorable", un mélange de "réflexion de l'éveil et de déjà l'imagination la pensée un peu métaphorique en image du sommeil". Les hypnagogies, images et petits scénarios qui apparaissent à l'endormissement, sont clés pour cette créativité.

      4. Conclusion : Le Sommeil comme "Boîte Noire" du Contenu Mental

      Isabelle Arnulf conclut que "il y a une activité mentale dans tous les stades de sommeil" avec des fonctions potentielles de "mémoriser de simuler les menaces de réguler les émotions peut-être de développer la créativité peut-être peut-être aussi l'empathie". Les parasomnies (états hybrides) sont des "fenêtres directes étroites [...] mais riches sur ces conditions et ses émotions pendant le sommeil". Le sommeil est une "boîte noire" que ces "fragmentations" permettent d'explorer, révélant le "cristal qui est à l'intérieur qui est ce contenu mental".

      Enfin, elle mentionne l'importance clinique de cette recherche, notamment la capacité de modifier les cauchemars récurrents par la "répétition d'image mentale" (Image Rehearsal Therapy), soulignant comment la compréhension du traitement cognitif pendant le sommeil peut être utilisée pour des interventions thérapeutiques.

    1. utánea a fin de reducir el riesgo de infección, cicatrización y alteración de la función. Esto puede lograrse por uno de tres métodos: primario, secundario y tardío. Con

      preguntas al profe @JuliethDG

    1. [2]

      la referencia bibliografica no se pone al lado de una ecuación. En este caso, había que ponerla en "...esta dada por [2], " y luego va la ecuación

    2. Esto provienede que los valores obtenidos con la sonda para la misma dirección eran muy parecidos, por loque al hacer la resta y dividirlos por dos se obtuvo un número muy pequeño.

      Al medir el campo en una dirección B_0 y en la otra B_180, los módulos deberían ser parecidos pero lo que cambia es el signo. Supongamos que B_180<0, entonces al tomar el promedio B_0 - (-B_180)/ 2 estos en realidad se sumaban. Por lo que vi en el cuaderno, Clase 20/05/25, pareciera ser que se quedaron solo con el modulo sin tener en cuenta el signo. Por suerte, cuando hicieron el exp de la bobina si lo tuvieron en cuenta.

    3. En esta experiencia, directamente se inviertio el campomagnético cambiando la polaridad de la fuente y los valores que se mostrarán serán con estacálculo ya incorporado. En segundo lugar, el medidor cuenta con dos escalas; naturalmente paralos puntos en que no saturaba la escala menor fue utilizada y en los puntos de mayor intensidadse usó la escala más grande

      redacción poco clara

    4. En el presente trabajo se estudiará el campo magnético terrestre y el generado por un tubocon dos bobinas en su eje

      antes de ir directamente al grano de lo que hicieron queda bien hacer un pequeño párrafo introductorio general acerca del fenómeno que quieren estudiar

  6. drive.google.com drive.google.com
    1. norte magn ́etico y un m ́ınimo correspondiente al sur magn ́etico

      la componente vertical no se mide respecto del norte o sur magnético, no me queda claro que fue lo que quisieron. Deberían haber aclarado mejor en la descripción de la experiencia como fue que ""giraron" la sonda. En estos casos lo mejor es definir un sistema de coordenadas y referir la descripción a ese sistema, sin ambigüedades

    2. el montaje experimentales fiable

      dicho así parece que el objetivo del experimento era determinar que el montaje era fiable, y esa no era la idea

    3. los valore

      Tienen que explicar mejor como obtuvieron esos valores, fue promediando? tomaron el valor en el máximo de las curvas? es ese el valor total o una componente?. Convenia antes de presentar el resultado, presentar las curvas, y a partir de la descripción de estas contar como obtuvieron los valores.

    4. Vo se mantiene constante

      justamente el problema con V0 es que no se mantiene constante, puede depender de temperatura por eso uno quiere sacarselo de encima rápido en al medición. Lo que habia que hacer era fijar la sonda en una posición medir B_0 con la corriente para un lado, medir B_180 con la corriente para el otro lado, y hacer (B_0- B_180)/2 para obtener el valor del campo, de esa manera se sacaban de encima V0. No era la idea calcular V0

    5. Esta discre-pancia se atribuy ́o a posibles interferencias de campos magn ́eticos externos en el laboratorio,aunque se valid ́o la fiabilidad del m ́etodo experimental. Tambi ́en se pudo evidenciar un errorhumano al final de las muestras de datos horizontales y verticales, generando un desfase entrelos valores iniciales y finales de las mismas

      esta explicación no se pone en la parte de resumen

    1. Ya que en nuestros resultados encontramos un “valle” entre dos picos, loque nos indicaría estar trabajando con dos solenoides distintos, y no uno solo muy largo, loque es de esperarse al analizar nuestro arreglo experimental (figura 1), ya que nuestrosolenoide está compuesto por dos solenoides menores e idénticos conectados en serie

      Esta discusión es un poco trivial, les recomiendo que vayan directamente al grano. "Dado que en nuestro arreglo experimental tenemos dos solenoides en serie, utilizamos para el ajuste el modelo dado por al ecuación (2)"

    2. con cinta adhesiva nuestra sonda junto a una regla de gran longitudmientras que al mismo tiempo las elevamos a ambas haciendo uso de unas cajas para quequeden lo más cercano al centro del solenoide posible y también para priorizar la practicidadal mover o tener que alterar el arreglo, ya que necesitaremos ir variando la posición en la cualse encuentra la sonda.

      Redacción poco clara. Yo lo entiendo por que conozco el experimento, pero a un lector que no sabe lo que hicieron se le puede complicar entender. No es conveniente usar oraciones tan largas. Les sugiero realizar oraciones cortas y concisas, priorizando claridad en la transmisión de información

    1. Author response:

      Public Reviews:

      Reviewer #1 (Public review):

      Summary:

      In this interesting and original paper, the authors examine the effect that heat stress can have on the ability of bacterial cells to evade infection by lytic bacteriophages. Briefly, the authors show that heat stress increases the tolerance of Klebsiella pneumoniae to infection by the lytic phage Kp11. They also argue that this increased tolerance facilitates the evolution of genetically encoded resistance to the phage. In addition, they show that heat can reduce the efficacy of phage therapy. Moreover, they define a likely mechanistic reason for both tolerance and genetically encoded resistance. Both lead to a reorganization of the bacterial cell envelope, which reduces the likelihood that phage can successfully inject their DNA.

      Strengths:

      I found large parts of this paper well-written and clearly presented. I also found many of the experiments simple yet compelling. For example, the experiments described in Figure 3 clearly show that prior heat exposure can affect the efficacy of phage therapy. In addition, the experiments shown in Figures 4 and 6 clearly demonstrate the likely mechanistic cause of this effect. The conceptual Figure 7 is clear and illustrates the main ideas well. I think this paper would work even without its central claim, namely that tolerance facilitates the evolution of resistance. The reason is that the effect of environmental stressors on stress tolerance has to my knowledge so far only been shown for drug tolerance, not for tolerance to an antagonistic species.

      Weaknesses:

      I did not detect any weaknesses that would require a major reorganization of the paper, or that may require crucial new experiments. However, the paper needs some work in clarifying specific and central conclusions that the authors draw. More specifically, it needs to improve the connection between what is shown in some figures, how these figures are described in the caption, and how they are discussed in the main text. This is especially glaring with respect to the central claim of the paper from the title, namely that tolerance facilitates the evolution of resistance. I am sympathetic to that claim, especially because this has been shown elsewhere, not for phage resistance but for antibiotic resistance. However, in the description of the results, this is perhaps the weakest aspect of the paper, so I'm a bit mystified as to why the authors focus on this claim. As I mentioned above, the paper could stand on its own even without this claim.

      Thank you for your feedback. We understand your concern regarding the central claim that tolerance facilitates the evolution of resistance, while the paper can stand on its own without this claim, we think it provides an important layer to the interpretation of our findings. Considering your comments, we plan to revise the title and adjust to “Heat Stress Induces Phage Tolerance in Bacteria”.

      More specific examples where clarification is needed:

      (1) A key figure of the paper seems to be Figure 2D, yet it was one of the most confusing figures. This results from a mismatch between the accompanying text starting on line 92 and the figure itself. The first thing that the reader notices in the figure itself is the huge discrepancy between the number of viable colonies in the absence of phage infection at the two-hour time point. Yet this observation is not even mentioned in the main text. The exclusive focus of the main text seems to be on the right-hand side of the figure, labeled "+Phage". It is from this right-hand panel that the authors seem to conclude that heat stress facilitates the evolution of resistance. I find this confusing, because there is no difference between the heat-treated and non-treated cells in survivorship, and it is not clear from this data that survivorship is caused by resistance, not by tolerance/persistence. (The difference between tolerance and resistance has only been shown in the independent experiments of Figure 1B.)

      Thank you for your helpful comment. Figure 2d presents colony counts from a plating assay following the phage killing experiment in Figure 2c. Bacteria collected after 0 and 2 hours of phage exposure were plated on both phage-free (−phage) and phage-containing (+phage) plates. The “−phage” condition reflects total survivors, while the “+phage” condition indicates the resistant subset.

      As seen in Figure 2d (left part), heat-treated bacteria showed markedly higher survival on phage-free plates than untreated cells, which were largely eliminated by phage. However, resistant colony counts on phage-containing plates were similar between two groups (as shown in figure 2d right part), suggesting that heat stress increased survival but did not promote resistance.

      To clarify, we have revised the labels in Figure 2d as follows: “Total” will replace “-phage” to indicate the total survivors from the phage killing assay, and “Resisters” will replace “+phage” to indicate the resistant survivors, which are detected on phage-containing plates. This adjustment should eliminate any confusion and better reflect the experimental design.

      Figure 2F supports the resistance claim, but it is not one of the strongest experiments of the paper, because the author simply only used "turbidity" as an indicator of resistance. In addition, the authors performed the experiments described therein at small population sizes to avoid the presence of resistance mutations. But how do we know that the turbidity they describe does not result from persisters?

      I see three possibilities to address these issues. First, perhaps this is all a matter of explaining and motivating this particular experiment better. Second, the central claim of the paper may require additional experiments. For example, is it possible to block heat induced tolerance through specific mutations, and show that phage resistance does not evolve as rapidly if tolerance is blocked? A third possibility is to tone down the claim of the paper and make it about heat tolerance rather than the evolution of heat resistance.

      Thank you for your thoughtful comment. We appreciate the opportunity to clarify the interpretation of Figure 2f and the rationale behind the experimental design. We agree that turbidity alone cannot fully distinguish resistance from persistence. However, our earlier experiments (Figures 2d and 2e) demonstrated that heat-treated survivors remained largely susceptible to phage, indicating that heat stress does not directly induce resistance. This led us to hypothesize that heat enhances phage tolerance, which in turn increases the likelihood of resistance emergence during subsequent infection.

      To test this, we used a low initial bacterial population (~10³ CFU per well) to minimize the chance of pre-existing resistance. Bacteria were exposed to phages at MOIs of 1, 10, and 100 and incubated for 24 hours in 100 µL volumes. This setup ensured:

      (1) The low initial population minimizes the presence of pre-existing resistant mutants, ensuring that any phage-resistant bacteria observed arise during the infection process.

      (2) The high MOI (≥ 1) ensures that each bacterial cell has a high probability of infection by at least one phage.

      (3) The small volume (100 µL per well) maximizes the interaction between bacteria and phages, ensuring rapid infection of susceptible bacteria, which leads to clear wells. If resistant mutants arise, they will grow and cause turbidity.

      Thus, the turbidity observed in heat-treated samples reflects de novo emergence and outgrowth of resistant mutants from a tolerant population. This assay supports the idea that heat-induced tolerance increases the probability of resistance evolution, rather than directly causing resistance.

      We have revised the text to better explain this experimental logic and adjust the framing of our conclusions accordingly.

      A minor but general point here is that in Figure 2D and in other figures, the labels "-phage" and "+phage" do not facilitate understanding, because they suggest that cells in the "-phage" treatment have not been exposed to phage at all, but that is not the case. They have survived previous phage treatment and are then replated on media lacking phage.

      Thank you for your valuable comment. To clarify, we have revised the labels in Figure 2d as follows: “Total” will replace “-phage” to indicate the total survivors from the phage killing assay, and “Resisters” will replace “+phage” to indicate the resistant survivors, which are detected on phage-containing plates.

      (2) Another figure with a mismatch between text and visual materials is Figure 5, specifically Figures 5B-F. The figure is about two different mutants, and it is not even mentioned in the text how these mutants were identified, for example in different or the same replicate populations. What is more, the two mutants are not discussed at all in the main text. That is, the text, starting on line 221 discusses these experiments as if there was only one mutant. This is especially striking as the two mutants behave very differently, as, for example, in Figure 5C. Implicitly, the text talks about the mutant ending in "...C2", and not the one ending in "...C1". To add to the confusion, the text states that the (C2) mutant shows a change in the pspA gene, but in Figure 5f, it is the other (undiscussed) mutant that has a mutation in this gene. Only pspA is discussed further, so what about the other mutants? More generally, it is hard to believe that these were the only mutants that occurred in the genome during experimental evolution. It would be useful to give the reader a 2-3 sentence summary of the genetic diversity that experimental evolution generated.

      Thank you for your thoughtful comment. In our heat treatment evolutionary experiment, we isolated six distinct bacterial clones, of which two are highlighted in the manuscript as representative examples. One clone, BC2G11C1, acquired both heat tolerance and phage resistance, while another clone, BC3G11C2, became heat-tolerant but did not develop resistance to phage infection. This variation highlights the inherent diversity in evolutionary responses when exposed to selective pressures. It demonstrates that not all evolutionary pathways lead to the same outcome, even under similar stress conditions. This variability is a key observation in our study, illustrating that different genetic adaptations may arise depending on the specific mutations or genetic context, and not every strain will evolve phage resistance in parallel with heat tolerance. We have updated the manuscript to better reflect this diversity in the evolutionary trajectories observed.

      Reviewer #2 (Public review):

      Summary:

      An initial screening of pretreatment with different stress treatments of K. pneumoniae allowed the identification of heat stress as a protection factor against the infection of the lytic phage Kp11. Then experiments prove that this is mediated not by an increase of phage-resistant bacteria but due to an increase in phage transient tolerant population, which the authors identified as bacteriophage persistence in analogy to antibiotic persistence. Then they proved that phage persistence mediated by heat shock enhanced the evolution of bacterial resistance against the phage. The same trait was observed using other lytic phages, their combinations, and two clinical strains, as well as E. coli and two T phages, hence the phenomenon may be widespread in enterobacteria.

      Next, the elucidation of heat-induced phage persistence was done, determining that phage adsorption was not affected but phage DNA internalization was impaired by the heat pretreatment, likely due to alterations in the bacterial envelope, including the downregulation of envelope proteins and of LPS; furthermore, heat treated bacteria were less sensitive to polymyxins due to the decrease in LPS.

      Finally, cyclic exposure to heat stress allowed the isolation of a mutant that was both resistant to heat treatment, polymyxins, and lytic phage, that mutant had alterations in PspA protein that allowed a gain of function and that promoted the reduction of capsule production and loss of its structure; nevertheless this mutant was severely impaired in immune evasion as it was easily cleared from mice blood, evidencing the tradeoffs between phage/heat and antibiotic resistance and the ability to counteract the immune response.

      Strengths:

      The experimental design and the sequence in which they are presented are ideal for the understanding of their study and the conclusions are supported by the findings, also the discussion points out the relevance of their work particularly in the effectiveness of phage therapy and allows the design of strategies to improve their effectiveness.

      Weaknesses:

      In its present form, it lacks the incorporation of some relevant previous work that explored the role of heat stress in phage susceptibility, antibiotic susceptibility, tradeoffs between phage resistance and resistance against other kinds of stress, virulence, etc., and the fact that exposure to lytic phages induces antibiotic persistence.

      Thank you for your insightful comments. I appreciate your suggestion regarding the inclusion of relevant previous works. I have now incorporated additional citations to discuss these points, including studies on the relationship between heat stress and antibiotic resistance, as well as the tradeoffs between phage resistance and other stress factors.

      Reviewer #3 (Public review):

      PspA, a key regulator in the phage shock protein system, functions as part of the envelope stress response system in bacteria, preventing membrane depolarization and ensuring the envelope stability. This protein has been associated in the Quorum Sensing network and biofilm formation. (Moscoso M., Garcia E., Lopez R. 2006. Biofilm formation by Streptococcus pneumoniae: role of choline, extracellular DNA, and capsular polysaccharide in microbial accretion. J. Bacteriol. 188:7785-7795; Vidal JE, Ludewick HP, Kunkel RM, Zähner D, Klugman KP. The LuxS-dependent quorum-sensing system regulates early biofilm formation by Streptococcus pneumoniae strain D39. Infect Immun. 2011 Oct;79(10):4050-60.)

      It is interesting and very well-developed.

      (1) Could the authors develop experiments about the relationship between Quorum Sensing and this protein?

      (2) It would be interesting to analyze the link to phage infection and heat stress in relation to Quorum. The authors could study QS regulators or AI2 molecules.

      Thank you for your insightful comments and for bringing up the role of PspA in quorum sensing and biofilm formation. However, we would like to clarify a potential misunderstanding: the PspA discussed in our manuscript refers to phage-shock protein A, a key regulator in the bacterial envelope stress response system. This is distinct from the pneumococcal surface protein A, which has been associated with quorum sensing and biofilm formation in Streptococcus pneumoniae (as referenced in your comment).

      To avoid any confusion for readers, we will ensure that our manuscript explicitly states “phage-shock protein A (PspA)” at its first mention. We appreciate your feedback and hope this clarification addresses your concern.

      (3) Include the proteins or genes in a table or figure from lytic phage Kp11 (GenBank: ON148528.1).

      Thank you for your helpful suggestion. We have now included a figure, as appropriate summarizing the proteins of the lytic phage Kp11 (GenBank: ON148528.1) in supplementary Figure S1.

      Recommendations for the authors:

      Reviewer #1 (Recommendations for the authors):

      Issues unrelated to those discussed in the public review

      (1) Figure 4a and its caption describe an evolution experiment, but they do not mention how many cycles of high-temperature treatment and growth this experiment lasted. I assume it lasted for more than one cycle, because the methods section mentions "cycles", but the number is not provided.

      Thank you for pointing this out. The evolutionary experiment shown in Figure 5a involved 11 cycles of high-temperature treatment and growth. We have now explicitly stated this in the figure legend to ensure clarity: BC: Batch culture, G: Evolution cycle number, C: Colony. BC2G11C1 refers to the first colony from batvh culture 2 after 11 rounds of heat treatment.

      (2) It is not clear what Figure 5F is supposed to show. What are the gray boxes? The caption claims that the figure shows non-synonymous mutations, but the only information it contains is about genes that seem to be affected by mutation. Judging from the mismatch between the main text and the figure, the mutants with these mutations may actually be mislabeled.

      Thank you for your careful review. Figure 5f highlights the non-synonymous mutations identified in the evolved strains. The gray boxes represent the ancestral strain’s whole genome without mutations, serving as a control. The corresponding labels indicate the specific mutations found in each evolved strain. We have clarified this in the figure caption to improve clarity. Additionally, we have carefully reviewed the labeling to ensure accuracy and consistency between the figure, main text, and sequencing data.

      (3) I think that the acronym NC, which is used in just about every figure, is explained nowhere in the paper. Spell out all acronyms at first use.

      Thank you for pointing this out. We have rivewed ensure that NC is clearly defined at its first mention in the text and figure legends to improve clarity. Additionally, we have reviewed the manuscript to ensure that all acronyms are properly introduced when first used.

      (4) The same holds for the acronym N.D. This is an especially important oversight because N.D. could mean "not determined" or "not detectable", which would lead to very different interpretations of the same figure.

      Thank you for your careful review. We have clarified the meaning of N.D., which stands for non-detectable, at its first use to avoid ambiguity and ensure accurate interpretation in the figure legend. Additionally, we have reviewed the manuscript to ensure that all acronyms are clearly defined.

      (5) The panel labels (a,b, etc.) in all figure captions are very difficult to distinguish from the rest of the text, and should be better highlighted, for example by using a bold font. However, this is a matter of journal style and will probably be fixed during typesetting.

      Thank you for your suggestion. We have adjusted the figure captions to better distinguish panel labels, such as using bold font, to improve readability and final formatting will follow the journal’s style during typesetting.

      (6) Line 224: enhanced insusceptibility -> reduced susceptibility.

      Thank you for your suggestion. We have revised “enhanced insusceptibility” to “reduced susceptibility” for clarity and precision.

      (7) Line 259: mice -> mouse.

      Thank you for catching this. We have corrected “mice” to “mouse”.

      Reviewer #2 (Recommendations for the authors):

      I have no concerns about the experimental design and conclusions of your work; however, I strongly recommend incorporating several relevant pieces of the literature related to your work, in the discussion of your manuscript, specifically:

      (1) Previous studies about the role of heat stress in phage infections, see:

      Greenrod STE, Cazares D, Johnson S, Hector TE, Stevens EJ, MacLean RC, King KC. Warming alters life-history traits and competition in a phage community. Appl Environ Microbiol. 2024 May 21;90(5):e0028624. doi: 10.1128/aem.00286-24. Epub 2024 Apr 16. PMID: 38624196; PMCID: PMC11107170.

      Thank you for your thoughtful comment. We have ensured to incorporate the study by Greenrod et al. (2024) into the discussion to enrich the context of our findings. As this article pointed out, a temperature of 42°C can indeed limit phage infection in bacteria, acting as a barrier from the phage’s perspective. Our study builds on this by demonstrating that bacteria pre-treated with high temperatures exhibit tolerance to phage infection. These findings, together with the work you referenced, underscore the importance of heat stress or elevated temperature in host-phage interactions, with 42°C being particularly relevant in the context of fever. We will make sure to clarify this connection in our revised manuscript.

      (2) The effect of heat stress and the tolerance/resistance against other antibiotics besides polymyxins, see:

      Lv B, Huang X, Lijia C, Ma Y, Bian M, Li Z, Duan J, Zhou F, Yang B, Qie X, Song Y, Wood TK, Fu X. Heat shock potentiates aminoglycosides against gram-negative bacteria by enhancing antibiotic uptake, protein aggregation, and ROS. Proc Natl Acad Sci U S A. 2023 Mar 21;120(12):e2217254120. doi: 10.1073/pnas.2217254120. Epub 2023 Mar 14. PMID: 36917671; PMCID: PMC10041086.

      Thank you for bringing this study to our attention. We have incorporated the findings from Lv et al. (2023) into the discussion of our manuscript, highlighting how sublethal temperatures may facilitate the killing of bacteria by antibiotics like kanamycin. This is consistent with our data showing enhanced susceptibility of heat-shocked bacteria to kanamycin. The study also provides insights into the potential role of PMF, which is relevant to our work on PspA, and strengthens the broader context of heat stress influencing both antibiotic resistance and tolerance.

      (3) Perhaps the most relevant overlooked fact was that recently it was demonstrated for E. coli, Klebsiella and Pseudomonas that pretreatment with lytic phages induced antibiotic persistence! Please discuss this finding and its implications for your work, see:

      Fernández-García L, Kirigo J, Huelgas-Méndez D, Benedik MJ, Tomás M, García-Contreras R, Wood TK. Phages produce persisters. Microb Biotechnol. 2024 Aug;17(8):e14543. doi: 10.1111/1751-7915.14543. PMID: 39096350; PMCID: PMC11297538.

      Sanchez-Torres V, Kirigo J, Wood TK. Implications of lytic phage infections inducing persistence. Curr Opin Microbiol. 2024 Jun;79:102482. doi: 10.1016/j.mib.2024.102482. Epub 2024 May 6. PMID: 38714140.

      Thank you for suggesting this important reference. We agree that the phenomenon of phage-induced bacterial persistence is highly relevant to our study. While our manuscript focuses on the role of heat stress in bacterial tolerance and resistance, we acknowledge that bacterial persistence against phages is an established concept. We have incorporated this finding into our discussion, emphasizing how persistence and tolerance can overlap in their effects on bacterial survival, especially under stress conditions like heat treatment. This will provide a more comprehensive understanding of how phage interactions with bacteria can lead to both persistence and resistance.

      (4) Finally, you observed a tradeoff pf the pspA* mutant increased phage/heat/polymyxin resistance and decreased immune evasion (perhaps by being unable to counteract phagocytosis), those tradeoffs between gaining phage resistance but losing resistance to the immune system, virulence impairment and resistance against some antibiotics had been extensively documented, see:

      Majkowska-Skrobek G, Markwitz P, Sosnowska E, Lood C, Lavigne R, Drulis-Kawa Z. The evolutionary trade-offs in phage-resistant Klebsiella pneumoniae entail cross-phage sensitization and loss of multidrug resistance. Environ Microbiol. 2021 Dec;23(12):7723-7740. doi: 10.1111/1462-2920.15476. Epub 2021 Mar 27. PMID: 33754440.

      Gordillo Altamirano F, Forsyth JH, Patwa R, Kostoulias X, Trim M, Subedi D, Archer SK, Morris FC, Oliveira C, Kielty L, Korneev D, O'Bryan MK, Lithgow TJ, Peleg AY, Barr JJ. Bacteriophage-resistant Acinetobacter baumannii are resensitized to antimicrobials. Nat Microbiol. 2021 Feb;6(2):157-161. doi: 10.1038/s41564-020-00830-7. Epub 2021 Jan 11. PMID: 33432151.

      García-Cruz JC, Rebollar-Juarez X, Limones-Martinez A, Santos-Lopez CS, Toya S, Maeda T, Ceapă CD, Blasco L, Tomás M, Díaz-Velásquez CE, Vaca-Paniagua F, Díaz-Guerrero M, Cazares D, Cazares A, Hernández-Durán M, López-Jácome LE, Franco-Cendejas R, Husain FM, Khan A, Arshad M, Morales-Espinosa R, Fernández-Presas AM, Cadet F, Wood TK, García-Contreras R. Resistance against two lytic phage variants attenuates virulence and antibiotic resistance in Pseudomonas aeruginosa. Front Cell Infect Microbiol. 2024 Jan 17;13:1280265. doi: 10.3389/fcimb.2023.1280265. Erratum in: Front Cell Infect Microbiol. 2024 Mar 06;14:1391783. doi: 10.3389/fcimb.2024.1391783. PMID: 38298921; PMCID: PMC10828002.

      Thank you for highlighting these important studies. We have incorporated the work by Majkowska-Skrobek et al. (2021), Gordillo Altamirano et al. (2021), and García-Cruz et al. (2024) into the discussion to provide further context to the evolutionary trade-offs observed in our study. The findings in these studies, which describe the cross-sensitization to antimicrobials and the loss of multidrug resistance in phage-resistant bacteria, align with our observations of trade-offs in the pspA mutant. Specifically, our results show that while the pspA mutant exhibits increased resistance to phage, heat, and polymyxins, it also experiences a decrease in immune evasion and potential virulence. These trade-offs are significant in understanding the broader consequences of developing resistance to phages and other stressors.

    1. Note de synthèse : L'emprise psychotique et la Folie à Deux

      Ce document explore la notion d'emprise psychotique, en se basant sur la « Folie à Deux » comme modèle principal, et la distingue de l'emprise perverse classique.

      La présentation met en lumière les mécanismes, les typologies, les implications médico-légales et les dynamiques relationnelles sous-jacentes à ce phénomène complexe.

      1. Introduction à la Folie à Deux (Folie A2) et son lien avec l'emprise

      La Folie à Deux est une entité clinique décrite initialement par Lasègue et Falret en 1877.

      Elle se caractérise par le développement d'idées délirantes chez un « patient secondaire » sous l'influence d'un « patient primaire » déjà délirant. Les conditions nécessaires incluent une relation étroite et isolée des influences extérieures.

      • Exemple clinique : L'histoire de Sarah et Chloé L'exemple introductif illustre la dynamique de la Folie à Deux : Sarah, une mère anxieuse et contrôlante, et sa fille Chloé, souffrant de pathologies qui renforcent les défenses obsessionnelles de la mère.

      Leur relation fusionnelle et isolée conduit au développement d'un délire de persécution et de spoliation centré sur une tante.

      Initialement, la mère tente de raisonner sa fille, mais face à la violence de Chloé et à leur isolement, elle finit par céder et adhérer aux idées délirantes de sa fille. Cette adhésion conduit à un passage à l'acte violent envers la tante, entraînant leur hospitalisation.

      À la séparation, la mère se restaure rapidement, devenant critique des événements, tandis que la fille met plus de temps à se rétablir.

      Ce cas met en évidence l'influence du patient primaire (la fille) sur le patient secondaire (la mère) dans un contexte d'isolement et de pression.

      2. Typologies de la Folie à Deux L'analyse proposée distingue deux types principaux de Folie à Deux :

      • Folie à Deux Imposée (de Lasègue et Falret) :
      • Le patient primaire est actif dans le délire, et le patient secondaire est plus passif, délirant "par reflet" ou "sous la pression".
      • À la séparation, le patient secondaire retrouve rapidement son état antérieur et sa capacité critique.

      • Ceci est considéré comme une emprise psychotique incomplète, car les effets de la pathologie ne sont pas durables chez le sujet secondaire une fois la relation rompue.

      Folie à Deux Communiquée (de Marandon de Montyel) :

      • Le patient secondaire est un sujet prédisposé qui développe une maladie psychiatrique au contact du sujet délirant.
      • Les troubles persistent même après la séparation.
      • Ceci est considéré comme une emprise psychotique complète, car elle aboutit à un second sujet primaire capable de "contaminer" d'autres individus.

      3. Mécanismes psychopathologiques de la Folie à Deux Deux mécanismes principaux expliquent la dynamique et le maintien de la relation dans la Folie à Deux :

      • Projection de l'hostilité :
      • Dans l'exemple de Sarah et Chloé, l'hostilité de Chloé envers sa mère (due à l'incapacité de s'émanciper) ne peut s'exprimer directement.

      Elle est alors projetée sur un objet externe à la relation (la tante), ce qui permet de maintenir la dyade mère-fille et d'apaiser les tensions internes.

      • L'acceptation du mécanisme projectif par le patient secondaire est cruciale ; toute résistance entraîne une augmentation de l'agressivité et de la violence.

      • "L'acceptation du délire apaise en fait a permis qu'il y ait au final plus de plus d'épisodes de violence dans la relation puisque toute la violence était redirigée à l'extérieur."

      • Identification à l'ennemi (ou à l'agresseur) :

      • Inspiré des travaux de Freud et Ferenczi sur l'identification à l'agresseur (notamment chez les enfants victimes d'abus).

      • Il s'agit d'adopter le point de vue de l'agresseur, d'introjecter sa culpabilité ou d'anticiper ses besoins, dans le but d'apaiser l'agresseur et de se sauvegarder physiquement et psychiquement.

      • Dans la Folie à Deux, l'acceptation du délire par le patient secondaire apaise les violences (physiques) dans la relation, la violence étant redirigée vers l'extérieur du couple.

      4. L'emprise psychotique en miroir avec l'emprise classique (perverse)

      L'emprise psychotique est conceptualisée comme une forme spécifique d'emprise, distincte mais comparable à l'emprise perverse classique.

      Points communs de l'emprise (générique) :

      • Relation asymétrique : Un sujet réduit au statut d'objet, dont l'espace psychique est occupé par l'autre.

      • Déni d'altérité et de critique : L'accès à la critique est impossible ; l'objectif est une fusion totale et l'adhésion aux idées de l'autre.

      • Phases de captation et de domination : L'appropriation de l'autre se fait par séduction/fascination, suivie d'une phase de conditionnement par manipulation (verbale, physique), l'alternance séduction-agression étant au cœur de ce processus.

      • Séquelles durables : La victime peut avoir des difficultés à s'extraire de la dynamique et des séquelles à long terme dans ses interactions futures.

      • Distinction entre Emprise Perverse (Dracula) et Emprise Psychotique (Don Quichotte) :

      • CaractéristiqueEmprise Perverse (Dracula)Emprise Psychotique (Don Quichotte)Objectif /

      MotivationSiphonnement du narcissisme du partenaire ("se nourrit du sang de ses victimes"), jouissance perverse.Décollage de la réalité, sortie de la réalité.

      Le sujet n'est pas motivé par la jouissance de l'autre mais par la maladie elle-même qui guide le voyage pathologique et les interactions.

      Mécanisme sous-jacentMet en place des mécanismes proactifs pour produire ses effets, vise à combler des angoisses narcissiques.

      La maladie guide le "voyage pathologique" et les interactions. Les angoisses sont plus archaïques, des angoisses de "néantisation" très précoces dans le développement psychique.

      Nature de la contrainteLe sujet "pervers" met volontairement l'autre sous emprise pour se nourrir narcissiquement.

      Le patient primaire psychotique met l'autre sous emprise "sous l'effet de la maladie", enfermé dans une bulle délirante.DynamiqueAlternance séduction-agression volontaire pour le conditionnement.

      "L'exposition des mécanismes" (en thérapie) peut aider à s'en prémunir.Alternance fusion (adhésion du secondaire au délire) et agression (résistance du secondaire) ; vise une fusion complète. Mécanisme de projection d'hostilité.

      L'enjeu pour la victime est la menace de basculer complètement dans la folie du primaire.Implications médico-légalesLa victime est sous contrainte morale mais n'est pas "délirante" elle-même.

      Peut être irresponsable pénalement selon la "contrainte irrésistible" (article 122 du code pénal).

      Si passage à l'acte, l'acte peut être imputé au délire si les deux sujets agissent dans ce cadre.

      Le discernement peut être aboli (article 121 du code pénal), ce qui peut mener à une irresponsabilité pénale des deux sujets.Définition de l'emprise psychotique :

      C'est "une relation asymétrique où le sujet primaire psychotique met sous emprise un sujet secondaire dans des conditions d'isolement prolongé avec un déni d'altérité (comme dans l'emprise perverse) mais un déni plus global de réalité qui va se mettre en place, une volonté de fusion et d'adhésion au délire du partenaire dirigé par la maladie, une montée de l'agressivité dans les résistances abaissée par les mécanismes projectifs et une angoisse plus archaïque de néantisation chez les sujets."

      5. Implications Médico-Légales

      • Folie à Deux Imposée (emprise psychotique incomplète) : Le patient secondaire n'est pas malade au sens psychiatrique mais agit sous une contrainte morale irrésistible.

      L'article 122 du code pénal sur l'absence de responsabilité en cas de contrainte peut s'appliquer.

      Un arrêt de la Cour d'appel de Rennes (2017) concernant la compagne d'un gourou sectaire illustre cette situation : la séparation a suffi à mettre fin au délire de la partenaire, qui a été déclarée pénalement irresponsable sous le motif de la contrainte.

      • Folie à Deux Communiquée (emprise psychotique complète) : Si un passage à l'acte violent se produit dans le cadre du délire, l'acte peut être imputé au délire.

      L'expert psychiatre peut conclure à une abolition du discernement sur le modèle de l'article 121 du code pénal, menant potentiellement à l'irresponsabilité pénale des deux sujets.

      6. Réflexion élargie sur l'emprise

      L'emprise n'est pas spécifique à la perversion ou à la Folie à Deux ; elle peut se manifester sous diverses formes (paranoïaque, obsessionnelle, perverse) et est souvent liée à des difficultés développementales précoces et des attachements insécures.

      Plus les difficultés sont précoces et sévères (ex: dans l'environnement parental), plus le risque de développer une maladie psychiatrique (comme la schizophrénie) et de recourir à une modalité relationnelle d'emprise est élevé.

      Cependant, il est important de distinguer une modalité durable et problématique d'interaction d'un recours ponctuel et occasionnel à un type d'emprise (ex: en période de stress aigu), qui ne caractérise pas un fonctionnement pathologique durable.

    1. rsent

      Wat wordt er gezegd? Stel: we zeggen dat pijn gewoon een bepaalde hersentoestand is — bijvoorbeeld bij mensen is pijn hersentoestand X.

      Maar...

      🐟 Wat als vissen ook pijn kunnen voelen?

      Dan zouden we ook moeten zeggen:

      Pijn bij vissen = hersentoestand Y (want hun hersenen zijn anders),

      En pijn bij vissen is dus óók gewoon pijn.

      🔁 Wat is het probleem? Er is een regel in logica die transitiviteit heet:

      Als A = B en B = C, dan moet A = C.

      Toegepast op pijn:

      Als pijn = hersentoestand X (bij mensen),

      En pijn = hersentoestand Y (bij vissen),

      Dan zou moeten gelden: hersentoestand X = hersentoestand Y.

      Maar dat kan niet, want de hersenen van mensen en vissen zijn niet hetzelfde. Dus X is niet gelijk aan Y.

      🎯 Wat betekent dit? De conclusie is:

      Pijn is niet hetzelfde als één bepaalde hersentoestand.

      Oftewel: je kunt mentale dingen (zoals pijn) niet zomaar gelijkstellen aan één soort hersenactiviteit, want pijn kan op verschillende manieren in verschillende wezens worden gerealiseerd.

      💡 Wat betekent “realisatie” dan? “Realisatie” betekent hier:

      Dezelfde mentale toestand (zoals pijn) kan door verschillende hersentoestanden gemaakt worden, afhankelijk van het dier of systeem.

      Dus pijn is niet identiek aan hersentoestand X, maar kan op meerdere manieren gerealiseerd worden.

    1. Synthèse : Les biais cognitifs en psychologie clinique avec Albert Moukheiber

      Ce webinaire, animé par Albert Moukheiber (docteur en neurosciences et psychologue clinicien), explore la nature des biais cognitifs et leur impact, en particulier dans le contexte de la psychothérapie.

      L'intervenant souligne l'importance pour tous les praticiens de comprendre comment leur propre perception influence le travail avec les patients.

      I. Les fondements de la cognition et l'incertitude inhérente

      Albert Moukheiber commence par établir une "règle générale de notre cognition" : nous baignons tous et tout le temps dans ce qu'on appelle un certain degré d'incertitude (incomplétude informationnelle).

      Cette incertitude est due à trois facteurs principaux :

      • Ressources limitées : Notre capacité à traiter l'information est finie.

      • Perception partielle : Nous ne recevons pas toutes les informations de notre environnement.

      • Complexité du monde : Le monde est trop complexe pour être entièrement appréhendé.

      Bien que cette incomplétude soit constante, elle est souvent masquée par nos mécanismes cognitifs.

      II. La perception comme construction : Bottom-up et Top-down

      Traditionnellement, la perception était expliquée par un modèle "bottom-up" : les données sensorielles (ex: photons pour la vue) sont reçues par les récepteurs (rétine), transformées en signaux électriques, puis traitées par le cortex pour reconstruire le monde.

      • Cependant, à partir de 2014-2015, une nouvelle hypothèse a émergé : le cerveau ne fait pas que reconstruire, il prédit aussi le réel, y compris dans le présent.

      L'exemple des voitures de taille identique sur une image en perspective est utilisé pour illustrer cette prédiction : notre cerveau "agrandit" la voiture éloignée pour la rendre cohérente avec notre connaissance implicite du monde ("plus c'est loin, plus c'est petit").

      Cela révèle l'existence de deux mécanismes perceptifs :

      • Bottom-up : Réception et intégration de l'information sensorielle.
      • Top-down : Le cerveau projette et utilise nos "modèles mentaux" ou "connaissances du monde" pour interpréter et compléter l'information manquante.

      L'exemple de la vision périphérique en couleur (alors que peu de récepteurs de couleur y sont présents) est donné comme illustration du top-down :

      "Toutes les couleurs que vous voyez dans votre vision périphérique c'est des couleurs top down que votre cerveau est en train d'inventer".

      Moukhheiber parle d'hallucination contrôlée : "On est en train d'halluciner le monde mais avec des règles très contrôlées qui nous permettent de fonctionner les uns avec les autres".

      Il insiste : "on ne voit pas le monde tel qu'il est mais plutôt tel que nous sommes", tout en précisant qu'il ne faut pas tomber dans un relativisme absolu, car "il y a des règles qui régissent ça".

      Plus une situation est ambiguë, plus nous pouvons lui attribuer un sens personnel.

      III. L'interprétation et la "stabilisation de l'ambiguïté"

      • Le passage de la perception à l'interprétation est illustré par l'illusion de la danseuse qui tourne, un "stimuli ambigu bistable" (manque de marqueur de profondeur). Selon qu'elle est vue tourner dans un sens ou dans l'autre, cela dépend de nos mécanismes top-down et de nos "a priori".

      La réalité, elle, est un "stimuli ambigu multistable", c'est-à-dire qu'il y a de multiples façons de stabiliser son ambiguïté.

      Les traits de personnalité sont fonctionnellement des descriptions de "comment une personne stabilise l'ambiguïté du monde".

      Ex: Une personne jalouse interprétera le non-réponse d'un partenaire comme une tromperie, là où une personne non jalouse pensera à une occupation.

      L'optimisme ou le pessimisme sont des façons de stabiliser l'ambiguïté du futur.

      Une grande partie de la psychopathologie est vue comme une modification de la manière dont on stabilise l'ambiguïté du monde.

      • Dans les troubles anxieux, il y a une tendance à "catastrophiser", à stabiliser l'ambiguïté des enjeux futurs comme "ça va être mauvais" et à avoir des "biais du faux consensus" (penser que mes croyances sont partagées par tous).

      • Dans les TOC, on retrouve la "masturbation" (le piège du devoir, je dois vérifier sinon quelque chose de mauvais va se passer) et la "pensée binaire" (si ce n'est pas parfait, c'est nul).

      • Dans la dépression, il y a des "biais de sélection et de confirmation", où l'on se rappelle davantage les événements négatifs.

      • Nous utilisons des heuristiques, des "solutions approximatives", pour agir rapidement face à l'incertitude, même si elles sont parfois imprécises.

      Les biais cognitifs ne sont pas intrinsèquement négatifs ; ils sont une "rencontre entre une stratégie cognitive et un contexte".

      L'optimisme, par exemple, peut être négatif au casino, mais essentiel pour l'apprentissage de la marche chez un bébé.

      IV. La cognition incarnée et le modèle biopsychosocial

      • Moukhheiber critique la vision purement "cérébrocentrée" de la cognition. Les neurosciences modernes considèrent une cognition incarnée, où l'humain n'est pas juste un cerveau.

      Il y a une boucle de rétroaction constante entre le mental, le physique et l'environnement. Pour comprendre le fonctionnement humain, il faut tenir compte de ces trois dimensions.

      L'expérience des chatons de Hein et Held (années 40) démontre que la vision n'est pas seulement le résultat de l'œil et du cerveau, mais de l'organisme entier en interaction avec son environnement.

      Cette perspective conduit à remettre en question le modèle biomédical (un pathogène = une maladie à soigner) appliqué à la santé mentale.

      L'exemple de la femme développant un trouble anxieux suite à du sexisme au travail montre que le "pathogène" peut être externe, dans l'environnement, et qu'il est absurde de vouloir "soigner" uniquement l'individu.

      L'homosexualité n'a cessé d'être une maladie quand la société a été soignée, pas l'individu homosexuel.

      Le modèle proposé est le modèle biopsychosocial (psyché, corps, environnement). La question centrale en thérapie devient : "Est-ce que j'agis sur le patient ou sur l'environnement ?"

      Ex: Une personne dépressive peut l'être à cause de son cerveau, de son hygiène de vie (manque de sommeil, pollution), ou de son environnement toxique.

      V. Les biais spécifiques à la pratique clinique La prise de décision médicale et thérapeutique est également sujette aux biais.

      Albert Moukheiber énumère plusieurs biais pertinents :

      • Biais de cadrage : La manière dont l'information est présentée impacte sa réception (ex: annoncer un diagnostic de "borderline" versus rassurer sur la possibilité de guérison).

      • Biais de commission : Préférer faire quelque chose plutôt que ne rien faire. Moukheiber confie parfois à ses patients que le temps seul peut les aider à aller mieux, sans intervention active de sa part.

      • Biais de disponibilité : Privilégier les hypothèses récemment rencontrées ou les plus saillantes (ex: un diagnostic d'anxiété de performance car c'est un cas fréquent, manquant un possible TND).

      • Biais de négligence du taux de base : Négliger la prévalence d'un phénomène dans la population générale (ex: attribuer le burnout à des facteurs individuels alors qu'il y a une explosion des cas liée à l'hygiène de vie collective ou aux pressions sociétales).

      • Biais de confirmation : Tendance à chercher des informations qui confirment nos hypothèses initiales (ex: creuser pour confirmer un diagnostic de bipolarité chez un adolescent, ignorant d'autres explications).

      • Règle de conjonction (ou rasoir d'Ockham inversé) : Créer un tableau clinique complexe avec de multiples diagnostics au lieu de chercher une explication plus simple et parsimonieuse (ex: diagnostiquer un trouble anxieux, un TSA et une personnalité histrionique, alors qu'une phobie sociale pourrait expliquer un grand nombre de symptômes).

      • Biais de surconfiance : Surestimer ses propres capacités ou connaissances (ex: un médecin rejetant l'avis d'un psychologue).

      • Biais de représentativité : Associer des stéréotypes à une personne en fonction de son origine, ethnie, genre, etc. (ex: une femme faisant une attaque cardiaque diagnostiquée à tort comme une attaque de panique, le "syndrome méditerranéen").

      • Satisficing (ou "satisfaction de la recherche") : Arrêter de chercher une fois qu'une première explication est trouvée, manquant d'autres diagnostics (ex: diagnostiquer un trouble anxieux et manquer des TOCs associés).

      • Diagnostic momentum : Un diagnostic posé il y a longtemps sur un patient persiste dans le dossier et est transmis d'équipe en équipe, même s'il n'est plus d'actualité.

      VI. Conclusion : Humilité, changement d'avis et écoute du vécu subjectif

      Moukhheiber conclut par deux citations :

      • "Une des idées les plus dangereuses qu'une personne pourrait avoir c'est de se dire 'Si tout le monde était comme moi le monde serait un endroit meilleur'."

      Il insiste sur le besoin de différentes "a priori" et différentes "stabilisations de l'ambiguïté" pour une vision plus riche du monde.

      Il est crucial d'écouter le vécu subjectif des patients, surtout des jeunes, car leurs "a priori" diffèrent de ceux des adultes, ce qui peut rendre leurs comportements incompréhensibles sans une explication.

      • "Qu'est-ce que réfléchir ? C'est une façon élégante de dire changer d'avis." Le clinicien doit être capable de changer d'avis pour mieux écouter le patient et éviter les biais.

      • Il est impossible de ne pas tomber dans les biais, même pour les experts. La solution réside dans la métacognition ("penser contre son cerveau"), en connaissant les biais et les pièges du raisonnement, mais surtout en demandant de l'aide aux autres (le "paradoxe de Salomon" : on est bon pour conseiller les autres, nul pour se conseiller soi-même).

      La complexité des sujets fait qu'on ne peut être expert partout, d'où l'importance de la collaboration et de l'humilité.

    1. Compte-rendu de la Conférence "Emprise"

      Ce document synthétise les points clés de la conférence sur l'emprise, en distinguant ce qu'elle n'est pas, ce qu'elle est, comment elle opère, qui l'exerce, et qui en est la proie.

      1. Ce que l'emprise n'est pas

      L'oratrice commence par définir l'emprise par la négation, afin de la distinguer de concepts proches mais différents :

      • L'Influence : Selon l'école de Palo Alto, "on ne peut pas ne pas communiquer", et "communiquer c'est influencer". L'influence est une caractéristique normale de la communication (ex: influenceurs, publicitaires). L'emprise débute lorsque l'influence "s'accompagne de coercition d'obligation".
      • La Stratégie : La stratégie, même si elle implique des "manœuvres", a des "buts éthiquement recevables" et la personne ciblée "a donné son accord". Contrairement à la manipulation, il est possible de "soulever le capot du moteur et dire ce que je suis en train de faire".

      2. Définition de l'Emprise

      Le terme "emprise" a des origines diverses, toutes liées à l'idée de "prendre" ou de "dominer" :

      • Étymologie : En chevalerie, c'était le contrat unissant un chevalier à son suzerain (relation de pouvoir). En administration, c'est la prise de terrain par expropriation ou occupation. En architecture, c'est la projection d'une construction sur une surface.
      • En psychologie : L'emprise est un "envahissement", une "main mise". Elle est définie comme "une relation de pouvoir et de domination qui est fondé sur la fascination et sur la peur".
      • Conséquences sur la proie : L'emprise "exproprie [...] la proie de sa subjectivité propre", c'est-à-dire sa façon de voir le monde, et de son "agentivité", sa capacité d'agir. En somme, elle exproprie la personne "de soi-même".

      3. Comment l'Emprise Opère

      L'emprise utilise diverses tactiques pour fragiliser et contrôler la victime (appelée "la proie" par l'oratrice, l'auteur étant "le prédateur") :

      Mise sous stress constant : * Renforcement intermittent : Inspiré par la cage de Skinner, le prédateur alterne récompenses et punitions de manière imprévisible ("un coup tu l'as un coup tu l'as pas"). Cela génère un "stress constant" et une "addiction", car la victime est constamment en attente. Ce stress érode le corps et l'esprit. * Mise en confusion cognitive : La victime ne "sait plus quel bout va devant". Cela se fait par la manipulation mentale : * Culpabilisation : Le prédateur rend la victime responsable de ses propres émotions ou situations, souvent en se positionnant en victime ("j'ai voyagé très très longtemps pour venir jusqu'ici... j'espère que vous allez m'écouter"). * Retournement : L'art de faire croire à la proie que "ce n'est pas le prédateur qui a fait une bêtise ou qui a généré une difficulté, c'est la proie". * Décontextualisation-Retournement-Essentialisation : Le prédateur oublie le contexte qu'il a créé, isole la réaction de la proie, et l'essentialise en un trait de caractère permanent et pathologique. L'exemple donné est celui de Monsieur Dupont qui, après avoir agressé Madame Dupont, la décontextualise en alcoolique parce qu'elle boit un whisky pour se calmer. * Gaslighting : "L'art de faire que l'autre doute de sa santé mentale." Cette manipulation est "extrêmement répandue" et vise à faire croire à la victime qu'elle est folle ou dérangée ("ce n'est pas moi qui dis n'importe quoi, c'est toi qui es folle"). * Mise en confusion émotionnelle : Notamment par l'alternance des "chauds et des froids", renvoyant au mécanisme du renforcement intermittent. Le prédateur ne répond pas de la même manière à la même situation, perturbant émotionnellement la proie.

      4. Qui met sous Emprise

      • Trois types de personnalités peuvent exercer une emprise :
      • Personnalités très obsessionnelles : Leur besoin de gérer une forte angoisse par des rituels intangibles et immuables peut amener leur entourage à "se plier à ces rituels" pour éviter des crises. Cette adaptation forcée conduit la victime à "s'exproprier de soi-même".
      • Personnalités paranoïques : Caractérisées par la méfiance, l'orgueil, la psychorigidité et la fausseté du jugement. Pour le paranoïaque, "qui n'est pas avec lui est contre lui" et doit être attaqué. L'entourage finit par adapter son comportement pour "ne pas pouvoir se faire attaquer par le paranoïaque", perdant ainsi sa spontanéité et son identité propre.
      • Pervers narcissiques (PN) : C'est le type le plus approfondi, car ils exercent l'emprise "pour mettre sous emprise, parce que ça le fait jouir".
      • Buts du PN : Il cherche à "asservir l'autre au sens le plus fort du terme", à "le déshumaniser", lui enlever sa subjectivité et son désir. Il cherche à posséder sa proie "comme un objet" pour :
      • Passer à l'acte son "envie hostile" (jalousie), détruisant l'autre.
      • Utiliser la proie comme "un élément de prestige" (ex: partenaire ou collaborateur prestigieux).
      • Flatter son "narcissisme malade", car il "confond son pouvoir avec son pouvoir de destruction". Sa force est mesurée à sa capacité à détruire l'autre.
      • Fonction de "poubelle psychique" : Le PN, derrière un masque de perversité, est d'une "extrême fragilité". Incapable de supporter d'être mauvais ou d'avoir failli, il projette tout ce qui est négatif sur la proie : "tout ce qui est bien c'est moi, tout ce qui est mal c'est toi". Il est en fait "plus dépendant de sa proie que sa proie de lui".
      • Partage de la folie : Citant Harold Searles, l'oratrice explique que le PN, en tant que psychotique ou pré-psychotique, cherche à "faire partager sa folie à l'autre", à "donner sa folie à l'autre par identification projective pour se sentir moins dingue". Le gaslighting, en particulier, sert à cela.

      5. Les Étapes de la Relation d'Emprise (Vue de la Proie)

      La relation d'emprise se déroule en plusieurs phases, souvent difficiles à discerner pour la proie et le monde extérieur :

      • La Séduction : Le prédateur "travestit l'existant", se "grime totalement" pour ressembler au partenaire idéal perçu. Il joue un "rôle de composition" complètement mensonger. La proie est séduite, "se laisse aller à croire au rêve bleu", rencontrant le prince charmant ou le collaborateur idéal.
      • Le Ferrage : Une fois la proie "engagée", survient le "moment chaos", le "ferrage", où la proie ne peut plus reculer "sans y laisser des plumes". Exemples : les enfants, un CDI, un bail commun, un mariage, des confidences compromettantes, des services rendus.
      • La Destruction-Séduction : La phase la plus longue, visant à "détruire, asservir, déshumaniser la proie". Cependant, lorsque la destruction dure trop longtemps, la proie envisage de partir. À ce moment, le PN réactive la séduction, permettant à la proie de "souffler un peu" et de se dire que "ça marche" si elle s'adapte. Cette alternance de destruction et de séduction rend la relation "addicte".
      • Difficulté de discernement : Pour les observateurs extérieurs (ex: juges), la proie apparaît incohérente et stressée, tandis que le prédateur est "beau, parfumé, en costume et tout à fait cohérent", rendant le prédateur plus crédible.

      6. La Relation d'Emprise (Vue du Prédateur)

      Le prédateur, souvent décrit comme un "œuf dur qui a une faille" (Kernberg), est intrinsèquement fragile :

      • Faille narcissique : Son "moi" est fissuré dès la petite enfance. Pour le maintenir entier, il fusionne son "moi" avec son "idéal du moi", cherchant à être une "personne idéale qui n'a aucun défaut". Il passe sa vie à "réparer la coque qui fuit de toute part", à "replatrer le narcissisme qui fout le camp".
      • Vide existentiel : Malgré ses efforts, il se sent "vide, sans couleur, sans saveur, sans odeur".
      • Repérage de la proie : Il repère une proie "riche" de qualités qu'il aimerait posséder. Il manque d'"empathie aimante" mais a une "empathie d'objets", repérant les failles de la proie.
      • Fantasme de fusion : Il se précipite sur la proie dans le fantasme archaïque que s'il la possède, il "va fusionner avec elle et en quelque sorte lui voler ses qualités".
      • Constat d'échec et destruction : Une fois la proie séduite, le PN constate qu'il est "toujours aussi vide, toujours aussi nul", et que sa proie est toujours mieux que lui. Il s'offre alors un "lot de consolation" et passe à l'acte son "envie hostile", la "désinguant à la mesure de ce qu'il en est jaloux". La proie sert alors de "poubelle psychique".

      7. Qui est la Proie

      • Potentiellement tout le monde : "On peut tous se faire avoir", la séduction et la manipulation fonctionnant sur chacun.
      • Caractéristiques générales : La proie est souvent "riche", "généreuse", "solaire", "intelligente" et a souvent "du prestige".
      • Capital économique : Peut entretenir le prédateur.
      • Capital symbolique : Savoir, diplômes, prestige social. Le prédateur peut tenter de s'approprier cette culture "par délégation".
      • Capital relationnel : Réseau social et professionnel.
      • Qualités converties en défauts : Les proies sont souvent "altruistes", de "bonne volonté", "intelligentes", "capables de se remettre en question", "qui cherchent à comprendre" les motivations d'autrui, et développent une "certaine naïveté" en imaginant que "tout le monde est comme ça". Ces qualités, comme l'amour, la compréhension, le pardon, sont transformées en défauts sous emprise.
      • Vulnérabilités (non fragilités) : Les proies ont des vulnérabilités issues de leur histoire (peur de l'abandon, soif d'attention/amour, carence affective). Il est crucial de les considérer comme des "vulnérabilités" (potentiel activable) et non des "fragilités" (potentiel déjà actif), pour ne pas renforcer le gaslighting exercé par le prédateur. Le prédateur "saute à pieds joints sur les vulnérabilités qui finit par transformer en fragilité".

      8. L'Accompagnement Thérapeutique des Proies

      Déconstruire le gaslighting : Contrairement à la psychothérapie habituelle où l'on renvoie la personne à sa responsabilité, dans l'accompagnement des proies, il faut d'abord "parler de l'autre" pour "démonter le gaslighting", mettre à jour et "détricoter" les manipulations. Reconnaître les vulnérabilités : C'est seulement après avoir déconstruit les manipulations et l'impact du prédateur que l'on peut aborder les vulnérabilités de la proie, pour comprendre "par quelle vulnérabilité il vous accroche". L'objectif est de ne pas confirmer la croyance de la proie qu'elle est "dingue" ou "névrosée".

    1. Note de Synthèse : Les Enfants, Sentinelles des Inégalités d'Exposition aux Contaminations Industrielles et aux Pesticides

      Date : 2024-2025 Source : Extraits de "La production sociale des inégalités de santé (14) - Nathalie Bajos", cours de Giovanni Prété.

      • Résumé Exécutif : Le sociologue Giovanni Prété, lors du séminaire de Nathalie Bajos sur les inégalités sociales de santé, propose de considérer les enfants comme des "sentinelles des inégalités d'exposition aux contaminations industrielles".

      Son exposé démontre comment les dispositifs de réparation des risques industriels, établis au 20ème siècle, reposent sur des postulats discutables : la distinction nette entre contaminations professionnelles et environnementales, et la concentration de la réparation sur les travailleurs adultes, excluant souvent les riverains et les enfants.

      Des recherches croissantes documentent les effets des pollutions industrielles sur la santé des enfants et les inégalités sociales qui les traversent, notamment concernant les pesticides.

      Prété souligne que la production de connaissances et la reconnaissance des maladies pédiatriques liées à ces expositions sont entravées par des obstacles méthodologiques, politiques et sociaux, notamment la difficulté à établir la causalité, le manque de données fines, et le sentiment de culpabilité des familles.

      Thèmes Principaux et Idées Clés :

      1. La Contamination du Monde et l'Émergence d'un Nouvel Univers Chimique :

      • L'industrialisation a conduit à une augmentation sans précédent de la production de richesses, mais aussi à une "diffusion massive de substances polluantes contaminant la vie humaine et la vie non-humaine." (Prété, citant Jarig et Lerou)
      • La production chimique de synthèse a explosé : "multipliée par 1000 en tonnages entre 1930 et 2000, puis par depuis 2000". Il y aurait "aujourd'hui 194 millions de molécules publiées dont probablement 100 000 environ commercialisées en Europe." (Prété, citant Remy Sama)
      • Cette contamination entraîne des pathologies chroniques, difficiles à dénombrer précisément en raison de leur non-spécificité et des "temps de latence longs" (plusieurs décennies).

      2. Les Postulats Discutables des Dispositifs de Réparation Historiques :

      • Cloisonnement Santé Environnementale / Santé au Travail : Les dispositifs de réparation (accidents du travail 1898, maladies professionnelles 1919) reposent sur une distinction rigide entre maladies professionnelles et environnementales, excluant le travail de l'environnement.
      • Conséquence concrète : les modes de réparation diffèrent. Un travailleur exposé au mercure peut bénéficier d'une présomption d'origine, tandis qu'un riverain exposé à la même substance via l'eau doit engager des "démarches civiles bien plus longues à faire aboutir et bien plus incertaines."
      • Ce cloisonnement se manifeste également dans l'organisation des politiques de prévention (inspection du travail vs. inspecteurs des installations classées).
      • Exclusion des Enfants des Dispositifs de Réparation : Historiquement, les enfants travailleurs étaient reconnus comme victimes de l'industrialisation (ex: étude de Percival Pott sur le cancer du scrotome des ramoneurs en 1775, loi sur les ramoneurs en 1788).
      • Cependant, à mesure que les enfants ont été progressivement exclus du monde professionnel (interdictions successives du travail des enfants en France : moins de 8 ans en 1841, moins de 13 ans en 1890, moins de 16 ans en 1967), ils ont été "de moins en moins considérés comme des victimes des transformations du travail via l'industrialisation et leurs expositions et réparations sont écartées des dispositifs assurantiels mis en place en France en 1998 et en 1919."

      3. Les Enfants comme Sentinelles et les Effets des Contaminations Industrielles sur leur Santé :

      • Vulnérabilité Spécifique des Enfants :Les expositions in utero sont "préoccupantes pour le futur en développement" car c'est une "période de sensibilité accrue aux agents tératogènes et aux expositions environnementales" qui peuvent influencer la santé à l'âge adulte (concept de l'origine développementale de la santé des maladies, David Barker).
      • Après la naissance, les jeunes enfants sont plus exposés aux contaminants (temps passé au sol, ingestion d'objets) et ont un "apport plus élevé en nourriture, en eau et en air par unité de poids corporel", rendant les faibles expositions potentiellement très impactantes.
      • Preuves Scientifiques Croissantes : Il est "admis aujourd'hui le rôle étiologique c'est-à-dire causal des expositions prénatales ou infantiles à certains facteurs de risque dit environnementaux mais qui incluent des facteurs professionnels" pour des pathologies comme les leucémies infantiles (radiations ionisantes, radon, pesticides, solvants).
      • Inégalités Sociales Face aux Maladies Pédiatriques Industrielles :Inégalités d'exposition : "les populations socio-économiquement défavorisées et les populations minoritaires supportent en général un fardeau disproportionné de l'exposition aux pollutions industrielles" (ex: corrélation incinérateurs/faibles revenus/immigrés). Ces inégalités peuvent impliquer des "expositions cumulées" (professionnelles, air intérieur, transports). Cependant, certains cas montrent des gradients non univoques (ex: certaines pollutions chimiques persistantes plus fortes chez les mères favorisées).
      • Inégalités de vulnérabilité : "les populations socio-économiquement défavorisées et les populations minoritaires sont plus vulnérables aux conséquences d'une exposition à des pollutions industrielles même quand elles sont plus faiblement exposées." Cela s'explique par une moins bonne santé initiale, un moindre recours à la prévention/soins, et une capacité réduite à échapper aux expositions (ex: difficulté à déménager).
      • "les enfants pauvres sont victimes d'une double peine" : plus vulnérables à la pollution de l'air en tant qu'enfants, et cette vulnérabilité est "exacerbée par leur statut socio-économique."

      4. Controverses et Obstacles à la Reconnaissance :

      • Débats sur l'ampleur et la causalité : Il existe des "débats sur l'ampleur de l'augmentation des maladies pédiatriques possiblement lié à des pollutions industrielles et sur le rôle des facteurs environnementaux". La Société française de lutte contre les cancers et les leucémies de l'enfant et de l'adolescent a par exemple affirmé publiquement "qu'il n'y a pas d'épidémie de cancer pédiatrique" et a relativisé le rôle des facteurs environnementaux, en contradiction avec d'autres scientifiques et associations pointant des augmentations dans d'autres pays et l'existence de "clusters inquiétants" (ex: Sainte-Pazanne).
      • Difficultés méthodologiques :Mesure de la santé : fragmentation des bases de données en France, absence de registres complets pour certaines pathologies (malformations, problèmes périnataux).
      • Mesure de l'environnement : manque de données environnementales "à des échelles suffisamment fines pour pouvoir objectiver des effets de santé et encore moins des inégalités sociales environnementales."
      • Obstacles politiques et sociaux à la production de connaissances :Les dangers des pesticides sont connus mais leur diffusion a été justifiée par une "fiction d'action publique" d'utilisation sans risque, basée sur des études de toxicologie.
      • Les données épidémiologiques sont arrivées tardivement et se sont concentrées sur les travailleurs masculins permanents, délaissant les femmes, intérimaires, saisonniers, et les expositions indirectes ou les populations difficiles à suivre (migrants, enfants).
      • Les industriels et organisations professionnelles "font obstacle délibérément à la circulation de l'information sur les pesticides" (composition exacte des produits, données d'utilisation à l'échelle de la parcelle), rendant la recherche "longue, coûteuse et décourageante".

      5. La Traduction Politique Réductrice des Connaissances et la Reconnaissance du Droit des Enfants :

      • Limitation des tableaux de maladies professionnelles : Malgré l'accumulation de données épidémiologiques, la création de tableaux de maladies professionnelles liées aux pesticides (cancer du sang, Parkinson, cancer de la prostate) s'est faite "après à chaque fois des négociations visant à limiter leur périmètre." Ils n'incluent pas toutes les pathologies documentées et, surtout, "ne prennent pas en compte les riverains".
      • Marginalisation des riverains : Les mobilisations pour un fonds d'indemnisation de toutes les victimes des pesticides n'ont pas abouti "devant les craintes du gouvernement de voir d'autres victimes environnementales s'en inspirer."
      • Création du droit pour les victimes pédiatriques professionnelles :Une avancée majeure : le Fonds d'Indemnisation des Victimes des Pesticides (FIVP) est désormais "chargé d'instruire les demandes de réparation concernant les enfants dont les problèmes de santé pourraient être liés à une exposition professionnelle au pesticides de leurs parents dans la période prénatale."
      • Ce droit ne bénéficie pas d'une présomption d'origine ; les familles doivent soumettre une demande évaluée par un groupe d'experts.
      • Cette création est liée aux mobilisations associatives et politiques, à l'évolution de la figure de l'enfant dans les sociétés industrielles ("sacralisés" et "valeur plus grande sur le marché de l'assurance", Viviana Zelizer), et aux expertises collectives de l'INCERM (2013, 2021) établissant un "présomption forte de lien entre certaines pathologies (leucémies, tumeurs cérébrales, troubles du neurodéveloppement, malformations congénitales) et l'exposition des parents au pesticides en milieu professionnel."

      6. Sous-Déclaration et Obstacles au Recours des Familles :

      • Seuls "22 [dossiers] concernés des maladies pédiatriques sur les 1970 dossiers reçus par le fond d'anémisation des victimes des pesticides entre 2020 et 2023", ce qui illustre un phénomène de "non recours au droit et de sous-déclaration et de sous-reconnaissance."
      • Facteurs sociaux influençant le parcours de reconnaissance :Faible communication institutionnelle : Le fond a eu une "communication très faible" auprès des associations et professionnels de santé. "Pour activer un droit il faut connaître ce droit."
      • Manque d'information des professionnels de santé : Les médecins (oncopédiatres, chirurgiens pédiatriques) informent rarement les familles d'une étiologie professionnelle possible, car ils sont peu formés sur les causes, centrés sur le soin, et "la question de la causalité du fait des incertitudes qu'elle renferme à l'échelle individuelle met des médecins dans une situation inconfortable."
      • Inégalités sociales face à la médecine : La capacité des familles à questionner l'étiologie dépend de leurs "ressources sociales et culturelles assez importantes pour réduire la symétrie d'information et de savoir entre les médecins et les patients."
      • Enjeux de Responsabilité et de Culpabilité :Les familles médiatisées (Gratalou, Marivin) ont des situations d'exposition "particulières" (exposition accidentelle au glyphosate, exposition salariée en fleuristerie) qui leur offrent des "prises pour construire une représentation limitée (...) de leur responsabilité dans la maladie de leur enfant", facilitant leurs démarches.
      • Les "travailleurs indépendants ont un sentiment de responsabilité plus fort et une difficulté plus grande à recourir en fond que les salariés." En particulier, les "exploitants agricoles rencontrés qui ayant utilisé délibérément des pesticides (...) peuvent se refuser à entrer dans une démarche médico-administrative impliquant de reconnaître pour eux-même et pour l'extérieur que leurs pratiques ont pu empoisonner leurs enfants." (Exemple de l'entretien avec une conjointe d'agriculteur).
      • La prise en charge institutionnelle (FIVP) et le rôle des associations ou consultations spécialisées peuvent être des "levier[s] direct[s] de déculpabilisation des familles" en politisant les maladies pédiatriques et en soulignant qu'elles sont la "conséquence de choix de développement industriel collectif."

      7. Conclusion : Les Enfants, Sentinelles des Politiques Publiques :

      Malgré les incertitudes scientifiques et la complexité multifactorielle des phénomènes, les maladies pédiatriques "révèlent des lacunes des politiques de protection des travailleurs et de l'environnement."

      "leur mise en évidence les doutes qu'elles soulèvent devraient être une invitation non pas à l'attente à l'inaction mais à une réflexion sur notre dépendance au produits chimiques et à une action collective pour s'en affranchir." (Prété)

    1. Document de synthèse : Les inégalités sociales et la santé sexuelle - L'exemple de l'avortement en France et dans le monde

      • Ce document de synthèse s'appuie sur la séance 2 du cours de Nathalie Bajos, "La production sociale des inégalités de santé", qui aborde les enjeux de sexualité et de santé sexuelle, en se concentrant sur l'exemple de l'avortement.

      Il vise à explorer les déterminants sociaux des pratiques liées à l'avortement, ses implications pour la santé des femmes, et les défis contemporains, notamment en France.

      I. L'avortement dans le monde : Une réalité universelle face à des législations hétérogènes

      La légalisation de l'avortement ne supprime pas sa pratique ; elle en modifie les conditions, avec des conséquences directes sur la santé des femmes.

      Légalisation et accès :

      • La carte de 2024 montre une grande variabilité des conditions d'accès à l'avortement dans le monde. La majorité de l'Europe, l'Australie, le Canada et l'Argentine l'autorisent "sur demande" (vert clair), mais cette notion est complexe et sujette à l'appréciation des professionnels de santé, révélant des rapports de pouvoir.

      • Dans d'autres régions, l'avortement est limité à la protection de la vie de la mère (rouge, ex : Brésil), ou totalement interdit.

      • Le cas des États-Unis (révocation de Roe v. Wade en juin 2022) illustre la fragilité des droits acquis, avec des États qui restreignent rapidement l'accès. Une étude a montré une augmentation de 7% des taux de mortalité infantile dans les mois suivant la révocation, principalement due à des anomalies congénitales qui auraient été précédemment interrompues.

      L'avortement malgré l'interdiction :

      • "Que l'avortement soit autorisé ou non, de toute façon les femmes y ont recours." Les restrictions n'empêchent pas les avortements, mais les forcent à être pratiqués dans des conditions sanitaires problématiques, entraînant une morbidité et une mortalité élevées.
      • Les données de l'Institut Allen Gutmacher (New York) confirment cette tendance : les taux d'avortement ne varient pas significativement entre les pays où il est autorisé, restreint ou interdit. Par exemple, même quand il est interdit, le taux de recours est de 39%.
      • Sous-déclaration : Les chiffres concernant l'avortement, surtout dans les pays où il est illégal, sont sous-déclarés, rendant les estimations minimales.

      Conséquences sanitaires des avortements non sécurisés :

      • L'OMS estime à plus de 60 millions d'avortements réalisés chaque année, dont près d'un sur deux n'est pas réalisé dans des conditions sanitaires satisfaisantes (soit au moins 35 millions).
      • Parmi ces avortements non sécurisés, un tiers sont réalisés par des personnes non formées utilisant des méthodes dangereuses (ex: aiguilles à tricoter), entraînant des perforations utérines et des décès.
      • Entre 5 et 13% des décès maternels sont attribués à des avortements non sécurisés.
      • Environ 7 millions de femmes sont hospitalisées chaque année pour des complications liées à un avortement non sécurisé.
      • L'interdiction de l'avortement est directement associée à des dizaines de milliers de problèmes de santé graves et à des décès de femmes.

      II. L'avortement en France : Un droit constitutionnalisé mais toujours sous tension

      En France, malgré la constitutionnalisation de la "liberté garantie" d'avorter le 28 février 2024 (suite à la loi Veil de 1975 et ses extensions), l'avortement reste un enjeu de santé publique et social.

      • Un processus en plusieurs étapes : Pour comprendre le recours à l'avortement, il est nécessaire de décomposer le processus :
      • Activité sexuelle sans intention de fécondité.
      • Absence ou échec de contraception.
      • Décision d'interrompre ou de poursuivre la grossesse.
      • Accès aux soins pour l'IVG.
      • Évolution de l'activité sexuelle et de la contraception :
      • L'activité sexuelle est plus fréquente et diversifiée aujourd'hui, avec un recul de l'âge de la première maternité, augmentant le nombre d'épisodes potentiellement concernés par une grossesse non prévue.
      • Le paysage contraceptif est en pleine évolution et pose problème :
      • Augmentation des femmes sans contraception : En 2023, près de 9% des femmes n'utilisent aucune méthode contraceptive, une proportion plus élevée chez les femmes immigrées et celles en bas de l'échelle sociale.
      • Déclin de la pilule : L'utilisation de la pilule a chuté de 56,4% en 2000 à moins de 50% en 2010, s'accélérant après la crise des pilules de 3ème et 4ème générations en 2012. Ce déclin est lié à une défiance générale envers les produits hormonaux et un mouvement vers des méthodes "plus naturelles" mais moins efficaces.
      • Réticence à la stérilisation et au stérilet : La stérilisation reste très faible en France par rapport à d'autres pays. Le stérilet (DIU), bien que promu par l'OMS comme méthode de première intention, a longtemps été prescrit avec réticence aux femmes nullipares en France, par crainte infondée de risques pour la fertilité. Il y a eu une "norme contraceptive française qui interdit la stérilisation" et stigmatise l'accès au stérilet pour les jeunes femmes.
      • Les méthodes de longue durée (DIU, implant) ont augmenté, mais des inégalités subsistent : l'implant est plus souvent prescrit aux femmes étrangères, reflétant des représentations stéréotypées des professionnels de santé sur leur capacité à gérer une contraception quotidienne.

      Augmentation des grossesses non souhaitées et des IVG : * La baisse de l'efficacité globale de la couverture contraceptive s'accompagne d'une augmentation du nombre de grossesses non souhaitées entre 2016 et 2023. * La France observe une augmentation des taux d'avortement depuis 2015 (particulièrement chez les 20-24 ans, mais présente dans toutes les tranches d'âge). * Le "paradoxe contraceptif" : Jusqu'à récemment, malgré une baisse des grossesses non prévues au niveau mondial (grâce à une meilleure contraception), les taux d'avortement sont restés stables. Cela s'explique par le fait qu'en cas de grossesse non prévue, les femmes l'interrompent plus facilement. Cependant, la tendance actuelle en France est à l'augmentation des grossesses non prévues en raison d'une moins bonne couverture contraceptive.

      III. La norme procréative et la décision d'avorter

      Le recours à l'IVG est profondément ancré dans des normes sociales, notamment la "norme procréative" et la "norme contraceptive".

      • La norme procréative : Elle dicte les "bonnes conditions" pour avoir des enfants (âge, nombre, stabilité relationnelle et financière). L'IVG est souvent un moyen de s'y conformer. "Le recours à l'IVG c'est une façon de respecter la norme procréative."
      • Évolution des représentations de la maternité :En 2023, une majorité de personnes (hommes et femmes) considèrent qu'une femme peut réussir sa vie sans avoir d'enfant.
      • Cette perception a connu une "évolution absolument spectaculaire" : en 2006, 28% des femmes pensaient qu'elles pouvaient réussir leur vie sans enfant, contre plus de 80% en 2023. Cette évolution est particulièrement marquée chez les jeunes générations et reflète un recul de la norme hétérosexuelle et une diversification de la sexualité.
      • La décision d'avorter est socialement construite :Le choix de poursuivre ou d'interrompre une grossesse est fortement influencé par le milieu social. Par exemple, une jeune femme issue d'un milieu favorisé en prépa à Paris aura plus souvent recours à l'IVG pour préserver une trajectoire professionnelle brillante.
      • À l'inverse, une jeune femme du même âge issue d'une zone défavorisée pourrait choisir de poursuivre la grossesse, car la maternité peut lui procurer un statut social que ses études ne lui apporteraient pas. "Ces études ne l'amèneront nulle part et ne lui permettront pas d'acquérir un statut social via une position professionnelle intéressante." La "bonne" décision varie selon les attentes sociales et les opportunités offertes par le milieu.

      IV. La pratique de l'avortement et la culpabilité des femmes

      Malgré la légalisation, l'avortement reste un acte médicalement et socialement complexe, qui génère encore de la culpabilité.

      • Évolution des représentations de l'IVG :
      • La perception selon laquelle il "ne devrait presque plus y avoir d'interruption volontaire de grossesse aujourd'hui" a fortement diminué entre 2010 et 2023. Aujourd'hui, plus de 50% des femmes de 18-24 ans considèrent que les IVG sont inévitables.
      • Cependant, les hommes montrent moins de changement dans leurs représentations.
      • Émotions ressenties après l'IVG :
      • Les femmes ressentent un "soulagement extrêmement élevé" après l'IVG, mais également une "culpabilité qui reste très forte". Près de 60% des jeunes femmes ressentent de la culpabilité, un taux encore plus élevé chez les 35-44 ans.
      • Les hommes semblent moins affectés par la culpabilité, notamment chez les plus jeunes.
      • Culpabilisation par les professionnels de santé :
      • Une femme sur cinq (20%) âgée de 20-24 ans déclare avoir entendu des "propos culpabilisants" de la part de professionnels de santé au moment de l'IVG.
      • Les IVG ne sont pas toutes jugées "légitimes" de la même manière par les professionnels : une IVG suite à un échec de stérilet est mieux perçue qu'une deuxième IVG ou une IVG en l'absence de contraception, qui peuvent être stigmatisées.
      • Le fait que l'avortement reste un "droit qui n'est pas comme les autres" est symboliquement lié à la persistance d'une "clause de conscience superfétatoire" pour les professionnels de santé, spécifique à l'IVG et à la stérilisation, bien qu'une clause de conscience générale existe déjà. Cette spécificité envoie un message symbolique fort.
      • Enjeux contemporains de l'avortement en France :
      • Peu gratifiant professionnellement : L'avortement est un acte "peu gratifiant professionnellement", ne favorisant pas les carrières médicales (contrairement à la PMA).
      • Problème de démographie médicale : Moins de médecins s'engagent dans cette pratique, en partie par manque de "conscience politique" chez les jeunes générations.
      • Difficultés d'accès : Persistance de problèmes d'accès, notamment dans les "déserts médicaux", affectant la rapidité et la qualité de la prise en charge.
      • Préférence pour l'IVG médicamenteuse : L'IVG médicamenteuse est de plus en plus privilégiée, parfois au détriment de l'IVG chirurgicale, limitant le choix des femmes et posant des problèmes en cas de retour à domicile difficile.
      • Le poids du discours : Les mouvements anti-avortement ont évolué : ils ne diabolisent plus les femmes comme "criminelles" mais comme des "victimes" qui manquent de moyens matériels pour poursuivre leur grossesse. Ils promeuvent l'idée d'un "syndrome post-traumatique" lié à l'avortement, bien que la littérature scientifique prouve son inexistence.
      • Persistance du stigmate : La phrase de Simone Veil, affirmant que l'avortement "était un drame et resterait toujours un drame", continue de peser. La stigmatisation de l'avortement est perçue comme un "rappel à l'ordre de genre", car les femmes qui avortent "dérogen" à leur rôle social reproductif.

      Conclusion :

      La compréhension du recours à l'avortement nécessite une analyse multidimensionnelle, intégrant les évolutions des pratiques sexuelles, des normes contraceptives et procréatives, et des interactions avec le système de santé.

      Malgré les avancées législatives, notamment en France, la culpabilité et la stigmatisation persistent, soulignant la nécessité de continuer à travailler pour que les femmes puissent avorter "sans culpabilité" et que ce droit soit pleinement intégré comme un droit de santé à part entière.

    1. Document de Synthèse : La Production Sociale des Inégalités de Santé et le Cas de l'Avortement en France

      • Ce document de synthèse s'appuie sur la présentation de Raphaël Perin, jeune sociologue, qui a mené une thèse sur les médecins et la pratique de l'avortement, et qui s'inscrit dans une nouvelle vague de recherche sociologique sur la santé sexuelle et reproductive en France, initiée notamment par Nathalie Bajos.

      La présentation met en lumière la manière dont la médecine, en prodiguant des soins, peut paradoxalement créer des inégalités de santé, en se basant sur le cas spécifique de l'avortement en France.

      1. Contexte de la Recherche et Importance du Sujet

      • Renouveau de la recherche sociologique en France : Après une longue période de quasi-absence, la recherche sociologique sur l'avortement et la contraception en France connaît un essor significatif. Nathalie Bajos souligne l'émergence d'une "vraie force de recherche dans ce domaine en France," avec de nombreuses thèses et la création d'un laboratoire dédié (Lab Genré Contraception).

      Cette masse critique de recherche permet de "produire des connaissances scientifiques et critiques sur le sujet."

      • Les inégalités de santé comme axe central : Les travaux de Raphaël Perin s'inscrivent dans la lignée des recherches de Nathalie Bajos sur les inégalités de santé, abordant spécifiquement le troisième niveau de production de ces inégalités : la prise en charge par le système de santé.

      L'objectif est de comprendre "la manière dont la médecine en soignant crée des inégalités de santé, ce qui peut paraître contre-intuitif."

      • Pertinence de l'avortement comme cas d'étude :Enjeux politiques et sanitaires : L'avortement est intrinsèquement lié à des questions politiques et sanitaires. Bien que légal en France, son accès égalitaire reste un défi. Dans les pays où il est illégal, il est une cause majeure de mortalité.
      • Portée démographique et sociale : En France, environ 220 000 IVG sont pratiquées par an, concernant "une femme sur trois au cours de sa vie, une femme sur sept recourt deux fois ou plus." Cette large portée, touchant "presque toutes les catégories sociales," en fait un terrain propice à "l'objectivation et à l'observation en série des différences de traitement par l'institution médicale."
      • Cas "contre-intuitif" d'inégalités : L'IVG est un acte médicalement sûr, sans diagnostic complexe (hors confirmation de grossesse intra-utérine) et la loi donne explicitement aux femmes le choix de la méthode. On s'attendrait donc "naïvement à ce qu'il n'y ait pas de variation et pas d'inégalité dans la prise en charge." C'est précisément ce contraste qui rend l'étude de l'avortement "particulièrement fécond[e] pour penser la production médicale des inégalités."

      2. Le Paradoxe de l'Accès à l'Avortement en France :

      Une Loi Simplifiée, une Pratique Complexe et Inégalitaire * Simplification législative théorique : La loi sur l'avortement a connu 50 ans de réformes successives, considérablement simplifiant le cadre légal. Les femmes n'ont plus l'obligation d'attendre une semaine de réflexion, de voir une psychologue, peuvent avorter à domicile, gratuitement, et à des termes plus avancés. Les étrangères non résidentes et les mineures ont également un accès facilité. * Complexité et inégalités pratiques : Malgré la loi, "en pratique l'avortement reste une pratique procréative stigmatisée, taboue" et "l'accès à l'avortement en particulier reste long, complexe, semé d'embûches et inégalitaire." La condition majeure est que l'acte doit être réalisé par un médecin ou une sage-femme, leur "marge de manœuvre dans cette application de la loi" devenant cruciale. * Méthodologie de la recherche : La thèse de Raphaël Perin s'appuie sur une enquête de 4 ans, incluant 6 mois d'observation dans trois centres d'IVG (grande métropole, ville moyenne avec équipe féministe, département rural sous-doté), des entretiens avec des professionnels de santé de toute la France et une enquête qualitative auprès de 1000 médecins.

      3. Les Inégalités d'Accès à l'Avortement en France :

      Variations selon les Médecins, les Centres et les Femmes Raphaël Perin révèle une "grande variation des parcours d'IVG, des modalités de l'avortement selon deux choses : selon les femmes qui le demandent et selon les médecins à qui elles le demandent ou les centres dans lesquels ils travaillent."

      • Variations liées aux professionnels de santé et aux centres :Rapidité du parcours : Malgré la suppression du délai d'attente obligatoire, la plupart des centres imposent un délai incompressible (1 à 2 jours, voire plus), tandis qu'une minorité permet l'avortement le jour même.
      • Terme gestationnel : Certains centres acceptent l'avortement dès le premier signe de retard de règles, d'autres contraignent les femmes à attendre que l'embryon soit visible à l'échographie, ce qui retarde la prise en charge de plusieurs semaines.
      • Limite de terme : Bien que la loi autorise jusqu'à 14 semaines, certains centres refusent au-delà de 10 ou 12 semaines pour des "raisons de refus de médecin[s] de pratiquer ce geste à des termes avancés." De plus, des "subtilités dans le calcul du terme de grossesse" peuvent entraîner des différences allant jusqu'à deux semaines d'un centre à l'autre pour la même grossesse.
      • Conditions imposées : De nombreux centres maintiennent des exigences non obligatoires, comme l'entretien psychosocial (rendu optionnel en 2001) ou la prise du premier médicament abortif au centre, ce qui est "non seulement assez infantilisante mais qui contraint le moment [...] du déclenchement de l'expulsion." Des "examens intimes et non obligatoires," comme le toucher vaginal, peuvent également être imposés.
      • Choix de la méthode : Le choix de la méthode (médicamenteuse ou instrumentale) n'est pas toujours laissé aux femmes. Si des médecins ne pratiquent pas l'IVG chirurgicale ou ne l'aiment pas, les femmes sont "contraintes ou fortement orientées" vers la méthode médicamenteuse.
      • Motivations des complications : "L'inertie d'une représentation de l'avortement comme étant un acte grave, dramatique, voire traumatique qu'il faut prévenir ou à minima défaut qu'il faut encadrer plutôt qu'un acte procréatif simple, sécurisé et banal." Ce n'est pas tant une opposition morale généralisée (le soutien au droit à l'avortement est "très fort, très répandu" parmi les médecins) qu'une réticence à le pratiquer soi-même et la conviction que "sans cet encadrement l'avortement va être traumatique pour les femmes." La phrase fréquente est : "On n'est pas là pour vider des utérus", signifiant que le cœur du travail est l'accompagnement et l'éducation, pas la simple interruption de grossesse.
      • Variations selon les femmes (valeur sociale) :Exemples flagrants de différenciation : Des cas concrets illustrent des traitements radicalement différents. Une étudiante infirmière blanche de 20 ans, sympathique, se voit accorder une exception pour avorter le jour même en urgence pour ne pas manquer ses partiels. Une femme noire nigériane anglophone de 28 ans issue d'un quartier populaire, demandant la même chose car habitant loin, se voit refuser catégoriquement, l'infirmière affirmant qu'aucune exception n'est possible.
      • Jugements moraux et "valeur sociale" : Inspiré de la sociologie de la différenciation des pratiques médicales, le concept de "valeur sociale" condense "les jugements moraux que portent les professionnels de santé sur les patients et patientes selon leur comportement et selon leurs caractéristiques sociales et en particulier leur position dans les rapports de classe de race et d'âge."
      • Critères de la "bonne avortante" : Les femmes les plus jeunes qui "ne peuvent vraiment pas avoir d'enfants aussitôt" et celles qui "ressemblent socialement aux professionnels de santé (plutôt les femmes blanches francophones de classe moyenne ou supérieure)" bénéficient d'une meilleure prise en charge. Les professionnelles de santé elles-mêmes accèdent à l'IVG avec un minimum de contraintes. Le "respect des normes sexuelles et procréatives" est également clé : avorter peu (une ou deux fois), adopter une contraception jugée efficace, avorter précocement, et afficher "un peu de détresse mais pas trop." Les "bonnes avortantes ont plus de chance d'être prises en charge rapidement, hors délais ou de pouvoir choisir les modalités de leur avortement."
      • Conclusion partielle : "Toutes les femmes ont droit à l'avortement en France mais certaines y ont plus droit que d'autres."

      4. La Domination Médicale et ses Mécanismes

      • La capacité des médecins à contrôler les modalités de l'avortement malgré la loi qui les place en "prestataire de service" est expliquée par le concept de "domination médicale."
      • Définition de la domination médicale : C'est un "rapport social spécifique" qui diffère du simple pouvoir. Le pouvoir est la capacité d'influencer autrui ; la domination est une forme particulière de pouvoir où celui-ci est "soit invisible, soit reconnu comme légitime, naturel ou bénéfique," intériorisé par les dominés et les dominants. Il s'agit d'une "asymétrie structurelle qui dépasse les simples contextes individuels de soins" et qui permet aux médecins de contrôler les comportements des patients.
      • Causes de l'asymétrie structurelle :Vulnérabilité physique ou psychologique des patients (maladie, grossesse).
      • Détention d'un savoir expert par les médecins.
      • Monopole légal de l'accès aux biens de santé (médicaments, infrastructures, droit de pratiquer).
      • La combinaison de ces facteurs crée une situation de "dépendance autant que de domination."
      • Mécanismes de contrôle des comportements :En amont : Interprétation de la loi : Les médecins définissent les règles du cadre de l'IVG (nombre et contenu des consultations, durée des parcours). L'exemple le plus frappant est la datation de la grossesse. La loi ne définit pas comment dater une grossesse jusqu'à 14 semaines. Bien que l'échographie soit utilisée, elle donne une image (taille du fœtus) et non un âge gestationnel précis. Les médecins fixent une "taille maximale de fœtus" au-delà de laquelle ils n'autorisent plus l'avortement, et cette taille varie d'un centre à l'autre selon leurs préférences morales ou politiques. Il peut y avoir "une différence allant jusqu'à 10 jours d'un centre à un autre de ce que c'est qu'une grossesse de 14 semaines." Cela rend le contrôle "complètement invisible cette dimension de pouvoir et de marge de manœuvre."
      • Dans l'interaction : Micro-techniques de pouvoir : Ces techniques s'appuient sur le "capital symbolique des médecins" (experts compétents et désintéressés).
      • Conseils : Présenter une option comme "la meilleure" pour la patiente ("l'implant c'est génial," "l'aspiration je vous le déconseille").
      • Menaces de complications sanitaires : Faire craindre des risques sur la fertilité pour encourager l'adoption d'une contraception, même si ces risques sont infondés (ex: "3 IVG pas de contraception vous risquez de pas réussir à en faire").
      • Appel à la loi ou au protocole : Invoquer une contrainte objective pour nier leur marge de manœuvre ("c'est la loi, c'est obligatoire, c'est le protocole").
      • Maîtrise du temps : Jouer sur les délais pour influencer le comportement ou le choix de méthode (proposer l'IVG médicamenteuse "tout de suite" et l'instrumentale "dans une ou deux semaines").
      • Le mensonge : Ces techniques "s'appuie[nt] assez largement sur le mensonge," qui, bien que commun, est difficile à "analyser le fait que les médecins mentent" en raison de leur capital symbolique.
      • Le consentement : Le consentement tel que pratiqué "ne correspond pas du tout à une adhésion libre et éclairée." L'asymétrie de la domination médicale "brouille la question du consentement." Il est "largement produit en amont de l'interaction et dans l'interaction médicale."

      5. Apprentissage de la Domination Médicale et Intersectionnalité

      • Socialisation des médecins : Devenir médecin, c'est aussi "intérioriser une des manière de faire, de penser et de sentir qui correspondent à leur position dans le rapport de domination," c'est "apprendre à exercer le pouvoir et à s'y sentir légitime." Cette socialisation peut inclure un "apprentissage pratique, scolaire presque du paternalisme," même si initialement les internes peuvent ne pas être à l'aise avec cette autorité.
      • Hétérogénéité de la profession médicale : Il est crucial de souligner que la médecine n'est pas homogène. Les parcours professionnels, les influences non professionnelles (génération, expérience personnelle de l'avortement, socialisation politique et engagement féministe) définissent des manières différentes d'exercer. Les médecins formés aux rapports sociaux de pouvoir ont de meilleures chances de ne pas reproduire les inégalités.
      • Intersection de la domination médicale et des rapports sociaux : La capacité des femmes à contrôler les modalités de leur avortement varie "plus ou moins selon qui elles sont." Les micro-techniques de pouvoir et le mensonge sont appliqués différemment.
      • Exemple de la consultation post-IVG : Une femme blanche de 25 ans se voit offrir le choix d'un examen de confirmation du succès de l'IVG. Une femme racisée voilée de 30 ans, avec un taux d'hormone tout aussi bon, se voit imposer un examen vaginal et une échographie, sans choix. La médecin justifie cela en estimant que la première femme est "plus structurée mentalement" et peut comprendre sans examen, tandis que la seconde n'aurait pas les "capacités mentales pour le comprendre," une différence basée uniquement sur "les caractéristiques sociales de ces deux femmes."
      • Inégalités du consentement et violences médicales : Le consentement "libre et éclairé" est une norme contraignante face à "certaines femmes." Celles "qui occupent une position dominée dans les rapports de classe et de race, les plus jeunes, celles qui s'écartent aussi des normes sanitaires et sexuelles ne sont pas jugés aussi responsable et capable de prendre des décisions éclairées." Le paternalisme devient un "devoir professionnel" envers elles. Les "violences médicales" (familiarité excessive, humiliation, sexualisation des patientes par des médecins hommes) sont plus susceptibles de survenir lorsque les patientes sont "en position socialement dominée" (femmes, enfants, femmes racisées, classes populaires précaires, personnes handicapées, minorités de genre ou sexuelles).
      • Racisme et altérité : Les femmes racisées et allophones sont non seulement "moins bien traitées médicalement" (stéréotypes racialisants, non-prise en compte de l'allophonie, refus de l'interprétariat), mais aussi "moins bien soignées en raison de la non prise en compte de leur halophonie [...] mais aussi parce qu'elles sont traitées avec moins de respect dans l'interaction." Des cas de "prises en charges ouvertement racistes" sont observés.

      6. Implications et Perspectives

      • Au-delà des inégalités territoriales : Les inégalités liées à l'avortement ne se limitent pas à l'offre de soins mais sont profondément ancrées dans les "pratiques concrètes des professionnels de santé," même ceux favorables aux droits à l'avortement.

      • Intérêt scientifique, médical et politique de l'analyse sociologique :Formation des médecins : L'analyse souligne l'importance de former les médecins aux rapports sociaux de pouvoir pour atténuer les inégalités de santé.

      • Politiques publiques et luttes pour les droits reproductifs : Le discours sociologique complète les discours existants en France :

      • Le "discours glorificateur des pouvoirs publics" qui "tendent à exagérer les acquis à considérer comme achever la lutte pour l'avortement."

      • Le "regard sombre porté à raison sur l'état actuel du droit à l'avortement et de ses évolutions" qui, en se concentrant sur ce qui pourrait être perdu, "conduit parfois à oublier ce qu'il reste à améliorer."

      • La recherche fournit des pistes pour une politique "non seulement défensive de ne pas perdre le droit à l'avortement mais de continuer à rendre ce droit plus effectif, plus égalitaire ou à continuer à le développer."

      • Redéfinition des inégalités de santé : Les inégalités de santé ne se limitent pas à l'accès aux soins ou aux différences de mortalité, mais incluent "la manière d'être traité, d'être considéré et de contrôler les conditions et les modalités de ces soins."

      • La médecine comme productrice de hiérarchies sociales : La domination médicale et la différenciation des pratiques créent des différences d'accès aux traitements et, au-delà, contribuent, aux côtés d'autres institutions, "au processus de production et d'intériorisation des hiérarchies sociales."

      La médecine "participe à les former en faisant de ces différences des marqueurs signifiant de supériorité ou d'infériorité et en y socialisant les patients."

      • En somme, il ne s'agit pas seulement de voir "ce que l'ordre social fait à la médecine," mais aussi "ce que la médecine fait à l'ordre social," en instituant et reproduisant des inégalités non seulement sanitaires mais aussi sociales.
    1. Note de synthèse : La production sociale des inégalités de santé sexuelle chez les minorités de genre et sexuelles

      Cette synthèse s'appuie sur la présentation d'Emmanuel Bobati, sociologue et chercheur au CNRS, spécialiste des minorités sexuelles et de genre.

      Il aborde la production sociale des inégalités de santé, en particulier de santé sexuelle, chez les personnes LGBT (Lesbiennes, Gays, Bisexuels, Transgenres) en soulignant l'importance d'une approche critique des catégories utilisées et la nécessité d'inscrire la prévention dans des contextes sociaux et des trajectoires de vie complexes.

      Thèmes principaux et idées clés :

      Visibilité et vulnérabilité des recherches sur les minorités sexuelles et de genre en santé :

      • Les recherches sur les personnes LGBT sont souvent vulnérables, particulièrement dans des contextes politiques incertains pour leurs droits et leur santé.

      • Les minorités sexuelles et de genre sont fréquemment "laissées de côté" dans les recherches en santé, même si elles sont présentes dans les échantillons. Leurs inégalités sociales liées à leur sexualité ou trajectoire de genre sont peu visibles et thématisées.

      • Le domaine de la santé sexuelle est le principal champ où ces minorités sont prises en compte, et c'est souvent grâce à cette approche que les études sur l'homosexualité (depuis les années 80) et plus récemment sur les transidentités se sont développées.

      Historique et évolution des enquêtes sur la santé sexuelle des minorités :

      • Historiquement, la lutte contre le VIH/SIDA s'est focalisée sur les hommes gays cisgenres (personnes qui ne sont pas trans). L'enquête "Presse gay" (lancée par Michael Polac en 1984) en est un exemple.

      • Les femmes trans ont été particulièrement touchées par le VIH/SIDA, avec des taux de prévalence potentiellement supérieurs à ceux des hommes gays, ce qui a été confirmé empiriquement. Cependant, elles n'ont été intégrées aux politiques de santé publique qu'à partir des années 2010.

      • Les femmes lesbiennes sont "très largement sous-enquêtées dans le domaine de la santé sexuelle" malgré une prévalence d'infections sexuellement transmissibles (IST) plus élevée que chez les femmes hétérosexuelles.

      • Les enquêtes sur la sexualité en population générale, comme "Analyse des comportements sexuels en France" (1992) et "Contexte de la sexualité en France" (2006, codirigée par Nathalie Bajos), ont souligné les inégalités socio-sexuelles entre hommes et femmes, ainsi qu'entre hétérosexuels et homosexuels. Cependant, elles n'incluaient pas encore les personnes trans, ce qui est prévu pour l'enquête "Contexte des sexualités en France 2023" de l'INSERM.

      • L'enquête "Trans et santé sexuelle" (INSERM, 2010) a spécifiquement porté sur les populations trans, utilisant des méthodes mixtes (quantitatives et qualitatives).

      • L'approche constructiviste du risque et la production sociale des inégalités de santé sexuelle :

      • Les recherches s'intéressent à la "production sociale des inégalités de santé sexuelle", allant au-delà des comportements sexuels ou des "facteurs de risque" pour comprendre les conditions sociales de production de ces risques.

      • "Aucun groupe social n'est naturellement plus exposé au risque qu'un autre. Cette exposition est le résultat de logique sociale et notamment de rapports sociaux de domination."

      • Cette approche, qualifiée de "constructiviste du risque" ou "socio-culturelle du risque en santé sexuelle", met en lumière le fait qu'en raison des inégalités sexuelles et de genre, les personnes LGBT "ont plus de risque de rencontrer des risques que les personnes hétérosexuelles et cisgenres".

      Le genre comme rapport social et la transition comme mobilité sociale :

      • L'hypothèse centrale de la recherche de Bobati est que "les personnes trans sont en quelque sorte des transfuges", si l'on considère le genre comme un rapport social, à l'instar de la classe sociale (suivant les féministes matérialistes comme Christine Delphy, Colette Guillaumin, Danielle Kergoat).

      • La transition de genre peut être envisagée comme une "forme de mobilité sociale", une "mobilité de genre et conjointement une mobilité de sexualité".

      • Le concept de "passing" (se faire passer pour) est souvent utilisé pour le genre et la race, contrairement à la "mobilité sociale" pour la classe. Bobati critique cette distinction car elle tend à "naturaliser le genre et la race", impliquant une authenticité manquante.

      • Les populations trans sont des "populations minorisées", stigmatisées, opprimées et discriminées, et leur minorisation est due à leur mobilité même. Genre et sexualité sont "indissociables" dans cette minorisation.

      Les trajectoires trans et leurs implications pour la santé sexuelle :

      Il existe différentes trajectoires de transition :

      • Femmes trans qui transitionnent tardivement (autour de la cinquantaine) : Souvent après une première vie d'homme hétérosexuel, mariés et parents.

      • Femmes trans qui transitionnent jeunes : Plus à risque de marginalisation, isolement et précarité (difficultés à trouver un emploi stable, dépendance parentale). Elles sont plus concernées par le travail du sexe.

      • Hommes trans : Transitionnent majoritairement jeunes, dans de meilleures conditions sociales et matérielles que les jeunes femmes trans (moins de ruptures familiales, moins d'expérience de grande précarité). Leur trajectoire est plus homogène.

      • Ces trajectoires socio-sexuelles distinctes influencent la sexualité et le rapport au risque.

      Deux dimensions cruciales pour étudier la santé sexuelle des LGBT :

      • Hiérarchisation des risques (condition minoritaire) : Les risques liés à la santé sexuelle ne sont pas toujours la priorité principale pour les personnes LGBT confrontées à d'autres risques sociaux et psychosociaux :
      • Stigmatisation, marginalisation, précarisation, violence, discrimination.
      • Risque de "réassignation" (être renvoyé à son sexe d'origine) dans les interactions sociales et sexuelles, particulièrement pour les femmes trans.
      • Risque de violence dans la relation médicale, entraînant une réticence à consulter pour la santé sexuelle.
      • Ces risques sont inégalement vécus : les jeunes femmes trans sont les plus touchées par le risque de précarisation.
      • Socialisations sexuelles et préventives (mobilité sociale) :Avant la transition :Femmes trans transitionnant tardivement : Souvent hommes hétérosexuels avec une socialisation préventive minimale (compagne gérant la contraception).
      • Femmes trans ayant été gays : Ont une meilleure conscience du risque VIH/SIDA grâce à leur socialisation dans les milieux gays où la prévention est plus intégrée.
      • Hommes trans : Majoritairement lesbiens, avec une faible préoccupation de prévention (les lesbiennes étant peu ciblées par les politiques de santé publique en la matière).
      • Après la transition (mobilité sexuelle) :Les femmes trans tendent à s'hétérosexualiser ("l'hétérosexualité agit comme une fabrique très puissante de la féminité").
      • Les hommes trans tendent à s'homosexualiser/gayifier (un tiers ayant des relations avec des hommes après transition, plus que les hommes cisgenres). Devenir gay peut être un moyen de composer avec la "culpabilité" liée à l'ascension sociale et à la masculinité hégémonique.
      • Les dispositions préventives initiales survivent en partie à la transition. Certains "habitus de gestion du risque peuvent devenir insuffisants dans les nouvelles configurations sexuelles et relationnelles".
      • Les socialisations secondaires ne s'accomplissent pas comme les primaires. Il y a une "part d'inertie dans les trajectoires de transfuge".
      • Critique des catégories et le "paradoxe minoritaire" :
      • Le chercheur souligne le "paradoxe minoritaire" (Johan Scott) : pour déconstruire les catégories (hommes, femmes, hétéros, homos, trans, cisgenres), on est souvent contraint de les utiliser pour enquêter, communiquer et construire des politiques publiques.
      • Ces catégories sont des "labels qu'on ne questionne pas ou peu", alors qu'elles "rassemblent en fait des personnes et des groupes qui sont très différents les uns des autres" et ne sont "ni figées ni exclusives".
      • La sexualité et le genre sont pluriels et transversaux, non réductibles à un corps, une assignation ou une identité subjective. Ce sont avant tout des "rapports sociaux" qui "infusent l'ensemble de nos pratiques".
      • Il propose de penser le genre et la sexualité comme un "espace social" (inspiré de Bourdieu), au-delà des binarités homme-femme, hétéro-homo, cisgenre-trans.

      L'intersectionnalité des rapports sociaux :

      • Bobati insiste sur l'importance de l'intersectionnalité (Kimberlé Crenshaw), qui montre comment les rapports sociaux de genre, de race et de classe se coproduisent. "Selon la position sociale de race et de classe que l'on occupe on ne fait pas la même expérience du genre et de la sexualité et donc aussi de la santé sexuelle."
      • Cibler un groupe spécifique en santé publique (femmes, gays, trans, travailleurs du sexe) ne permet pas de s'adresser pertinemment à toutes les personnes du groupe, car les expériences sont diverses.
      • Les politiques de prévention destinées aux personnes trans dépendent fortement de celles destinées aux gays, lesbiennes, travailleuses du sexe ou même hommes hétérosexuels. La santé sexuelle de ces populations est interdépendante.

      L'universalisme minoritaire :

      • La présentation se termine sur le concept d'"universalisme minoritaire" (Bruno Perreau) : "protéger une minorité revient toujours à protéger bien au-delà de cette minorité".
      • La défense de la santé et des droits des LGBT bénéficie à l'ensemble de la société, "quelle que soit leur trajectoire de genre et de sexualité".

      En conclusion, la présentation d'Emmanuel Bobati met en lumière la complexité des trajectoires de genre et de sexualité et leur impact sur la santé sexuelle.

      Elle appelle à une approche sociologique fine, qui dépasse les catégories binaires et prend en compte la hiérarchisation des risques, les socialisations, les mobilités sociales et l'intersectionnalité, afin de mieux comprendre et adresser les inégalités de santé.

    1. Note d'information détaillée : La production sociale des inégalités de santé et la sexualité

      Source : Extraits de "La production sociale des inégalités de santé (9) - Nathalie Bajos (2024-2025)"

      Date de la présentation : 2024-2025

      Conférencière : Nathalie Bajos, sociologue au CNRS

      Introduction : La sexualité comme enjeu sociologique et de santé

      • Nathalie Bajos, sociologue au CNRS, aborde dans cette présentation la complexité de la sexualité humaine sous l'angle sociologique, en soulignant qu'elle n'est pas uniquement régie par des facteurs biologiques, contrairement à la sexualité animale.

      La sexualité humaine est "très large et peut se produire à tous les moments de la vie".

      L'objectif est de comprendre comment les enjeux de sexualité et de santé sont façonnés par des facteurs sociaux, notamment les risques liés à l'activité sexuelle (avortement, violences sexuelles, problèmes de santé mentale).

      L'analyse sociologique de la sexualité implique de recueillir des données sur :

      • Les actes (pratiques sexuelles diverses).
      • Les relations dans lesquelles ces pratiques prennent place (relations d'un soir, relations établies).
      • Les représentations sociales (légitimité ou interdit de certains actes), qui "évoluent comme on va le voir".
      • Les contextes sociaux particuliers, incluant les conditions de vie, les trajectoires personnelles, et surtout les rapports de domination.
      • Rapports de domination structurant les sociétés humaines
      • Nathalie Bajos insiste sur le rôle central des rapports de domination, "répéter répéter répéter encore", qui structurent toutes les sociétés humaines et qui renvoient à l'appartenance de genre, de classe et de "race".

      • Domination masculine : Le groupe social des hommes domine le groupe social des femmes, visible à travers des indicateurs comme les écarts de salaires, la sous-représentation des femmes dans les postes de pouvoir (présidentes, députées, dirigeantes d'entreprises) et la répartition des tâches domestiques.

      • Domination de classe : Les classes bourgeoises dominent les classes productrices (classes ouvrières), comme l'a souligné Karl Marx.
      • Rapports sociaux de "race" : Bien que la "race" n'existe pas en tant qu'entité biologique ("il y a une seule race humaine"), elle "tue" en raison des processus de discrimination.

      Ces rapports sociaux ne jouent pas indépendamment les uns des autres. Être une femme, par exemple, prend un sens différent selon la classe sociale ou la "race" :

      "Ce n'est pas la même chose si vous êtes une femme ouvrière noire et une femme ouvrière blanche".

      Le paradoxe de l'idéal égalitaire dans la sexualité Un paradoxe sociologique majeur réside dans la sphère de la sexualité : alors qu'un idéal égalitaire s'est diffusé dans d'autres sphères sociales (travail, famille, politique), la sexualité est la seule où cet idéal "résiste" et "peine encore à émerger".

      La majorité des gens pensent que "non les hommes et les femmes c'est pas pareil dans le domaine de la sexualité".

      L'hypothèse forte de cette résistance est que les représentations dans le domaine de la sexualité forment un "système cohérent" qui permet la "reproduction" des rapports sociaux de sexe.

      L'idée est que "le social ne s'arrête pas à la porte de la chambre à coucher" ; "Le sexuel est politique et n'est pas que intime".

      La vision biopsychologisante de la sexualité

      • La persistance d'une "vision biopsychologisante de la sexualité" est un mécanisme clé pour gérer les tensions entre un éthos égalitaire (où les hommes et les femmes devraient être égaux dans la société) et les pratiques sociales qui restent inégalitaires.

      Cette vision postule que les différences entre les femmes et les hommes sont d'origine "naturelle", justifiant ainsi les inégalités observées.

      Par exemple, une femme adhérant à l'idéal égalitaire mais subissant des inégalités dans sa carrière et les tâches domestiques peut "résoudre cette tension" en se disant : "oui mais finalement quelque part c'est normal on n'est pas pareil.

      La preuve dans le domaine de la sexualité les hommes et les femmes c'est très différent".

      Évolutions des pratiques et représentations de la sexualité en France

      L'exposé s'appuie sur quatre grandes enquêtes nationales sur la sexualité en France (1970, 1992, 2006, 2023), montrant une progression dans la prise en compte des dimensions de genre, classe et "race".

      Évolutions des pratiques :

      • Âge du premier rapport sexuel : L'écart entre filles et garçons s'est réduit au fil du temps, avec un rapprochement des courbes. Une remontée récente de l'âge d'entrée dans la sexualité est observée, attribuée non seulement au Covid-19, mais aussi aux effets de la crise économique qui a retardé l'accès des jeunes à l'autonomie sociale et financière, le premier rapport étant un "marqueur d'une entrée dans une socialisation adulte".
      • Prolongement de la vie sexuelle : La vie sexuelle se prolonge beaucoup plus aux âges avancés qu'auparavant. L'âge de la ménopause (environ 50 ans) n'est plus le "coup près du sortir entre guillemets du marché de la sexualité" pour les femmes, rompant avec une conception de la sexualité féminine liée uniquement à la reproduction. Cependant, une inégalité persiste, les hommes ayant souvent des partenaires plus jeunes.
      • Diversification des partenaires : Le nombre moyen de partenaires sexuels déclarés a "spectaculairement" augmenté entre 1992 et 2023 pour les femmes (passant de 3,4 à 7,9) et pour les hommes (de 11,2 à 16,4). L'écart persistant entre hommes et femmes s'explique par une "définition d'un partenaire sexuel [qui] n'est pas la même pour les femmes et pour les hommes". Les femmes ont tendance à ne compter que "les hommes qui ont compté", c'est-à-dire des relations potentiellement sérieuses, tandis que les hommes comptabilisent aussi les partenaires d'un soir. Cela reflète la valorisation de la sexualité masculine dans sa "grande diversité" et la construction de la sexualité féminine autour de son "rôle reproductif".
      • Sexualité en ligne : Une partie croissante de la sexualité s'exerce dans les espaces numériques, avec un pourcentage élevé de jeunes ayant envoyé des images intimes.
      • Diversification des pratiques : La masturbation, la fellation, le cunnilingus et la pénétration anale sont des pratiques de plus en plus déclarées. L'augmentation spectaculaire de la masturbation chez les femmes (de 42% en 1992 à 73% aujourd'hui) "signe la possibilité pour les femmes de vivre une sexualité beaucoup plus dégagée des enjeux liés à la relation et liés aux représentations sur le rôle reproductif des femmes".
      • Sexualité non hétérosexuelle : La sexualité non hétérosexuelle est de plus en plus fréquente, surtout chez les jeunes et les jeunes femmes. Un indicateur global de "distance avec la norme hétérosexuelle" montre que 37,6% des femmes et 18,3% des hommes de 18-29 ans s'en écartent d'une manière ou d'une autre (attraction pour le même sexe, partenaire de même sexe, identité homo/bisexuelle).
      • Évolutions des représentations :
      • Sexualité récréative : L'acceptation d'avoir des rapports sexuels sans aimer la personne est en nette augmentation, surtout chez les jeunes et les femmes, marquant une "prise de distance très claire vis-à-vis du modèle de la sexualité hétérosexuelle en couple et cetera monogame".
      • Besoins sexuels par nature : L'idée que "par nature les hommes ont plus de besoins sexuels que les femmes" est de plus en plus rejetée, en particulier par les jeunes femmes (45% des 18-29 ans la rejettent), bien qu'elle reste majoritaire dans la population générale. Cette représentation est dénoncée comme une construction sociale sans fondement biologique, servant à "contrôler la sexualité des femmes".
      • Satisfaction sexuelle :
      • Malgré les "bouleversements" dans les pratiques et représentations, la satisfaction sexuelle est restée stable, voire légèrement augmentée chez les hommes. Cela contredit l'idée d'une "guerre des sexes" ou d'une perte de repères pour les hommes face à la libération de la sexualité féminine.

      Mythes, pratiques et tensions : Exemples concrets La présentation illustre comment le mythe des besoins sexuels masculins "par nature" façonne les expériences individuelles et génère des tensions :

      • Anne (23 ans) : Adhère à l'idée que les hommes ont des besoins physiques (besoin de "se vider") et "aide" son partenaire à prendre plaisir, même sans désir, pour éviter qu'il ne tombe "malade". Cela montre une intériorisation de la vision "médicalement reconnue" de cette nécessité masculine.
      • Éric (30 ans) : Croit en des besoins masculins "plus réguliers et plus physiques" et un appétit féminin qui "s'amoindrirait avec le temps". Face à une partenaire jeune ayant de forts besoins, il l'interprète comme une exception due à son jeune âge, maintenant sa représentation du "corps mécanique" masculin et du "corps systémique" (plus psychologique) féminin.
      • Arnaud (31 ans) : Rejette l'idée que les hommes aient plus d'envies, la qualifiant de "conneries culturelles qui permettent de contrôler la sexualité des femmes". Son expérience dans les cercles homosexuels le confronte néanmoins à une "culture de la virilité" et de la "performance" qui le met en décalage.
      • Muriel (55 ans) : Ayant longtemps cru à la supériorité des besoins masculins, elle a développé un regard critique, découvrant le plaisir physique et une sexualité harmonieuse et réciproque, en phase avec ses représentations égalitaires.
      • Sexualité contrainte et violences sexuelles
      • L'adhésion à la représentation que "par nature les hommes ont plus de besoins sexuels que les femmes" est fortement liée à la "sexualité plus contrainte pour les femmes". Les femmes qui adhèrent le plus à cette idée sont celles qui déclarent le plus souvent avoir des rapports sexuels sans en avoir envie "pour lui faire plaisir".

      La présentation met en évidence un "continuum" de contrainte dans la sexualité, où les rapports imposés sont "l'expression la plus violente la plus ultime".

      • Déclarations de violences : Les rapports forcés ou tentatives de rapport forcé sont "extrêmement élevées" : 37% des femmes de 18-29 ans et 12% des hommes déclarent en avoir subi. Dans plus de 95% des cas, l'agresseur est un homme.
      • Violences en ligne : Harcèlement sexuel, réception d'images intimes non sollicitées, diffusion d'images à l'insu sont également significatives (33% des femmes, 25% des hommes de 18-29 ans).
      • Augmentation des déclarations : L'augmentation des déclarations de violences est due à une plus grande facilité à en parler (climat social, enquêtes) et à une évolution de la "définition de ce que c'est qu'une violence" (ex: viol conjugal reconnu depuis 1982).
      • Profil des victimes : Les violences touchent tous les milieux sociaux mais sont plus fréquentes dans des situations de "grandes inégalités entre les partenaires" (dépendance économique, sociale, culturelle).
      • Impact sur les minorités sexuelles : Les personnes ayant une sexualité non strictement hétérosexuelle sont beaucoup plus confrontées aux violences (45% des jeunes femmes non hétérosexuelles vs 31% des hétérosexuelles) et aux problèmes de santé mentale (dépression sévère deux fois plus élevée). Cela est lié aux "multiples discriminations" subies.

      Conclusion et enjeux pour les politiques publiques

      En résumé, il y a une "plus grande diversité des pratiques sexuelles", remettant en question la norme hétérosexuelle et signalant un "mouvement de fond vers une plus grande égalité entre les sexes et entre les sexualités".

      Cependant, des "résistances" et des "discriminations" subsistent, empêchant certains groupes de vivre leur sexualité librement.

      Les enjeux de santé liés à la sexualité (VIH/SIDA, avortement) doivent être compris et interprétés en lien avec le contexte social des sexualités, c'est-à-dire les pratiques, les représentations et les rapports de domination.

      La prévention doit dépasser la logique strictement sanitaire pour s'inscrire dans le contexte social.

      Pour les politiques publiques, cela implique :

      • La lutte contre les inégalités sociales, les stéréotypes et les discriminations.
      • L'éducation à l'égalité et aux sexualités.
      • La question centrale de l'effectivité des droits sexuels et reproductifs, dont l'application quotidienne peut encore poser problème (exemple de l'avortement).
    1. Author response:

      The following is the authors’ response to the previous reviews.

      Public Reviews:

      Reviewer #1 (Public Review):

      Overall, the data presented in this manuscript is of good quality. Understanding how cells control RPA loading on ssDNA is crucial to understanding DNA damage responses and genome maintenance mechanisms. The authors used genetic approaches to show that disrupting PCNA binding and SUMOylation of Srs2 can rescue the CPT sensitivity of rfa1 mutants with reduced affinity for ssDNA. In addition, the authors find that SUMOylation of Srs2 depends on binding to PCNA and the presence of Mec1.

      Comments on revisions:

      I am satisfied with the revisions made by the authors, which helped clarify some points that were confusing in the initial submission.

      Thank you.

      Reviewer #2 (Public Review):

      This revised manuscript mostly addresses previous concerns by doubling down on the model without providing additional direct evidence of interactions between Srs2 and PCNA, and that "precise sites of Srs2 actions in the genome remain to be determined." One additional Srs2 allele has been examined, showing some effect in combination with rfa1-zm2. Many of the conclusions are based on reasonable assumptions about the consequences of various mutations, but direct evidence of changes in Srs2 association with PNCA or other interactors is still missing. There is an assumption that a deletion of a Rad51-interacting domain or a PCNA-interacting domain have no pleiotropic effects, which may not be the case. How SLX4 might interact with Srs2 is unclear to me, again assuming that the SLX4 defect is "surgical" - removing only one of its many interactions.

      Previous studies have already provided direct evidence for the interaction between Srs2 and PCNA through the Srs2’s PIM region (Armstrong et al, 2012; Papouli et al, 2005); we have added these citations in the text. Similarly. Srs2 associations with SUMO and Rad51 have also been demonstrated (Colavito et al, 2009; Kolesar et al, 2016; Kolesar et al., 2012), and these studies were cited in the text.

      We did not state that a deletion of a Rad51-interacting domain or a PCNA-interacting domain have no pleiotropic effects. We only assessed whether these previously characterized mutant alleles could mimic srs2∆ in rescuing rfa1-zm2 defects.

      We assessed the genetic interaction between slx4-RIM and srs2-∆PIM mutants, and not the physical interaction between the two proteins. As we described in the text, our rationale for this genetic test is based on that the reports that both slx4 and srs2 mutants impair recovery from the Mec1 induced checkpoint, thus they may affect parallel pathways of checkpoint dampening.

      One point of concern is the use of t-tests without some sort of correction for multiple comparisons - in several figures. I'm quite sceptical about some of the p < 0.05 calls surviving a Bonferroni correction. Also in 4B, which comparison is **? Also, admittedly by eye, the changes in "active" Rad53 seem much greater than 5x. (also in Fig. 3, normalizing to a non-WT sample seems odd).

      Claims made in this work were based only on pairwise comparison not multi-comparison. We have now made this point clearer in the graphs and in Method. As the values were compared between a wild-type strain and a specific mutant strain, or between two mutants, we believe that t-test is suitable for statistical analysis.

      Figure 4B, ** indicates that the WT value is significantly different from that of the slx4-RIM srs2-∆PIM double mutant and from that of srs2-∆PIM single mutant. We have modified the graph to indicate the pair-wide comparison. The 5-fold change of active Rad53 levels was derived by comparing the values between the srs2∆ PIM slx4<sup>RIM</sup>-TAP double mutant and wild-type Slx4-TAP. In Figure 3, normalization to the lowest value affords better visualization. This is rather a stylish issue; we would like to maintain it as the other reviewers had no issues.

      What is the WT doubling time for this strain? From the FACS it seems as if in 2 h the cells have completed more than 1 complete cell cycle. Also in 5D. Seems fast...

      Wild-type W303 strain has less than 90 min doubling time as shown by many labs, and our data are consistent with this. The FACS profiles for wild-type cells shown in Figures 3C, 4C, and 5C are consistent with each other, showing that after G1 cells entered the cell cycle, they were in G2 phase at the 1-hour time points, and then a percentage of the cells exited the first cell cycle by two hours.

      I have one over-arching confusion. Srs2 was shown initially to remove Rad51 from ssDNA and the suppression of some of srs2's defects by deleting rad51 made a nice, compact story, though exactly how srs2's "suppression of rad6" fit in isn't so clear (since Rad6 ties into Rad18 and into PCNA ubiquitylation and into PCNA SUMOylation). Now Srs2 is invoked to remove RPA. It seems to me that any model needs to explain how Srs2 can be doing both. I assume that if RPA and Rad51 are both removed from the same ssDNA, the ssDNA will be "trashed" as suggested by Symington's RPA depletion experiments. So building a model that accounts for selective Srs2 action at only some ssDNA regions might be enhanced by also explaining how Rad51 fits into this scheme.

      While the anti-recombinase function of Srs2 was better studied, its “anti-RPA” role in checkpoint dampening was recently described by us (Dhingra et al, 2021) following the initial report by the Haber group some time ago (Vaze et al, 2002). A better understanding of this new role is required before we can generate a comprehensive picture of how Srs2 integrates the two functions (and possibly other functions). Our current work addresses this issue by providing a more detailed understanding of this new role of Srs2.

      Single molecular data showed that Srs2 strips both RPA and Rad51 from ssDNA, but this effect is highly dynamic (i.e. RPA and Rad51 can rebind ssDNA after being displaced) (De Tullio et al, 2017). As such, generation of “deserted” ssDNA regions lacking RPA and Rad51 in cells can be an unlikely event. Rather, Srs2 can foster RPA and Rad51 dynamics on ssDNA. Additional studies will be needed to generate a model that integrates the anti-recombinase and the anti-RPA roles of Srs2.

      As a previous reviewer has pointed out, CPT creates multiple forms of damage. Foiani showed that 4NQO would activate the Mec1/Rad53 checkpoint in G1- arrested cells, presumably because there would be singlestrand gaps but no DSBs. Whether this would be a way to look specifically at one type of damage is worth considering; but UV might be a simpler way to look. As also noted, the effects on the checkpoint and on viability are quite modest. Because it isn't clear (at least to me) why rfa1 mutants are so sensitive to CPT, it's hard for me to understand how srs2-zm2 has a modest suppressive effect: is it by changing the checkpoint response or facilitating repair or both? Or how srs2-3KR or srs2-dPIM differ from rfa1-zm2 in this respect. The authors seem to lump all these small suppressions under the rubric of "proper levels of RPA-ssDNA" but there are no assays that directly get at this. This is the biggest limitation.

      CPT treatment is an ideal condition to examine how cells dampen the DNA damage checkpoint, because while most genotoxic conditions (e.g. 4NQO, MMS) induce both the DNA replication checkpoint and the DNA damage checkpoint, CPT was shown to only induced the latter (Menin et al, 2018; Minca & Kowalski, 2011; Redon et al, 2003; Tercero et al, 2003). Future studies examining 4NQO and UV conditions can further expand our understanding of checkpoint dampening in different conditions.

      We have previously provided evidence to support the conclusion that srs2 suppression of rfa1-zm is partly mediated by changing checkpoint levels (Dhingra et al., 2021). We cannot exclude the possibility that the suppression may also be related to changes of DNA repair; we have now added this note in the text.

      Regarding direct testing RPA levels on DNA, we have previously shown that srs2∆ increased the levels of chromatin associated Rfa1 and this is suppressed by rfa1-zm2 (Dhingra et al., 2021). We have now included chromatin fractionation data to show that srs2-∆PIM also led to an increase of Rfa1 on chromatin, and this was suppressed by rfa1-zm2 (new Fig. S2).

      Srs2 has also been implicated as a helicase in dissolving "toxic joint molecules" (Elango et al. 2017). Whether this activity is changed by any of the mutants (or by mutations in Rfa1) is unclear. In their paper, Elango writes: "Rare survivors in the absence of Srs2 rely on structure-specific endonucleases, Mus81 and Yen1, that resolve toxic joint-molecules" Given the involvement of SLX4, perhaps the authors should examine the roles of structure-specific nucleases in CPT survival?

      Srs2 has several roles, and its role in RPA antagonism can be genetically separated from its role in Rad51 regulation as we have shown in our previous work (Dhingra et al., 2021) and this notion is further supported by evidence presented in the current work. Srs2’s role in dissolving "toxic joint molecules” was mainly observed during BIR (Elango et al, 2017). Whether it is related to checkpoint dampening will be interesting to address in the future but is beyond of the scope of the current work that seeks to answer the question how Srs2 regulates RPA during checkpoint dampening. Similarly, determining the roles of Mus81 and Yen1 and other structural nucleases in CPT survival is a worthwhile task but it is a research topic well separated from the focus of this work.

      Experiments that might clarify some of these ambiguities are proposed to be done in the future. For now, we have a number of very interesting interactions that may be understood in terms of a model that supposes discriminating among gaps and ssDNA extensions by the presence of PCNA, perhaps modified by SUMO. As noted above, it would be useful to think about the relation to Rad6.

      Several studies have shown that Srs2’s functional interaction with Rad6 is based on Srs2-mediated recombination regulation (reviewed by (Niu & Klein, 2017). Given that recombinational regulation by Srs2 is genetically separable from the Srs2 and RPA antagonism (Dhingra et al., 2021), we do not see a strong rationale to examine Rad6 in this work, which addresses how Srs2 regulates RPA. With this said, this study has provided basis for future studies of possible cross-talks among different Srs2-mediated pathways.

      Reviewer #3 (Public Review):

      The superfamily I 3'-5' DNA helicase Srs2 is well known for its role as an anti-recombinase, stripping Rad51 from ssDNA, as well as an anti-crossover factor, dissociating extended D-loops and favoring non-crossover outcome during recombination. In addition, Srs2 plays a key role in in ribonucleotide excision repair. Besides DNA repair defects, srs2 mutants also show a reduced recovery after DNA damage that is related to its role in downregulating the DNA damage signaling or checkpoint response. Recent work from the Zhao laboratory (PMID: 33602817) identified a role of Srs2 in downregulating the DNA damage signaling response by removing RPA from ssDNA. This manuscript reports further mechanistic insights into the signaling downregulation function of Srs2.

      Using the genetic interaction with mutations in RPA1, mainly rfa1-zm2, the authors test a panel of mutations in Srs2 that affect CDK sites (srs2-7AV), potential Mec1 sites (srs2-2SA), known sumoylation sites (srs2-3KR), Rad51 binding (delta 875-902), PCNA interaction (delta 1159-1163), and SUMO interaction (srs2SIMmut). All mutants were generated by genomic replacement and the expression level of the mutant proteins was found to be unchanged. This alleviates some concern about the use of deletion mutants compared to point mutations. Double mutant analysis identified that PCNA interaction and SUMO sites were required for the Srs2 checkpoint dampening function, at least in the context of the rfa1-zm2 mutant. There was no effect of this mutants in a RFA1 wild type background. This latter result is likely explained by the activity of the parallel pathway of checkpoint dampening mediated by Slx4, and genetic data with an Slx4 point mutation affecting Rtt107 interaction and checkpoint downregulation support this notion. Further analysis of Srs2 sumoylation showed that Srs2 sumoylation depended on PCNA interaction, suggesting sequential events of Srs2 recruitment by PCNA and subsequent sumoylation. Kinetic analysis showed that sumoylation peaks after maximal Mec1 induction by DNA damage (using the Top1 poison camptothecin (CPT)) and depended on Mec1. This data are consistent with a model that Mec1 hyperactivation is ultimately leading to signaling downregulation by Srs2 through Srs2 sumoylation. Mec1-S1964 phosphorylation, a marker for Mec1 hyperactivation and a site found to be needed for checkpoint downregulation after DSB induction, did not appear to be involved in checkpoint downregulation after CPT damage. The data are in support of the model that Mec1 hyperactivation when targeted to RPA-covered ssDNA by its Ddc2 (human ATRIP) targeting factor, favors Srs2 sumoylation after Srs2 recruitment to PCNA to disrupt the RPA-Ddc2-Mec1 signaling complex. Presumably, this allows gap filling and disappearance of long-lived ssDNA as the initiator of checkpoint signaling, although the study does not extend to this step.

      Strengths:

      (1) The manuscript focuses on the novel function of Srs2 to downregulate the DNA damage signaling response and provide new mechanistic insights.

      (2) The conclusions that PCNA interaction and ensuing Srs2-sumoylation are involved in checkpoint downregulation are well supported by the data.

      Weaknesses:

      (1) Additional mutants of interest could have been tested, such as the recently reported Pin mutant, srs2-Y775A (PMID: 38065943), and the Rad51 interaction point mutant, srs2-F891A (PMID: 31142613).

      (2) The use of deletion mutants for PCNA and RAD51 interaction is inferior to using specific point mutants, as done for the SUMO interaction and the sites for post-translational modifications.

      (3) Figure 4D and Figure 5A report data with standard deviations, which is unusual for n=2. Maybe the individual data points could be plotted with a color for each independent experiment to allow the reader to evaluate the reproducibility of the results.

      Comments on revisions:

      In this revision, the authors adequately addressed my concerns. The only issue I see remaining is the site of Srs2 action. The authors argue in favor of gaps and against R-loops and ssDNA resulting from excessive supercoiling. The authors do not discuss ssDNA resulting from processing of onesided DSBs, which are expected to result from replication run-off after CPT damage but are not expected to provide the 3'-junction for preferred PCNA loading. Can the authors exclude PCNA at the 5'-junction at a resected DSB?

      We have now added a sentence stating that we cannot exclude the possibility that PCNA may be positioned at a 5’-junction, as this can be observed in vitro, albert that PCNA loading was seen exclusively at a 3’-junction in the presence of RPA (Ellison & Stillman, 2003; Majka et al, 2006).

      Recommendations For the authors:

      Reviewer #2 (Recommendations For the authors):

      A Bonferroni correction should be made for the multiple comparisons in several figures.

      Specific comments:

      l. 41. This is a too long and confusing sentence.

      Sentence shortened: “These data suggest that Srs2 recruitment to PCNA proximal ssDNA-RPA filaments followed by its sumoylation can promote checkpoint recovery, whereas Srs2 action is minimized at regions with no proximal PCNA to permit RPA-mediated ssDNA protection”.

      l. 60. Identify Ddc2 and Mec1 as ATRIP and ATR.

      Done.

      l. 125 "fails to downregulate RPA levels on chromatin and Mec1-mediated DDC..." fails to downregulate RPA and fails to reduce Mec1-mediated DDC?

      Sentence modified: “fails to downregulate both the RPA levels on chromatin and the Mec1-mediated DDC”

      l. 204 "consistent with the notion that Srs2 has roles beyond RPA regulation"... What other roles? It's stripping of Rad51? Removing toxic joint molecules? Something else?

      Sentence modified: “consistent with the notion that Srs2 has roles beyond RPA regulation, such as in Rad51 regulation and removing DNA joint molecules”.

      l. 249 "Significantly, srs2-ΔPIM and -3KR increased the percentage of rfa1-zm2 cells transitioning into the G1 phase" No. Just back to normal. As stated in l. 258: "258 We found that srs2-ΔPIM and srs2-3KR mutants on their own behaved normally in the two DDC assays described above." All of these effects are quite small.

      Sentence modified: “Compared with rfa1-zm2 cells, srs2-∆PIM rfa1-zm2 and srs2-3KR rfa1-zm2 cells showed increased percentages of cells transitioning into the G1 phase”.

      l. 468 "Our previous work has provided several lines of evidence to support that Rad51 removal by Srs2 is separable from the Srs2-RPA antagonism (Dhingra et al., 2021). What evidence? See my comment above about not having both proteins removed at the same time.

      We have addressed this point in our initial rebuttal and some key points are summarized below. In our previous report (Dhingra et al., 2021), we provided several lines of evidence to support the conclusion that Rad51 is not relevant to the Srs2-RPA antagonism. For example, while rad51∆ rescues the hyper-recombination phenotype of srs2∆ cells, rad51∆ did not affect the hyper-checkpoint phenotype of srs2∆. In contrast, rfa1-zm1/zm2 have the opposite effects, that is, rfa1zm1/zm2 suppressed the hyper-checkpoint, but not the hyper-recombination, phenotype of srs2∆ cells. The differential effects of rad51∆ and rfa1-zm1/zm2 were also seen for the ATPase dead allele of Srs2 (srs2K41A). For example, rfa1-zm2 rescued hyper-checkpoint and CPT sensitivity of srs2-K41A cells, while rad51∆ had neither effect. These and other data described by Dhingra et al (2021) suggest that Srs2’s effects on checkpoint vs. recombination can be separated genetically. Consistent with our conclusion summarized above, deleting the Rad51 binding domain in Srs2 (srs2-∆Rad51BD) has no effect on rfa1-zm2 phenotype in CPT (Fig. 2D). This data provides yet another evidence that Srs2 regulation of Rad51 is separable from the Srs2RPA antagonism.

      l. 525 "possibility, we tested the separation pin of Srs2 (Y775), which was shown to enables its in vitro helicase activity during the revision of our work..." ?? there was helicase activity during the revision of your work? Please fix the sentence.

      Sentence modified: “we tested the separation pin of Srs2 (Y775). This residue was shown to be key for the Srs2’s helicase activity in vitro in a report that was published during the revision of our work (Meir et al, 2023).”

      Fig. 3. "srs2-ΔPIM and -3KR allow better G1 entry of rfa1-zm2 cells." is it better entry or less arrest at G2/M? One implies better turning off of a checkpoint, the other suggests less activation of the checkpoint.

      This is a correct statement. For all strains examined in Figure 3, cells were seen in G2/M phase after 1-hour CPT treatment, suggesting proper arrest.

      References:

      Armstrong AA, Mohideen F, Lima CD (2012) Recognition of SUMO-modified PCNA requires tandem receptor motifs in Srs2. Nature 483: 59-63

      Colavito S, Macris-Kiss M, Seong C, Gleeson O, Greene EC, Klein HL, Krejci L, Sung P (2009) Functional significance of the Rad51-Srs2 complex in Rad51 presynaptic filament disruption. Nucleic Acids Res 37: 6754-6764.

      De Tullio L, Kaniecki K, Kwon Y, Crickard JB, Sung P, Greene EC (2017) Yeast Srs2 helicase promotes redistribution of single-stranded DNA-bound RPA and Rad52 in homologous recombination regulation. Cell Rep 21: 570-577

      Dhingra N, Kuppa S, Wei L, Pokhrel N, Baburyan S, Meng X, Antony E, Zhao X (2021) The Srs2 helicase dampens DNA damage checkpoint by recycling RPA from chromatin. Proc Natl Acad Sci U S A 118: e2020185118

      Elango R, Sheng Z, Jackson J, DeCata J, Ibrahim Y, Pham NT, Liang DH, Sakofsky CJ, Vindigni A, Lobachev KS et al (2017) Break-induced replication promotes formation of lethal joint molecules dissolved by Srs2. Nat Commun 8: 1790

      Ellison V, Stillman B (2003) Biochemical characterization of DNA damage checkpoint complexes: clamp loader and clamp complexes with specificity for 5' recessed DNA. PLoS Biol 1: E33

      Kolesar P, Altmannova V, Silva S, Lisby M, Krejci L (2016) Pro-recombination Role of Srs2 Protein Requires SUMO (Small Ubiquitin-like Modifier) but Is Independent of PCNA (Proliferating Cell Nuclear Antigen) Interaction. J Biol Chem 291: 7594-7607.

      Kolesar P, Sarangi P, Altmannova V, Zhao X, Krejci L (2012) Dual roles of the SUMO-interacting motif in the regulation of Srs2 sumoylation. Nucleic Acids Res 40: 7831-7843.

      Majka J, Binz SK, Wold MS, Burgers PM (2006) Replication protein A directs loading of the DNA damage checkpoint clamp to 5'-DNA junctions. J Biol Chem 281: 27855-27861

      Meir A, Raina VB, Rivera CE, Marie L, Symington LS, Greene EC (2023) The separation pin distinguishes the pro- and anti-recombinogenic functions of Saccharomyces cerevisiae Srs2. Nat Commun 14: 8144

      Menin L, Ursich S, Trovesi C, Zellweger R, Lopes M, Longhese MP, Clerici M (2018) Tel1/ATM prevents degradation of replication forks that reverse after Topoisomerase poisoning. EMBO Rep 19: e45535

      Minca EC, Kowalski D (2011) Replication fork stalling by bulky DNA damage: localization at active origins and checkpoint modulation. Nucleic Acids Res 39: 2610-2623

      Niu H, Klein HL (2017) Multifunctional roles of Saccharomyces cerevisiae Srs2 protein in replication, recombination and repair. FEMS Yeast Res 17: fow111

      Papouli E, Chen S, Davies AA, Huttner D, Krejci L, Sung P, Ulrich HD (2005) Crosstalk between SUMO and ubiquitin on PCNA is mediated by recruitment of the helicase Srs2p. Mol Cell 19: 123-133

      Redon C, Pilch DR, Rogakou EP, Orr AH, Lowndes NF, Bonner WM (2003) Yeast histone 2A serine 129 is essential for the efficient repair of checkpoint-blind DNA damage. EMBO Rep 4: 678-684

      Tercero JA, Longhese MP, Diffley JFX (2003) A central role for DNA replication forks in checkpoint activation and response. Mol Cell 11: 1323-1336

      Vaze MB, Pellicioli A, Lee SE, Ira G, Liberi G, Arbel-Eden A, Foiani M, Haber JE (2002) Recovery from checkpointmediated arrest after repair of a double-strand break requires Srs2 helicase. Mol Cell 10: 373-385

    1. Si vous souhaitez participer, et voir ce que les autres lecteurs en disent, je vous propose d'installer une extension pour Google Chrome appelée Hypothes.is. Cela vous permettra d'ajouter des commentaires où vous le souhaitez en sélectionnant le tronçon de texte du cours en question, puis en cliquant sur "Annotate".Il vous faudra créer un compte gratuit pour l'utiliser. Une fois l'extension installée et active, vous pourrez voir en marge du cours les commentaires des lecteurs mais aussi y répondre et échanger !

      Test

    1. Author response:

      The following is the authors’ response to the original reviews.

      Public Reviews:

      Reviewer #1 (Public review):

      Summary:

      The manuscript focuses on the olfactory system of Pieris brassicae larvae and the importance of olfactory information in their interactions with the host plant Brassica oleracea and the major parasitic wasp Cotesia glomerata. The authors used CRISPR/Cas9 to knockout odorant receptor coreceptors (Orco), and conducted a comparative study on the behavior and olfactory system of the mutant and wild-type larvae. The study found that Orco-expressing olfactory sensory neurons in antennae and maxillary palps of Orco knockout (KO) larvae disappeared, and the number of glomeruli in the brain decreased, which impairs the olfactory detection and primary processing in the brain. Orco KO caterpillars show weight loss and loss of preference for optimal food plants; KO larvae also lost weight when attacked by parasitoids with the ovipositor removed, and mortality increased when attacked by untreated parasitoids. On this basis, the authors further studied the responses of caterpillars to volatiles from plants attacked by the larvae of the same species and volatiles from plants on which the caterpillars were themselves attacked by parasitic wasps. Lack of OR-mediated olfactory inputs prevents caterpillars from finding suitable food sources and from choosing spaces free of enemies.

      Strengths:

      The findings help to understand the important role of olfaction in caterpillar feeding and predator avoidance, highlighting the importance of odorant receptor genes in shaping ecological interactions.

      Weaknesses:

      There are the following major concerns:

      (1) Possible non-targeted effects of Orco knockout using CRISPR/Cas9 should be analyzed and evaluated in Materials and Methods and Results.

      Thank you for your suggestion. In the Materials and Methods, we mention how we selected the target region and evaluated potential off-target sites by Exonerate and CHOPCHOP. Neither of these methods found potential off-target sites with a more-than-17-nt alignment identity. Therefore, we assumed no off-target effect in our Orco knockout. Furthermore, we did not find any developmental differences between wildtype and knockout caterpillars when these were reared on leaf discs in Petri dishes (Fig S4). We will further highlight this information on the off-target evaluation in the Results section.

      (2) Figure 1E: Only one olfactory receptor neuron was marked in WT. There are at least three olfactory sensilla at the top of the maxillary palp. Therefore, to explain the loss of Orcoexpressing neurons in the mutant (Figure 1F), a more rigorous explanation of the photo is required.

      Thank you for pointing this out. The figure shows only a qualitative comparison between WT and KO and we did not aim to determine the total number of Orco positive neurons in the maxillary palps or antennae of WT and KO caterpillars, but please see our previous work for the neuron numbers in the caterpillar antennae (Wang et al., 2024). We did indeed find more than one neuron in the maxillary palps, but as these were in very different image planes it was not possible to visualize them together. However, we will add a few sentences in the Results and Discussion section to explain the results of the maxillary palp Orco staining.

      (3) In Figure 1G, H, the four glomeruli are circled by dotted lines: their corresponding relationship between the two figures needs to be further clarified.

      Thank you for pointing this out. The four glomeruli in Figure 1G and 1H are not strictly corresponding. We circled these glomeruli to highlight them, as they are the best visualized and clearly shown in this view. In this study, we only counted the number of glomeruli in both WT and KO, however, we did not clarify which glomeruli are missing in the KO caterpillar brain. We will further clarify this in the figure legend.

      (4) Line 130: Since the main topic in this study is the olfactory system of larvae, the experimental results of this part are all about antennal electrophysiological responses, mating frequency, and egg production of female and male adults of wild type and Orco KO mutant, it may be considered to include this part in the supplementary files. It is better to include some data about the olfactory responses of larvae.

      Thank you for your suggestion. We do agree with your suggestion, and we will consider moving this part to the supplementary information. Regarding larval olfactory response, we unfortunately failed to record any spikes using single sensillum recordings due to the difficult nature of the preparation; however we do believe that this would be an interesting avenue for further research.

      (5)Line 166: The sentences in the text are about the choice test between " healthy plant vs. infested plant", while in Fig 3C, it is "infested plant vs. no plant". The content in the text does not match the figure.

      Thank you for pointing this out. The sentence is “We compared the behaviors of both WT and Orco KO caterpillars in response to clean air, a healthy plant and a caterpillar-infested plant”. We tested these three stimuli in two comparisons: healthy plant vs no plant, infested plant vs no plant. The two comparisons are shown in Figure 3C separately. We will aim to describe this more clearly in the revised version of this manuscript.

      (6) Lines 174-178: Figure 3A showed that the body weight of Orco KO larvae in the absence of parasitic wasps also decreased compared with that of WT. Therefore, in the experiments of Figure 3A and E, the difference in the body weight of Orco KO larvae in the presence or absence of parasitic wasps without ovipositors should also be compared. The current data cannot determine the reduced weight of KO mutant is due to the Orco knockout or the presence of parasitic wasps.

      Thank you for pointing this out. We did not make a comparison between the data of Figures 3A and 3E since the two experiments were not conducted at the same time due to the limited space in our BioSafety III greenhouse. We do agree that the weight decrease in Figure 3E is partly due to the reduced caterpillar growth shown in Figure 3A. However, we are confident that the additional decrease in caterpillar weight shown in Figure 3E is mainly driven by the presence of disarmed parasitoids. To be specific, the average weight in Figure 3A is 0.4544 g for WT and 0.4230 g for KO, KO weight is 93.1% of WT caterpillars. While in Figure 3E, the average weight is 0.4273 g for WT and 0.3637 g for KO, KO weight is 85.1% of WT caterpillars. We will discuss this interaction between caterpillar growth and the effect of the parasitoid attacks more extensively in the revised version of the manuscript.

      (7) Lines 179-181: Figure 3F shows that the survival rate of larvae of Orco KO mutant decreased in the presence of parasitic wasps, and the difference in survival rate of larvae of WT and Orco KO mutant in the absence of parasitic wasps should also be compared. The current data cannot determine whether the reduced survival of the KO mutant is due to the Orco knockout or the presence of parasitic wasps.

      We are happy that you highlight this point. When conducting these experiments, we selected groups of caterpillars and carefully placed them on a leaf with minimal disturbance of the caterpillars, which minimized hurting and mortality. We did test the survival of caterpillars in the absence of parasitoid wasps from the experiment presented in Figure 3A, although this was missing from the manuscript. There is no significant difference in the survival rate of caterpillars between the two genotypes in the absence of wasps (average mortality WT = 8.8 %, average mortality KO = 2.9 %; P = 0.088, Wilcoxon test), so the decreased survival rate is most likely due to the attack of the wasps. We will add this information to the revised version of the manuscript.

      (8) In Figure 4B, why do the compounds tested have no volatiles derived from plants? Cruciferous plants have the well-known mustard bomb. In the behavioral experiments, the larvae responses to ITC compounds were not included, which is suggested to be explained in the discussion section.

      Thank you for the suggestion. We assume you mean Figure 4D/4E instead of Figure 4B. In Figure 4B, many of the identified chemical compounds are essentially plant volatiles, especially those from caterpillar frass and caterpillar spit. In Figure 4D/4E, most of the tested chemicals are derived from plants. But indeed, we did not include ITCs, based on information from the EAG results in Figures 2A & 2B. Butterfly antennae did not respond strongly to ITCs, so we did not include ITCs in the larval behavioural tests. Instead, the tested chemicals in Figure 4D/4E either elicit high EAG responses of butterflies or have been identified as “important” by VIP scores in the chemical analyses. In the EAG results of Plutella xylostella (Liu et al., 2020), moths responded well to a few ITCs, the tested ITCs in our study are actually adopted from this study except for those that were not available to us. However, butterflies did not show a strong response to the tested ITCs; therefore, we did not include ITCs because we expected that Pieris brassicae caterpillars are not likely to show good responses to ITCs. We will add this explanation to the revised version of our manuscript.

      (9) The custom-made setup and the relevant behavioral experiments in Figure 4C need to be described in detail (Line 545).

      We will add more detailed descriptions for the setup and method in the Materials and Methods.

      (10) Materials and Methods Line 448: 10 μL paraffin oil should be used for negative control.

      Thank you for pointing this out. We used both clean filter paper and clean filter paper with 10 μL paraffin oil as negative controls, but we did not find a significant difference between the two controls. Therefore, in the EAG results of Figure 2A/2B, we presented paraffin oil as one of the tested chemicals. We will re-run our statistical tests with paraffin oil as negative control, although we do not expect any major differences to the previous tests.

      Reviewer #2 (Public review):

      Summary:

      This manuscript investigated the effect of olfactory cues on caterpillar performance and parasitoid avoidance in Pieris brassicae. The authors knocked out Orco to produce caterpillars with significantly reduced olfactory perception. These caterpillars showed reduced performance and increased susceptibility to a parasitoid wasp.

      Strengths:

      This is an impressive piece of work and a well-written manuscript. The authors have used multiple techniques to investigate not only the effect of the loss of olfactory cues on host-parasitoid interactions, but also the mechanisms underlying this.

      Weaknesses:

      (1) I do have one major query regarding this manuscript - I agree that the results of the caterpillar choice tests in a y-maze give weight to the idea that olfactory cues may help them avoid areas with higher numbers of parasitoids. However, the experiments with parasitoids were carried out on a single plant. Given that caterpillars in these experiments were very limited in their potential movement and source of food - how likely is it that avoidance played a role in the results seen from these experiments, as opposed to simply the slower growth of the KO caterpillars extending their period of susceptibility? While the two mechanisms may well both take place in nature - only one suggests a direct role of olfaction in enemy avoidance at this life stage, while the other is an indirect effect, hence the distinction is important.

      We do agree with your comment that both mechanisms may be at work in nature and we do address this in the Discussion section. In our study, we did find that wildtype caterpillars were more efficient in locating their food source and did grow faster on full plants than knockout caterpillars. This faster growth will enable wildtype caterpillars to more quickly outgrow the life-stages most vulnerable to the parasitoids (L1 and L2). The olfactory system therefore supports the escape from parasitoids indirectly by enhancing feeding efficiency directly.

      Figure 3D shows that WT caterpillars prefer infested plants without parastioids to infested plants with parasitoids. In addition, we observed that caterpillars move frequently between different leaves. Therefore, we speculate that WT caterpillars make use of volatiles from the plant or from (parasitoid-exposed) conspecifics via their spit or faeces to avoid parts of the plant potentially attracting natural enemies. Knockout caterpillars are unable to use these volatile danger cues and therefore do not avoid plant parts that are most attractive to their natural enemies, making KO caterpillars more susceptible and leading to more natural enemy harassment. Through this, olfaction also directly impacts the ability of a caterpillar to find an enemy-free feeding site.

      We think that olfaction supports the enemy avoidance of caterpillars via both these mechanisms, although at different time scales. Unfortunately, our analysis was not detailed enough to discern the relative importance of the two mechanisms we found. However, we feel that this would be an interesting avenue for further research. Moreover, we will sharpen our discussion on the potential importance of the two different mechanisms in the revised version of this manuscript.

      (2) My other issue was determining sample sizes used from the text was sometimes a bit confusing. (This was much clearer from the figures).

      We will revise the sample size in the text to make it more clear.

      (3) I also couldn't find the test statistics for any of the statistical methods in the main text, or in the supplementary materials.

      Thank you for pointing this out. We will provide more detailed test statistics in the main text and in the supplementary materials of the revised version of the manuscript.

      Recommendations for the authors:

      Reviewer #1 (Recommendations for the authors):

      (1) Abstract

      Line 24: "optimal food plant" should be changed to "optimal food plants"

      Thank you for the suggestion, we will revise it.

      (2) Introduction

      Lines 44-46: The sentence should be rephrased.

      Thank you for the suggestion, we will revise it.

      Line 50: "are" should be changed to "is".

      Thank you for the suggestion, we will revise it.

      Lines 57 and 58: Please provide the Latin names of "brown planthoppers" and "striped stem borer".

      Thank you for the suggestion, we will revise it.

      Line 85: "investigate the influence of odor-guided behavior by this primary herbivore on the next trophic levels"; similarly, Line 160: "investigate if caterpillars could locate the optimal host-plant when supplied with differently treated plants". These sentences are not very accurate in describing the relevant experiments. A: Thank you for the suggestion, we will revise them.

      Reviewer #2 (Recommendations for the authors):

      (1) L53 Remove the "the" from "Under the strong selection pressure"

      Thank you for the suggestion, we will revise it.

      (2) L80 I suggest adding a reference for the spitting behaviour, e.g. Muller et al 2003.

      Thank you for the suggestion, we will add it.

      (3) L89 establishing a homozygous KO insect colony.

      Thank you for the suggestion, we will revise it.

      (4) L107 perhaps this goes against the journal style but I always like to see acronyms explained the first time they are used.

      Thank you for the suggestion, we will try to make it more understandable.

      (5) L146-148 sentence difficult to read - consider rephrasing.

      Thank you for the suggestion, we will revise it.

      (6) L230 do you mean still produce? Rather than still reproduce?

      Thank you for the suggestion, we will revise it.

      (7) L233 missing an and before "a greater vulnerability to the parasitoid wasp".

      Thank you for pointing this out, we will revise it.

      (8) L238 malfunctional is a strange word choice.

      Thank you for pointing this out, we will revise it.

      (9) L181 - can the authors confirm that this lower survival was due to parasitism by the wasps?

      This question is similar to Q(7) of Reviewer 1, so we quote our answer for Q(7) here:

      When conducting these experiments, we selected groups of caterpillars and carefully placed them on a leaf with minimal disturbance of the caterpillars, which minimized hurting and mortality. We did test the survival of caterpillars in the absence of parasitoid wasps from the experiment presented in Figure 3A, although this was missing from the manuscript. There is no significant difference in the survival rate of caterpillars between the two genotypes in the absence of wasp (average mortality WT = 8.8 %, average mortality KO = 2.9 %; P = 0.088, Wilcoxon test), so the decreased survival rate is most likely due to the attack of the wasps. We will add this information to the revised version of the manuscript.

      (10) L474 - has it been tested if wasps still behave similarly after their ovipositor has been removed?

      Thank you for pointing out this issue. We did not strictly compare if disarmed and untreated wasps have similar behaviors. However, we did observe if disarmed wasps can actively move or fly after recovering from anesthesia before releasing into a cage, otherwise we would replace with another active one.

    1. Author response:

      eLife Assessment

      This useful study presents Altair-LSFM, a solid and well-documented implementation of a light-sheet fluorescence microscope (LSFM) designed for accessibility and cost reduction. While the approach offers strengths such as the use of custom-machined baseplates and detailed assembly instructions, its overall impact is limited by the lack of live-cell imaging capabilities and the absence of a clear, quantitative comparison to existing LSFM platforms. As such, although technically competent, the broader utility and uptake of this system by the community may be limited.

      We thank the reviewers and editors for their thoughtful evaluation of our work and for recognizing the technical strengths of the Altair-LSFM platform, including the custom-machined baseplates and detailed documentation provided to support accessibility and reproducibility. We respectfully disagree, however, with the assessment that the system lacks live-cell imaging capabilities. We are fully confident in the system’s suitability for live-cell applications and will demonstrate this by including representative live-cell imaging data in the revised manuscript, along with detailed instructions for implementing environment control. Moreover, we will expand our discussion to include a broader, more quantitative comparison to existing LSFM platforms—highlighting trade-offs in cost, performance, and accessibility—to better contextualize Altair’s utility and adaptability across diverse research settings.

      Public Reviews:

      Reviewer #1 (Public review):

      Summary:

      The article presents the details of the high-resolution light-sheet microscopy system developed by the group. In addition to presenting the technical details of the system, its resolution has been characterized and its functionality demonstrated by visualizing subcellular structures in a biological sample.

      Strengths:

      (1) The article includes extensive supplementary material that complements the information in the main article.

      (2) However, in some sections, the information provided is somewhat superficial.

      Our goal was to make the supplemental content as comprehensive and useful as possible. In addition to the materials provided with the manuscript, our intention is for the online documentation (available at thedeanlab.github.io/altair) to serve as a living resource that evolves in response to user feedback. For this reason, we are especially interested in identifying and expanding any sections that are perceived as superficial, and we would greatly appreciate the reviewer’s guidance on which areas would benefit from further elaboration.

      Weaknesses:

      (1) Although a comparison is made with other light-sheet microscopy systems, the presented system does not represent a significant advance over existing systems. It uses high numerical aperture objectives and Gaussian beams, achieving resolution close to theoretical after deconvolution. The main advantage of the presented system is its ease of construction, thanks to the design of a perforated base plate.

      We appreciate the reviewer’s assessment and the opportunity to clarify our intent. Our primary goal was not to introduce new optical functionality beyond that of existing high-performance light-sheet systems, but rather to reduce the barrier to entry for non-specialist labs.

      (2) Using similar objectives (Nikon 25x and Thorlabs 20x), the results obtained are similar to those of the LLSM system (using a Gaussian beam without laser modulation). However, the article does not mention the difficulties of mounting the sample in the implemented configuration.

      We agree that there are practical challenges associated with handling 5 mm diameter coverslips. However, the Nikon 25x can readily be replaced by a Zeiss W Plan-Apochromat 20x/1.0 objective, which eliminates the need for the 5 mm coverslip[1]. In the revised manuscript, we will more explicitly detail the practical challenges in handling a 5 mm coverslip and mention the alternative detection objective.

      (3) The authors present a low-cost, open-source system. Although they provide open source code for the software (navigate), the use of proprietary electronics (ASI, NI, etc.) makes the system relatively expensive. Its low cost is not justified.

      We understand the reviewer’s concern regarding the use of proprietary control hardware such as the ASI Tiger Controller and NI data acquisition cards. While lower-cost alternatives for analog and digital control (e.g., microcontroller-based systems) do exist, our choice was intentional. By relying on a unified and professionally supported platform, we minimize the complexity of sourcing, configuring, and integrating components from disparate vendors—each of which would otherwise demand specialized technical expertise. Moreover, in future releases, we aim to further streamline the system by eliminating the need for the NI card, consolidating all optoelectronic control through the ASI Tiger Controller. This approach allows users to purchase a fully assembled and pre-configured system that can be operational with minimal effort.

      It is worth noting that the ASI components are not the primary cost driver. The full set—including XYZ and focusing stages, a filter wheel, a tube lens, the Tiger Controller, and basic optomechanical adapters—costs approximately $27,000, or ~18% of the total system cost. Additional cost reductions are possible. For example, replacing the motorized sample positioning and focusing stages with manual alternatives could reduce the cost by ~$12,000. However, this would eliminate key functionality such as autofocusing, 3D tiling, and multi-position acquisition. Open-source mechanical platforms such as OpenFlexure could in principle be adapted, but they would require custom assembly and would need to be integrated into our control software. Similarly, the filter wheel could be omitted in favor of a multi-band emission filter, reducing the cost by ~$5,000. However, this comes at the expense of increased spectral crosstalk, often necessitating spectral unmixing. An industrial CMOS camera—such as the Ximea MU196CR-ON, recently demonstrated in a Direct View Oblique Plane Microscopy configuration[2]—could substitute for the sCMOS cameras typically used in high-end imaging. However, these industrial sensors often exhibit higher noise floors and lower dynamic range, limiting sensitivity for low-signal imaging applications.

      While a $150,000 system represents a significant investment, we consider it relatively cost-effective in the context of advanced light-sheet microscopy. For comparison, commercially available systems with similar optical performance—such as LLSM systems from 3i or Zeiss—are several-fold more expensive.

      (4) The fibroblast images provided are of exceptional quality. However, these are fixed samples. The system lacks the necessary elements for monitoring cells in vivo, such as temperature or pH control.

      We thank the reviewer for their positive comment regarding the quality of our fibroblast images. As noted, the current manuscript focuses on the optical design and performance characterization of the system, using fixed specimens to validate resolution and imaging stability. We acknowledge the importance of environmental control for live-cell imaging. Temperature regulation is routinely implemented in our lab using flexible adhesive heating elements paired with a power supply and PID controller. For pH stabilization in systems that lack a 5% CO<sub>2</sub> atmosphere, we typically supplement the imaging medium with 10–25 mM HEPES buffer. In the revised manuscript, we will introduce a modified sample chamber capable of maintaining user-specified temperatures, along with detailed assembly instructions. We will also include representative live-cell imaging data to demonstrate the feasibility of in vitro imaging using this system.

      Reviewer #2 (Public review):

      Summary:

      The authors present Altair-LSFM (Light Sheet Fluorescence Microscope), a high-resolution, open-source microscope, that is relatively easy to align and construct and achieves sub-cellular resolution. The authors developed this microscope to fill a perceived need that current open-source systems are primarily designed for large specimens and lack sub-cellular resolution or are difficult to construct and align, and are not stable. While commercial alternatives exist that offer sub-cellular resolution, they are expensive. The authors' manuscript centers around comparisons to the highly successful lattice light-sheet microscope, including the choice of detection and excitation objectives. The authors thus claim that there remains a critical need for high-resolution, economical, and easy-to-implement LSFM systems.

      Strengths:

      The authors succeed in their goals of implementing a relatively low-cost (~ USD 150K) open-source microscope that is easy to align. The ease of alignment rests on using custom-designed baseplates with dowel pins for precise positioning of optics based on computer analysis of opto-mechanical tolerances, as well as the optical path design. They simplify the excitation optics over Lattice light-sheet microscopes by using a Gaussian beam for illumination while maintaining lateral and axial resolutions of 235 and 350 nm across a 260-um field of view after deconvolution. In doing so they rest on foundational principles of optical microscopy that what matters for lateral resolution is the numerical aperture of the detection objective and proper sampling of the image field on to the detection, and the axial resolution depends on the thickness of the light-sheet when it is thinner than the depth of field of the detection objective. This concept has unfortunately not been completely clear to users of high-resolution light-sheet microscopes and is thus a valuable demonstration. The microscope is controlled by an open-source software, Navigate, developed by the authors, and it is thus foreseeable that different versions of this system could be implemented depending on experimental needs while maintaining easy alignment and low cost. They demonstrate system performance successfully by characterizing their sheet, point-spread function, and visualization of sub-cellular structures in mammalian cells, including microtubules, actin filaments, nuclei, and the Golgi apparatus.

      We thank the reviewer for their thoughtful summary of our work. We are pleased that the foundational optical principles, design rationale, and emphasis on accessibility came through clearly. We agree that the approach used to construct the microscope is highly modular, and we anticipate that these design principles will serve as the basis for additional system variants tailored to specific biological samples and experimental contexts. To support this, we provide all Zemax simulations and CAD files openly on our GitHub repository, enabling advanced users to build upon our design and create new functional variants of the Altair system.

      Weaknesses:

      There is a fixation on comparison to the first-generation lattice light-sheet microscope, which has evolved significantly since then:

      (1) The authors claim that commercial lattice light-sheet microscopes (LLSM) are "complex, expensive, and alignment intensive", I believe this sentence applies to the open-source version of LLSM, which was made available for wide dissemination. Since then, a commercial solution has been provided by 3i, which is now being used in multiple cores and labs but does require routine alignments. However, Zeiss has also released a commercial turn-key system, which, while expensive, is stable, and the complexity does not interfere with the experience of the user. Though in general, statements on ease of use and stability might be considered anecdotal and may not belong in a scientific article, unreferenced or without data.

      The referee is correct that our comparisons reference the original LLSM design, which was simultaneously disseminated as an open-source platform and commercialized by 3i. While we acknowledge that newer variants of LLSM have been developed—including systems incorporating adaptive optics[3] and the MOSAIC platform (which remains unpublished)—the original implementation remains the most widely described and cited in the literature. It is therefore the most appropriate point of comparison for contextualizing Altair’s performance, complexity, and accessibility. Importantly, this version of LLSM is far from obsolete; it continues to be one of the most commonly used imaging systems at Janelia Research Campus’s Advanced Imaging Center.

      We acknowledge that more recent commercial implementation by Zeiss has addressed several of the practical limitations associated with the original design. In particular, we agree that the Zeiss Lattice Lightsheet 7 system, which integrates a meniscus lens to facilitate oblique imaging through a coverslip, offers a user-friendly experience—albeit with a modest tradeoff in resolution (reported deskewed resolution: 330 nm × 330 nm × 500–1000 nm).

      While we recognize that statements on usability and stability can be subjective, one objective proxy for system complexity is the number of optical elements that require precise alignment during assembly. The original LLSM setup includes approximately 29 optical components that must each be carefully positioned laterally, angularly, and coaxially along the optical path. In contrast, the first-generation Altair system contains only 9 such elements. By this metric, Altair is considerably simpler to assemble and align, supporting our overarching goal of making high-resolution light-sheet imaging more accessible to non-specialist laboratories. In the revised manuscript, we will clarify the scope of our comparison and provide more precise language about what we mean by complexity (e.g., number of optical elements needed to align).

      (2) One of the major limitations of the first generation LLSM was the use of a 5 mm coverslip, which was a hinderance for many users. However, the Zeiss system elegantly solves this problem, and so does Oblique Plane Microscopy (OPM), while the Altair-LSFM retains this feature, which may dissuade widespread adoption. This limitation and how it may be overcome in future iterations is not discussed.

      We agree that the use of 5 mm diameter coverslips, while enabling high-NA imaging in the current Altair-LSFM configuration, may serve as an inconvenience for many users. We will discuss this more explicitly in the revised manuscript. Specifically, we note that changing the detection objective is sufficient to eliminate the need for a 5 mm coverslip. For example, as demonstrated in Moore et al., Lab Chip 2021, pairing the Zeiss W Plan-Apochromat 20x/1.0 objective with the Thorlabs TL20X-MPL allows imaging beyond the physical surfaces of both objectives, removing the constraint imposed by small-format coverslips[1]. In the revised manuscript, we will propose this modification as a straightforward path for increasing compatibility with more conventional sample mounting formats.

      (3) Further, on the point of sample flexibility, all generations of the LLSM, and by the nature of its design, the OPM, can accommodate live-cell imaging with temperature, gas, and humidity control. It is unclear how this would be implemented with the current sample chamber. This limitation would severely limit use cases for cell biologists, for which this microscope is designed. There is no discussion on this limitation or how it may be overcome in future iterations.

      We appreciate the reviewer’s emphasis on the importance of environmental control for live-cell imaging applications. It is worth noting that the original LLSM design, including the system commercialized by 3i, provided temperature control only, without integrated gas or humidity regulation. Despite this, it has been successfully used by a wide range of scientists to generate important biological insights.

      We agree that both OPM and the Zeiss implementation of LLSM offer clear advantages in terms of environmental control, as we previously discussed in detail in Sapoznik et al., eLife, 2020[4]. However, assembly of high numerical aperture OPM systems is highly technical, and no open-source variant of OPM delivers sub-cellular scale resolution yet.

      (4) The authors' comparison to LLSM is constrained to the "square" lattice, which, as they point out, is the most used optical lattice (though this also might be considered anecdotal). The LLSM original design, however, goes far beyond the square lattice, including hexagonal lattices, the ability to do structured illumination, and greater flexibility in general in terms of light-sheet tuning for different experimental needs, as well as not being limited to just sample scanning. Thus, the Alstair-LSFM cannot compare to the original LLSM in terms of versatility, even if comparisons to the resolution provided by the square lattice are fair.

      We thank the reviewer for this comment. It is true that our discussion focused primarily on the square lattice implementation of LLSM. While this could be viewed as a subset of the system’s broader capabilities, we chose this focus intentionally, as the square lattice remains by far the most commonly used variant in practice. Even in the original LLSM publication, 16 out of 20 figure subpanels utilized the square lattice, with only one panel each representing the hexagonal lattice in SIM mode, a standard Bessel beam in incoherent SIM mode, a hex lattice in dithered mode, and a single Bessel in dithered mode. This usage pattern largely reflects the operational simplicity of the square lattice: it minimizes sidelobe growth and enables more straightforward alignment and data processing compared to hexagonal or structured illumination modes.

      In 2019, we performed an exhaustive accounting of published illumination modes in LLSM and found that the SIM mode had only been used in two additional peer-reviewed publications at that time. We will consider updating this table in the revised manuscript and will expand our discussion to acknowledge the broader flexibility of the LLSM platform—including its capacity for structured illumination and alternative light-sheet geometries. However, we will also emphasize that, despite these advanced capabilities, the square lattice remains the dominant mode used by the community and therefore serves as a fair and practical benchmark for comparison.

      (5) There is no demonstration of the system's live-imaging capabilities or temporal resolution, which is the main advantage of existing light-sheet systems.

      In the revised manuscript, we will include a demonstration of live-cell imaging to directly validate the system’s suitability for dynamic biological applications. We will also characterize the temporal resolution of the system. As a sample-scanning microscope, the imaging speed is primarily limited by the performance of the Z-piezo stage. For simplicity and reduced optoelectronic complexity, we currently power the piezo through the ASI Tiger Controller. We will expand the supplementary material to describe the design criteria behind this choice, including potential trade-offs, and provide data quantifying the achievable volume rates under typical operating conditions.

      While the microscope is well designed and completely open source, it will require experience with optics, electronics, and microscopy to implement and align properly. Experience with custom machining or soliciting a machine shop is also necessary. Thus, in my opinion, it is unlikely to be implemented by a lab that has zero prior experience with custom optics or can hire someone who does. Altair-LSFM may not be as easily adaptable or implementable as the authors describe or perceive in any lab that is interested, even if they can afford it. The authors indicate they will offer "workshops," but this does not necessarily remove the barrier to entry or lower it, perhaps as significantly as the authors describe.

      We appreciate the reviewer’s perspective and agree that building any high-performance custom microscope—Altair-LSFM included—requires a baseline familiarity with optics and instrumentation. Our goal is not to eliminate this requirement entirely, but to significantly reduce the technical and logistical barriers that typically accompany custom light-sheet microscope construction.

      Importantly, no machining experience or in-house fabrication capabilities are required—users can simply submit provided design files and specifications directly to the vendor. We will make this process as straightforward as possible by supplying detailed instructions, recommended materials, and vendor-ready files. Additionally, we draw encouragement from the success of related efforts such as mesoSPIM, which has seen over 30 successful implementations worldwide using a similar model of exhaustive online documentation, open-source control software, and community support through user meetings and workshops.

      We recognize that documentation alone is not always sufficient, and we are committed to further lowering barriers to adoption. To this end, we are actively working with commercial vendors to streamline procurement and reduce the logistical burden on end users. Additionally, Altair-LSFM is supported by a Biomedical Technology Development and Dissemination (BTDD) grant, which provides dedicated resources for hosting workshops, offering real-time community support, and generating supplementary materials such as narrated video tutorials. We will expand our discussion in the revised manuscript to better acknowledge these implementation challenges and outline our ongoing strategies for supporting a broad and diverse user base.

      There is a claim that this design is easily adaptable. However, the requirement of custom-machined baseplates and in silico optimization of the optical path basically means that each new instrument is a new design, even if the Navigate software can be used. It is unclear how Altair-LSFM demonstrates a modular design that reduces times from conception to optimization compared to previous implementations.

      We appreciate the reviewer’s comment and agree that our language regarding adaptability may have been too strong. It was not our intention to suggest that the system can be easily modified without prior experience. Meaningful adaptations of the optical or mechanical design would require users to have expertise in optical layout, optomechanical design, and alignment.

      That said, for labs with sufficient expertise, we aim to facilitate such modifications by providing comprehensive resources—including detailed Zemax simulations, CAD models, and alignment documentation. These materials are intended to reduce the development burden for those seeking to customize the platform for specific experimental needs.

      In the revised manuscript, we will clarify this point and explicitly state in the discussion what technical expertise is required to modify the system. We will also revise our language around adaptability to better reflect the intended audience and realistic scope of customization.

      Reviewer #3 (Public review):

      Summary:

      This manuscript introduces a high-resolution, open-source light-sheet fluorescence microscope optimized for sub-cellular imaging.

      The system is designed for ease of assembly and use, incorporating a custom-machined baseplate and in silico optimized optical paths to ensure robust alignment and performance. The authors demonstrate lateral and axial resolutions of ~235 nm and ~350 nm after deconvolution, enabling imaging of sub-diffraction structures in mammalian cells.

      The important feature of the microscope is the clever and elegant adaptation of simple gaussian beams, smart beam shaping, galvo pivoting and high NA objectives to ensure a uniform thin light-sheet of around 400 nm in thickness, over a 266 micron wide Field of view, pushing the axial resolution of the system beyond the regular diffraction limited-based tradeoffs of light-sheet fluorescence microscopy.

      Compelling validation using fluorescent beads and multicolor cellular imaging highlights the system's performance and accessibility. Moreover, a very extensive and comprehensive manual of operation is provided in the form of supplementary materials. This provides a DIY blueprint for researchers who want to implement such a system.

      Strengths:

      (1) Strong and accessible technical innovation: With an elegant combination of beam shaping and optical modelling, the authors provide a high-resolution light-sheet system that overcomes the classical light-sheet tradeoff limit of a thin light-sheet and a small field of view. In addition, the integration of in silico modelling with a custom-machined baseplate is very practical and allows for ease of alignment procedures. Combining these features with the solid and super-extensive guide provided in the supplementary information, this provides a protocol for replicating the microscope in any other lab.

      (2) Impeccable optical performance and ease of mounting of samples: The system takes advantage of the same sample-holding method seen already in other implementations, but reduces the optical complexity. At the same time, the authors claim to achieve similar lateral and axial resolution to Lattice-light-sheet microscopy (although without a direct comparison (see below in the "weaknesses" section). The optical characterization of the system is comprehensive and well-detailed. Additionally, the authors validate the system imaging sub-cellular structures in mammalian cells.

      (3) Transparency and comprehensiveness of documentation and resources: A very detailed protocol provides detailed documentation about the setup, the optical modeling, and the total cost.

      Weaknesses:

      (1) Limited quantitative comparisons: Although some qualitative comparison with previously published systems (diSPIM, lattice light-sheet) is provided throughout the manuscript, some side-by-side comparison would be of great benefit for the manuscript, even in the form of a theoretical simulation. While having a direct imaging comparison would be ideal, it's understandable that this goes beyond the interest of the paper; however, a table referencing image quality parameters (taken from the literature), such as signal-to-noise ratio, light-sheet thickness, and resolutions, would really enhance the features of the setup presented. Moreover, based also on the necessity for optical simplification, an additional comment on the importance/difference of dual objective/single objective light-sheet systems could really benefit the discussion.

      In the revised manuscript, we will expand our discussion to include a broader range of light-sheet microscope designs and imaging modes, including both single- and dual-objective configurations. We agree that highlighting the trade-offs between these approaches—such as working distance, sample geometry constraints, and alignment complexity—will enhance the overall context and utility of the manuscript.

      To further aid comparison, we will include a summary table referencing key image quality parameters such as lateral and axial resolution, and illumination beam NA for Altair-LSFM. Where available, we will reference values from published work—such as the axial resolution reported in Valm et al. (Nature, 2017)—to provide a clearer benchmark. Because such comparisons can be technically nuanced, especially when comparing across systems with different geometries and sample mounting constraints, we will also include a supplementary note outlining the assumptions and limitations of these comparisons.

      (2) Limitation to a fixed sample: In the manuscript, there is no mention of incubation temperature, CO₂ regulation, Humidity control, or possible integration of commercial environmental control systems. This is a major limitation for an imaging technique that owes its popularity to fast, volumetric, live-cell imaging of biological samples.

      We thank the reviewer for highlighting this important consideration. In the revised manuscript, we will provide a detailed description of how temperature control can be implemented using flexible adhesive heating elements, a power supply, and a PID controller. Step-by-step assembly instructions and recommended components will be included to facilitate adoption by users interested in live-cell imaging. We also note that most light-sheet microscopy systems capable of sub-cellular resolution—including the original LLSM design, diSPIM, and ASLM—typically do not incorporate integrated CO<sub>2</sub> or humidity control. These systems often rely on HEPES-buffered media to maintain pH stability, which is generally sufficient for short- to intermediate-term imaging. While full environmental control may be necessary for extended time-lapse studies, it is not a prerequisite for high-resolution volumetric imaging in many applications. Nonetheless, we will include a discussion of the challenges associated with adding CO<sub>2</sub> and humidity control to open or semi-enclosed architectures like Altair-LSFM, and outline potential future paths for integration with commercial incubation systems.

      (3) System cost and data storage cost: While the system presented has the advantage of being open-source, it remains relatively expensive (considering the 150k without laser source and optical table, for example). The manuscript could benefit from a more direct comparison of the performance/cost ratio of existing systems, considering academic settings with budgets that most of the time would not allow for expensive architectures. Moreover, it would also be beneficial to discuss the adaptability of the system, in case a 30k objective could not be feasible. Will this system work with different optics (with the obvious limitations coming with the lower NA objective)? This could be an interesting point of discussion. Adaptability of the system in case of lower budgets or more cost-effective choices, depending on the needs.

      We thank the reviewer for raising this important point. First, we would like to clarify that the quoted $150k cost estimate includes the optical table and laser source. We apologize for any confusion and will communicate this more effectively in the revised manuscript.

      We agree that adaptability is a key concern, especially in academic settings with limited budgets. The detection path can be readily altered depending on experimental needs and cost constraints. For example, in our discussion of alternatives to the 5 mm coverslip geometry, we will describe how switching to a Zeiss W Plan-Apochromat 20x/1.0 in combination with a compatible excitation objective allows high-resolution imaging while accommodating more conventional sample formats. We will expand this to include cost-effective alternatives as well.

      We will also expand our discussion on cost-reduction strategies and the associated trade-offs. These include replacing motorized stages with manual ones, omitting the filter wheel in favor of a multi-band emission filter, or using industrial-grade cameras in place of scientific CMOS detectors. While each change entails some loss in functionality or sensitivity, such modifications allow users to tailor the system to their specific budget and application.

      Finally, we recognize the challenge in communicating exact costs of commercial systems due to variability in configuration and pricing. Nonetheless, we will include approximate figures where possible and note that comparable commercial systems—such as LLSM platforms from 3i and Zeiss—are several-fold more expensive than the system presented here.

      Last, not much is said about the need for data storage. Light-sheet microscopy's bottleneck is the creation of increasingly large datasets, and it could be beneficial to discuss more about the storage needs and the quantity of data generated.

      Data storage is indeed a critical consideration in light-sheet microscopy. In the revised manuscript, we will provide a note outlining typical volume dimensions for live-cell imaging experiments along with the associated data overhead. This will include estimates for voxel counts, bit depth, time-lapse acquisitions, and multi-channel datasets to help users anticipate storage needs. We will also briefly discuss strategies for managing large datasets, file types and compression formats.

      Conclusion:

      Altair-LSFM represents a well-engineered and accessible light-sheet system that addresses a longstanding need for high-resolution, reproducible, and affordable sub-cellular light-sheet imaging. While some aspects-comparative benchmarking and validation, limitation for fixed samples-would benefit from further development, the manuscript makes a compelling case for Altair-LSFM as a valuable contribution to the open microscopy scientific community.

      References

      (1) Moore, R. P. et al. A multi-functional microfluidic device compatible with widefield and light sheet microscopy. Lab Chip 22, 136-147 (2021). https://doi.org/10.1039/d1lc00600b

      (2) Lamb, J. R., Mestre, M. C., Lancaster, M. & Manton, J. D. Direct-view oblique plane microscopy. Optica 12, 469-472 (2025). https://doi.org/10.1364/OPTICA.558420

      (3) Liu, T. L. et al. Observing the cell in its native state: Imaging subcellular dynamics in multicellular organisms. Science 360 (2018). https://doi.org/10.1126/science.aaq1392

      (4) Sapoznik, E. et al. A versatile oblique plane microscope for large-scale and high-resolution imaging of subcellular dynamics. eLife 9 (2020). https://doi.org/10.7554/eLife.57681

      (5) Huisken, J. & Stainier, D. Y. Even fluorescence excitation by multidirectional selective plane illumination microscopy (mSPIM). Opt Lett 32, 2608-2610 (2007). https://doi.org/10.1364/ol.32.002608

      (6) Ricci, P. et al. Removing striping artifacts in light-sheet fluorescence microscopy: a review. Prog Biophys Mol Biol 168, 52-65 (2022). https://doi.org/10.1016/j.pbiomolbio.2021.07.003