10,000 Matching Annotations
  1. Jun 2025
    1. I've seen before which is in the history of the book so these manuscripts cost about two million dollars typical ibrary would be about four times the size of this room and each book would have its own desk the books were chained to the desk they often have precious jewels on them because the jewels were nothing compared to the cost of one of these books often took as long as ten to fifteen years to make one of these books give you an example there were only 371 books in the Vatican Library in the Year 1400 it's one of the largest libraries in Europe the richest man in France who is the brother of the King John Newbery had 154 books when he died and he was a bibliophile he had these books made for him and one of the best twenty-five dollars you can ever spend is to get a facsimile of one of the books he had made for himself which is called the Book of Hours of John gusta berry it's marvelous and it gives you a bit of a sense of what these books were like and also what is lost by simply trying to photograph them they're renderings and capturing of the charisma of an oral basically oral society the Gutenberg Bibles

      If we think of the democratization of software we're going to finally enter this stage in technology

    1. En tant qu’organisme national de normalisation du Royaume-Uni, nous fournissons des solutions afin de soutenir les politiques gouvernementales, de relever les défis futurs et d’instaurer un climat de confiance bénéficiant à tous les secteurs et à la société.

      En tant qu'organisme national de normalisation, nous fournissons des solutions afin de soutenir les politiques gouvernementales, de relever les défis futurs et d’instaurer un climat de confiance bénéficiant à tous les secteurs et à la société.

    2. En qualité d’Organisme national de normalisation du Royaume-Uni, notre rôle consiste à favoriser l’innovation et la croissance économique, mais aussi la qualité, la sécurité et le bien-être par le biais de la normalisation.

      En qualité d'Organisme national de normalisation, notre rôle consiste à favoriser l'innovation et la croissance économique, mais aussi la qualité, la sécurité et le bien-être par le biais de la normalisation.

    1. Reviewer #1 (Public review):

      Summary:

      In this work, van Paassen et al. have studied how CD8 T cell functionality and levels predict HIV DNA decline. The article touches on interesting facets of HIV DNA decay, but ultimately comes across as somewhat hastily done and not convincing due to the major issues.

      (1) The use of only 2 time points to make many claims about longitudinal dynamics is not convincing. For instance, the fact that raw data do not show decay in intact, but do for defective/total, suggests that the present data is underpowered. The authors speculate that rising intact levels could be due to patients who have reservoirs with many proviruses with survival advantages, but this is not the parsimonious explanation vs the data simply being noisy without sufficient longitudinal follow-up. n=12 is fine, or even reasonably good for HIV reservoir studies, but to mitigate these issues would likely require more time points measured per person.

      1b) Relatedly, the timing of the first time point (6 months) could be causing a number of issues because this is in the ballpark for when the HIV DNA decay decelerates, as shown by many papers. This unfortunate study design means some of these participants may already have stabilized HIV DNA levels, so earlier measurements would help to observe early kinetics, but also later measurements would be critical to be confident about stability.

      (2) Statistical analysis is frequently not sufficient for the claims being made, such that overinterpretation of the data is problematic in many places.

      2a) First, though plausible that cd8s influence reservoir decay, much more rigorous statistical analysis would be needed to assert this directionality; this is an association, which could just as well be inverted (reservoir disappearance drives CD8 T cell disappearance).

      2b) Words like "strong" for correlations must be justified by correlation coefficients, and these heat maps indicate many comparisons were made, such that p-values must be corrected appropriately.

      (3) There is not enough introduction and references to put this work in the context of a large/mature field. The impacts of CD8s in HIV acute infection and HIV reservoirs are both deep fields with a lot of complexity.

    2. Author response:

      Public Reviews:

      Reviewer #1 (Public review):

      Summary:

      In this work, van Paassen et al. have studied how CD8 T cell functionality and levels predict HIV DNA decline. The article touches on interesting facets of HIV DNA decay, but ultimately comes across as somewhat hastily done and not convincing due to the major issues.

      (1) The use of only 2 time points to make many claims about longitudinal dynamics is not convincing. For instance, the fact that raw data do not show decay in intact, but do for defective/total, suggests that the present data is underpowered. The authors speculate that rising intact levels could be due to patients who have reservoirs with many proviruses with survival advantages, but this is not the parsimonious explanation vs the data simply being noisy without sufficient longitudinal follow-up. n=12 is fine, or even reasonably good for HIV reservoir studies, but to mitigate these issues would likely require more time points measured per person.

      (1b) Relatedly, the timing of the first time point (6 months) could be causing a number of issues because this is in the ballpark for when the HIV DNA decay decelerates, as shown by many papers. This unfortunate study design means some of these participants may already have stabilized HIV DNA levels, so earlier measurements would help to observe early kinetics, but also later measurements would be critical to be confident about stability.

      We agree that in order to thoroughly investigate reservoir decay in acutely treated individuals, more participants and/or more time points measured per participant would increase the power of the study and potentially, in line with literature, show a significant decay in intact HIV DNA as well. By its design (1) the NOVA study allows for a detailed longitudinal follow-up of reservoir and immunity from start ART onwards. In the present analysis in the NOVA cohort, we decided to focus on the 24- and 156-week time points. We plan to include more individuals in our analysis in the future, so that we can better model the longitudinal dynamics of the HIV reservoir.

      The main goal of the present study, however, was not to investigate the decay or longitudinal dynamics of the viral reservoir, but to understand the relationship of the HIV-specific CD8 T-cell responses early on ART with the reservoir changes across the subsequent 2.5-year period on suppressive therapy. We will revise the manuscript in order to clarify this. Moreover, we agree with the reviewer that the early time point (24 weeks) is a time at which many virological and immunological processes are ongoing and the reservoir may not have stabilized yet for every participant. We will highlight this in the revised manuscript.

      (2) Statistical analysis is frequently not sufficient for the claims being made, such that overinterpretation of the data is problematic in many places.

      (2a) First, though plausible that cd8s influence reservoir decay, much more rigorous statistical analysis would be needed to assert this directionality; this is an association, which could just as well be inverted (reservoir disappearance drives CD8 T cell disappearance).

      The second point that was raised by reviewer 1 is the statistical analysis, which is referred to as “not sufficient for the claims being made”. Moreover, a more “rigorous statistical analysis would be needed”. At this stage, it is unclear from the reviewer's comments what specific type of additional statistical analysis is being requested. Correlation analyses, such as the one used in this study, are a well-established approach to investigate the relationship between the immune response and reservoir size. However, as we aim to perform the most rigorous analysis possible, for the revised submission we will adjust our analysis for putative confounders (e.g. age and antiretroviral regimen).

      We would also like to note that the association between the CD8 T-cell response at 24 weeks and the subsequent decline (the difference between 24 and 156 weeks) in the reservoir cannot be bi-directional (that can only be the case when both variables are measured at the same time point).

      (2b) Words like "strong" for correlations must be justified by correlation coefficients, and these heat maps indicate many comparisons were made, such that p-values must be corrected appropriately.

      For the revised submission, we will provide correlation coefficients to justify the wording, and will adjust the p-values for multiple comparisons.

      (3) There is not enough introduction and references to put this work in the context of a large/mature field. The impacts of CD8s in HIV acute infection and HIV reservoirs are both deep fields with a lot of complexity.

      Lastly, reviewer 1 referred to the introduction and asked for more references and a more focused viewpoint because the field is large and complex. We aim to revise the introduction/discussion based on the suggestions from the reviewer.

      Reviewer #2 (Public review):

      Summary:

      This study investigated the impact of early HIV specific CD8 T cell responses on the viral reservoir size after 24 weeks and 3 years of follow-up in individuals who started ART during acute infection. Viral reservoir quantification showed that total and defective HIV DNA, but not intact, declined significantly between 24 weeks and 3 years post-ART. The authors also showed that functional HIV-specific CD8⁺ T-cell responses persisted over three years and that early CD8⁺ T-cell proliferative capacity was linked to reservoir decline, supporting early immune intervention in the design of curative strategies.

      Strengths:

      The paper is well written, easy to read, and the findings are clearly presented. The study is novel as it demonstrates the effect of HIV specific CD8 T cell responses on different states of the HIV reservoir, that is HIV-DNA (intact and defective), the transcriptionally active and inducible reservoir. Although small, the study cohort was relevant and well-characterized as it included individuals who initiated ART during acute infection, 12 of whom were followed longitudinally for 3 years, providing unique insights into the beneficial effects of early treatment on both immune responses and the viral reservoir. The study uses advanced methodology. I enjoyed reading the paper.

      Weaknesses:

      All participants were male (acknowledged by the authors), potentially reducing the generalizability of the findings to broader populations. A control group receiving ART during chronic infection would have been an interesting comparison.

      We thank the reviewer for their appreciation of our study. The reviewer raises the point that it would be useful to compare our data to a control group. Unfortunately, these samples are not yet available, but our study protocol allows for a control group (chronic infection) to ensure we can include a control group in the future.

      (1) Dijkstra M, Prins H, Prins JM, Reiss P, Boucher C, Verbon A, et al. Cohort profile: the Netherlands Cohort Study on Acute HIV infection (NOVA), a prospective cohort study of people with acute or early HIV infection who immediately initiate HIV treatment. BMJ Open. 2021;11(11):e048582.

    1. nous avons été désignés par le gouvernement britannique comme le seul émetteur de normes du pays et nous devenions le champion des consommateurs dans la Grande-Bretagne d’après-guerre.

      BSI UK a été désigné par le gouvernement britannique comme le seul émetteur de normes du Royaume-Uni et devenait le champion des consommateurs de la Royaume-Uni d'après-guerre.

    1. Reviewer #1 (Public review):

      Summary:

      In this manuscript, the authors endeavor to capture the dynamics of emotion-related brain networks. They employ slice-based fMRI combined with ICA on fMRI time series recorded while participants viewed a short movie clip. This approach allowed them to track the time course of four non-noise independent components at an effective 2s temporal resolution at the BOLD level. Notably, the authors report a temporal sequence from input to meaning, followed by response, and finally default mode networks, with significant overlap between stages. The use of ICA offers a data-driven method to identify large-scale networks involved in dynamic emotion processing. Overall, this paradigm and analytical strategy mark an important step forward in shifting affective neuroscience toward investigating temporal dynamics rather than relying solely on static network assessments

      Strengths:

      (1) One of the main advantages highlighted is the improved temporal resolution offered by slice-based fMRI. However, the manuscript does not clearly explain how this method achieves a higher effective resolution, especially since the results still show a 2s temporal resolution, comparable to conventional methods. Clarification on this point would help readers understand the true benefit of the approach.

      (2) While combining ICA with task fMRI is an innovative approach to study the spatiotemporal dynamics of emotion processing, task fMRI typically relies on modeling the hemodynamic response (e.g., using FIR or IR models) to mitigate noise and collinearity across adjacent trials. The current analysis uses unmodeled BOLD time series, which might risk suffering from these issues.

      (3) The study's claims about emotion dynamics are derived from fMRI data, which are inherently affected by the hemodynamic delay. This delay means that the observed time courses may differ substantially from those obtained through electrophysiology or MEG studies. A discussion on how these fMRI-derived dynamics relate to - or complement - is critical for the field to understand the emotion dynamics.

      (4) Although using ICA to differentiate emotion elements is a convenient approach to tell a story, it may also be misleading. For instance, the observed delayed onset and peak latency of the 'response network' might imply that emotional responses occur much later than other stages, which contradicts many established emotion theories. Given the involvement of large-scale brain regions in this network, the underlying reasons for this delay could be very complex.

      Concerns and suggestions:

      However, I have several concerns regarding the specific presentation of temporal dynamics in the current manuscript and offer the following suggestions.

      (1) One selling point of this work regarding the advantages of testing temporal dynamics is the application of slice-based fMRI, which, in theory, should improve the temporal resolution of the fMRI time course. Improving fMRI temporal resolution is critical for a research project on this topic. The authors present a detailed schematic figure (Figure 2) to help readers understand it. However, I have difficulty understanding the benefits of this method in terms of temporal resolution.

      a) In Figure 2A, if we examine a specific voxel in slice 2, the slice acquisitions occur at 0.7s, 2.7s, and 4.7s, which implies a temporal resolution of 2s rather than 0.7s. I am unclear on how the temporal resolution could be 0.7s for this specific voxel. I would prefer that the authors clarify this point further, as it would benefit readers who are not familiar with this technology.

      b) Even with the claim of an increased temporal resolution (0.7s), the actual data (Figure 3) still appears to have a 2s resolution. I wonder what specific benefit slice-based fMRI brings in terms of testing temporal dynamics, aside from correcting the temporal distortions that conventional fMRI exhibits.

      (2) In task-fMRI, the hemodynamic response is usually estimated using a specific model (e.g., FIR, IR model; see Lindquist et al., 2009). These models are effective at reducing noise and collinearity across adjacent trials. The current method appears to be conducted on unmodeled BOLD time series.

      a) I am wondering how the authors avoid the issues that are typically addressed by these HRF modeling approaches. For example, if we examine the baseline period (say, -4 to 0s relative to stimulus onset), the activation of most networks does not remain around zero, which could be due to delayed influences from the previous trial. This suggests that the current time course may not be completely accurate.

      b) A related question: if the authors take the spatial map of a certain network and apply a modeling approach to estimate a time series within that network, would the results be similar to the current ICA time series?

      (3) Human emotion should be inherently fast to ensure survival, as shown in many electrophysiology and MEG studies. For example, the dynamics of a fearful face can occur within 100ms in subcortical regions (Méndez-Bértolo et al., 2016), and general valence and arousal effects can occur as early as 200ms (e.g., Grootswagers et al., 2020; Bo et al., 2022). In contrast, the time-to-peak or onset timing in the BOLD time series spans a much larger time range due to the hemodynamic delay. fMRI findings indeed add spatial precision to our understanding of the temporal dynamics of emotion, but could the authors comment on how the current temporal dynamics supplement those electrophysiology studies that operate on much finer temporal scales?

      (4) The response network shows activation as late as 15 to 20s, which is surprising. Could the authors discuss further why it takes so long for participants to generate an emotional response in the brain?

      (5) Related to 4. In many theories, the emotion processing stages-including perception, valuation, and response-are usually considered iterative processes (e.g., Gross, 2015), especially in real-world scenarios. The advantage of the current paradigm is that it incorporates more dynamic elements of emotional stimuli and is closer to reality. Therefore, one might expect some degree of dynamic fluctuation within the tested brain networks to reflect those potential iterative processes (input, meaning, response). However, we still do not observe much brain dynamics in the data. In Figure 5, after the initial onset, most network activations remain sustained for an extended period of time. Does this suggest that emotion processing is less dynamic in the brain than we thought, or could it be related to limitations in temporal resolution? It could also be that the dynamics of each individual trial differ, and averaging them eliminates these variations. I would like to hear the authors' comments on this topic.

      (6) The activation of the default mode network (DMN), although relatively late, is very interesting. Generally, one would expect a deactivation of this network during ongoing external stimulation. Could this suggest that participants are mind-wandering during the later portion of the task?

  2. doc-0o-54-prod-00-apps-viewer.googleusercontent.com doc-0o-54-prod-00-apps-viewer.googleusercontent.com
    1. impulsos deamor se traspongan en impulsos de agresión hacia el objeto. A raíz de ello, la pulsiónde destrucción queda liberada y quiere aniquilar al objeto, o al menos hace como situviera ese propósito.

      Si la pulsion es un mecanismo biologico para garantizar la supervivencia, el impulso vital por satisfacer una necesidad, ¿qué es entonces el impulso?

    2. el vínculo entre el yo y el ello.

      También existe una tensión que se genera cuando el ello (a lo que el niño es más cercano) actua y el yo (a lo que el adulto es más cercano, gracias a la socialización) no puede comprenderlo.

    3. Esta trasposición [de libido erótica] en libidoyoica conlleva, desde luego, una resignación de las metas sexuales, unadesexualización.

      ¿La líbido erótica y la líbido yoica son sublimaciones de la líbido (energía vital vehiculizada a través de la sexualidad)?

    4. el yo es la parte del ello alterada por la influencia directa delmundo exterior

      Influencia que se evidencia cuando el contexto cultural del niño suprime poco a poco sus pulsiones, y él construye un modo de ser (como sujeto). Así emerge el yo.

    5. angustia de la conciencia moral.

      Son los temores a la pérdida de una fuente de placer (justificados, por ejemplo, por las amenazas de castración de los adultos a los niños)

    Annotators

    URL

    doc-0o-54-prod-00-apps-viewer.googleusercontent.com/viewer2/prod-00/pdf/5t1t5i3e17791dee5dgr72fetf35lghc/rlnv3pb7arenl3gap8lt9upr6jtorus1/1751166375000/3/113937841593299532125/APznzabYljbqV8NI-CeEODerOWONdiORFkxOLfzgK532WJAuv7dMi4MFZYn1690Sj69ajgF-GUo8NmxconsjAngiOQI30zKfUWWgZwHPVPmtf8cedoM-zPzWWtq39whWGNfHqXbjQVjMRXDki-8rfOfUeBg948uBbwGIIP5nYEGtgcoEFTmdVDpjEZsGiORZF-w9gUjZcFMqRJrIx_syJ-U1KKWeoa7zepmaYihj6_Dg2ktNw7LTAZmKQrgvMlKI8aT_iV4dj373UOPJrDhm6utrQLtVmYv97nb9tj5koucF_mRK7Zzawo7N4mh5QpnBWlh-8WGBDsxauyb2b14A2n4GgSpdJRqBdiRcF84BrQwEV1Nb9O7oQ1bgFS1iykocgxwnREJkYKQjQZ4onu3elXHeR9_Wlqfyt-sn7hkT8PFIw7gvaQscuCUwT8HEs_nOQ665VYSHitptsjXNuTWkghcevXb45tyUJB9BS-wdJ9U5h7HqsKLtuX8eEGuuLpTAzijuyjt137MHgWerGSpQx2q6jkvO9tQx8_ookCfUe-WKxaXIKFhfv_vcyAAfd6XdB9EjguRzCGDHq53N5riCQA3cYCAV9SB0CltG9koXAnSAyQH0g_UIUDnxK98lC_BEnFBV1gwk2iwoEqsE98KvMY4uos3JvIrvecsDxB6TqTsEp392CNoQIAlfKAIHq5h60fo9bs2cPFfjmIb65xSnMMAfMS31qwXQz4yZ2x0j-CLJfk0lqzDL865ApMnGC4JP65wkDbdDmT1SlfoBvGmQ0_llXcEJmn6Fx2uGTYd0UK9nJXiirNwiWUvgku_exXtBURA71vkIYY-KjUtdQa5P59RrKM_RJCzCDuX334T4tFsSlusdM8OI09DDiKlPlBkOHpgWJXTg2Brdg15GZ29kvL3b_oW8GtViLvi_EHhPcN4kxf2O9AMg5H5_T6MxwB3nGLIXYb5vRPMyGz3GdAo-1axgmVfqYnv-0mWNMTtg3ytMkpW8WrG-8MIVz-1rVPWMJwOxMR8Jaw72ZQZCS5qUFEZ3l_iCrM9yh68E3YVW_Qy3rOj8R1YbGQnwWJDqPQhiQYOA-xwtzAiLDw_UB1ymN1NC3GZb4JlgjGVGX2StWUyzalFtuHsvnJ3NUjSZAA2EeWSeGnXK1rwctPzUsPph6-Bjknbws-ExR1xGdLUnzfW8KYO3CDP8tYY36hVNbdfYDlxo8hvsQVM6dZX3Hjl4Yx2mIyPejiEusSQ_h6wtCgDqMMtGJVYEAZRljHnVAua9nKGOOD5pA4aCYhqnjU1AvlmQuBAlCG2rFZjQ0-hgLbcehAU3Tb97TJ1oY6QZWWGVlJuiILzLj-Usom1y86DReQBjoTVnNhcWyIZTa9VmbAFf1-kMAXCYEfvkqWcduyNhfvsANKpXTbSeyBbf1aZVaan7IV7BBcNEYr3Kk3FrxXNIfzHzAP6qyFxaVDPreWB94Y3uSOUQJAaPyaY0ALbOGACU4KIXnZLVmj8WZZx0KwlrqT3rXWyPuzrp-2XQNogKAiSUR4ewKpUDBV6UwJWkJbIavjySU7Rl6dHM_iB2vOibUIZavgwmD2EP3fgc-cXqvFkkspq2NZvE87tiW-gG6a3CfmIrjIk5PNxZV6lBx1DbCREFPLsGL9dZyHXrG48s-Q5knmhWejDRasB6jqkMK9-x0NPMqCSaPE1PicJp5lnG3QNCv_sS1PKINy5nE8GwFNzo6cU1YLxiH1SJrbItmuUOEmjyCcTuiPrRbwTYoIo75eggUvvMQlJPAVN1lCoP7Ct1zAj5ZPKk7bWuBju18MOLE6qLj57VlgYjIiu3bv-V1nhof0iRd2Q89MM1GJBLYin5ZX6mlgGOPH53pwQgvar9nA4sWLDEEpacimXFZkSGGMH-KBjFqRXWvHWpjEtJnBBSXcxUz-2TCgFprHm7syZgHJ3Vw8B_qFDJqquoL-Ve3_oNjIGkCG2J39JEpEPsVEjJuDAR2bwGgySC2fiwY6HKOMom4sdjyBAOkznRnyaz79huUli8I1U__8xIaYZFXjqgDuAeeFMXiyn-dUj1_CvjCbqif_HE8fpmETX9UswXa_KkqjEazhtNmr3Q4xnOnD5iJaYllyWyAWYNGc5o0UU7GmF0Zy7T0A==
    1. Brandt he made a statement that yesterday's breakthrough is today's graduate seminar is tomorrow's off-the-shelf home entertainment would that that were true but in fact yesterday's breakthrough is the thing that is most often forgotten it's not today's graduate seminar and it's definitely not tomorrow's home entertainment because what usually happens in the the grand tradition of Hollywood producers sitting around a table looking at a script and saying hey we've got ideas too too often people it's not a question of not invented here it's a question if I want to invent this myself and the if you look at the micro computers that are being sold today you'll see hardly anything that approximates the kind of total system design that the link had I think we all can realize that they are not sold as complete packages they're not sold as Honda's most of the things that you need can't even be plugged into them there are millions of wires to worry about and so forth but what is that may not be too surprising because after all that was a garage culture perhaps less forgivable

      we're not doing any better a computer out of the box doesn't do anything today without a whole set of payed software and subscriptions..

    1. conexión

      conexión no es la palabra indicada para esto. Mejor algo así "En la figura 5 (a) mostramos la curva I-V para el diodo Zener polarizado en inversa ..."

    2. Utilizando la Ec. (1)

      La ecuación de Shockley no sirve para ajustar la ruptura inversa del Zener, no es un modelo válido. Por eso les da tan mal el ajuste. En esta región se suele usar un modelo lineal de resistencia dinámica que funciona bien: V=−Vz + Iz rz

    3. La metodología empleadaresulta satisfactoria en ambos métodos obteniendo resultados esperados. Se recalca laimportancia de tomar una gran cantidad de medidas en la caracterización de los diodos

      esto sobra

    1. only 15.4%

      If you have a pos. test in 9000 cases people actually have disease BUT in ca. 50000 cases they don't have the disease -> low probability of having the disease when you have a pos. test

  3. drive.google.com drive.google.com
    1. ciclo a ciclo de la se ̃nal,

      no entiendo bien esto del ciclo a ciclo. Si utilizaron una técnica no estándar para calcular el rizado hubiese estado bien describirla en forma transparente.

    2. no correspond ́ıa completamente al comportamiento esperado de una fuentede corriente continua

      no es de esperarse nunca que un rectificador de media onda sea comparable a la salida de una fuente continua

    3. incertezas de medici ́on

      incertezas que no son las que ya están graficadas con los puntos? capaz convenía acá informar algunas métricas para evaluar las bondades del ajuste, como chi^2

    4. Estecomportamiento se ajusta adecuadamente al modelo te ́orico descrito por la ecuaci ́on deShockley.

      esto mejor decirlo una vez hecho el ajuste, cuando realmente probaron que el modelo funciona bien. Decirlo antes de probarlo queda raro. Si quieren, puede describir cuantitativamente la curva y decir que pareciera observarse un comportamiento tipo exponencial, si quieren decir algo en este punto

  4. drive.google.com drive.google.com
    1. Albert Paul Malvino. Principios de la electr ́onica.

      las referencias (todas) hay que darlas en un formato de informe técnico, por ejemplo en formato APA: "Principios de Electrónica (2007). Albert Paul Malvino. Madrid: McGraw-Hill, 621, M29p." el disponible aquí no queda bien

    2. gr ́aficas devueltas por el mismo circuito

      O sea, lo que entiendo es que muestran los gráficos de la figura 10, no los discuten, e inmediatamente se ponen a hablar de otros resultados (que no muestran) al doble de frecuencia. A ver, todo gráfico que se presenta debe ser primero referido en el texto y segundo discutido exhaustivamente en el mismo. Acá primero hay que hacer una figura con paneles (a) (b) (c) y (d) y aclarar que es una figura pensada para mostrar distintos valores de C. Segundo describir absolutamente todo lo que ve en cada panel remarcando el efecto del valor de capacitancia en el rizado. Tercero priorizar formalidad en el escrito, el circuito que hicieron "no devuelve figuras", la curvas no se planchan "mas rápidamente" Recién después de eso uno empezaría a contar que pasa cuando se dobla la frecuencia y en el contexto de esa discusión se presenta la tabla 5

    3. Se ̃nal enviada

      Los gráficos deben tener paneles, y hay que aumentar el tamaño de la letra en los labels. No es necesario poner titulo a los gráficos, el valor de C es aconsejable escribirlo en la leyenda

    4. Resultados y comparaci ́on de valorespara diodo LED:4

      igual que antes, hay que referir en el texto la figura y las tablas. No es conveniente referir las figuras o las tablas como "la siguiente" "la del costado" etc. Esto es por que si ustedes mandan un trabajo a publicar el editor les puede mover las figuras hacia donde el quiere.

    5. Se pone a disposici ́on la comparaci ́on entre valores t ́ıpicos y los resultados:

      Acá hay que referir la tabla el texto. Por ejemplo, "En la tabla 1 se muestra una comparación entre los valores típicos y los resultados obtenidos"

    6. diodos no ideales

      no existen los diodos ideales. Acá hay que hablar de diodos. En el caso de querer hacer alguna aproximación utilizando la idea de diodo ideal, en ese caso hay que definir lo que es un diodo ideal. Es confuso para el lector si no

    1. Résumé de la vidéo [00:00:00][^1^][1] - [00:24:29][^2^][2]:

      La vidéo présente une discussion approfondie sur la santé mentale au travail avec Samah Karaki. Elle aborde l'importance de traiter la santé mentale au travail de la même manière que dans d'autres domaines de la vie, en soulignant que le cerveau ne fait pas de distinction entre les différents environnements.

      Points forts: + [00:00:15][^3^][3] Santé mentale au travail * L'importance de prendre soin de sa santé mentale * Pas de différence entre le travail et la famille pour le cerveau * L'influence de toutes les expériences vécues sur la santé mentale + [00:01:17][^4^][4] Le rôle des 'happiness officers' * Questionnement sur leur efficacité * Les besoins humains fondamentaux doivent être satisfaits * La nécessité de créer un environnement de travail sain + [00:05:01][^5^][5] La séparation entre travail et vie personnelle * Discussion sur une série télévisée dystopique * Impossibilité de séparer complètement les deux domaines * L'impact de la charge mentale des deux environnements + [00:06:02][^6^][6] Les micro-traumatismes quotidiens * Comparaison avec le stress chronique chez les animaux * L'importance de la prévention avant le soin * Alignement des environnements avec les besoins humains + [00:07:12][^7^][7] Les besoins humains fondamentaux * Discussion sur l'évolution des besoins humains * L'importance de l'autonomie, la reconnaissance et la certitude * La nécessité d'un environnement de travail qui ne menace pas ces besoins + [00:11:00][^8^][8] La productivité et le bonheur au travail * La productivité comme objectif implicite ou explicite * La stabilité émotionnelle améliore la performance * La différence entre motivations intrinsèques et extrinsèques Résumé de la vidéo [00:24:33][^1^][1] - [00:47:23][^2^][2]:

      La vidéo aborde l'importance de trouver du sens dans son travail, indépendamment du poste ou de la mission. Elle souligne la nécessité d'une transparence sur les objectifs et l'utilité de chaque rôle au sein d'une entreprise. La discussion porte également sur la gestion de l'incertitude et l'importance de la reconnaissance et du respect des compétences individuelles pour prévenir le burn-out et le bore-out.

      Points forts: + [00:24:33][^3^][3] Trouver du sens au travail * Importance de la connexion avec la mission de l'entreprise * Nécessité de comprendre l'utilité de son travail * Exemple de la NASA pour illustrer le sens au travail + [00:35:05][^4^][4] Le bore-out et l'épuisement professionnel * Risque d'épuisement lorsque les compétences ne sont pas sollicitées * Concept de "flow" et équilibre entre compétences et défis * Impact du bore-out sur la santé mentale et le suicide professionnel + [00:43:46][^5^][5] Gérer l'incertitude et promouvoir la diversité * Approches pour faire face à l'incertitude dans le monde professionnel * Importance de la transparence et de la tolérance à l'erreur * Valeur des profils atypiques et de la diversité des perspectives Résumé de la vidéo 00:47:25 - 00:54:35: La vidéo traite de l'importance de la diversité des perspectives et de l'écoute équitable dans le milieu professionnel pour aborder la complexité croissante du monde. Elle souligne la nécessité d'inclure des profils atypiques et de valoriser chaque voix, indépendamment du genre ou de l'apparence physique, pour apprendre les uns des autres et mieux gérer l'incertitude.

      Points forts: + [00:47:25][^1^][1] Diversité des perspectives * La diversité est cruciale pour comprendre le monde complexe * Les profils atypiques apportent des vues uniques * Chaque trajectoire singulière a de la valeur + [00:48:37][^2^][2] Écoute équitable * Il est important que tous les profils se sentent légitimes à s'exprimer * L'écoute doit être sincère et non discriminatoire * L'apparence physique ne devrait pas influencer l'attention accordée + [00:50:22][^3^][3] Importance du collectif * Face à l'incertitude, la collaboration est essentielle * La discrimination positive est nécessaire mais insuffisante sans écoute active * Chaque personne a quelque chose à enseigner aux autres + [00:52:17][^4^][4] Conseils pour les leaders * Reconnaître que personne n'a toutes les réponses * Valoriser l'intelligence collective et l'expertise diverse * Encourager la formulation des bonnes questions par tous

    1. determinar cuándo y porqué comenzó a usarse el vocablo «reconquista» paradesignar el enfrentamiento protagonizado en la península ibérica por cristianosy musulmanes, puesto que en la Edad Media dicho término nunca se utilizó

      para Ríos Saloma existem 3 problemas particulares no conceito: primeiro, o fato de nunca ter sido usado o termo na idade média.

    2. una panorámica sobre la forma en que el concepto deReconquista fue utilizado con diversos objetivos ideológicos y políticos entre fi-nales del siglo XV y principios del siglo XX

      Objetivo do artigo

    1. o be catastrophic to the formation of life-essential car-bon and oxygen. A similar calculation of the tolerance forshifts in the EM fine-structure constant αem suggests thatcarbon-oxygen based life can withstand shifts of ≃ 2.5%in αem. Beyond such relatively small changes in the funda-mental parameters, the anthropic principle appears neces-sary to explain the observed abundances of 12C and 16O.We also note that the fine-tuning in the fundamental pa-rameters is much more severe than the one in the energydifference ε.
    1. Briefing : Révolutionner la productivité des associations grâce au No-Code et à l'IA

      Introduction

      Ce briefing récapitule les points clés abordés lors du webinaire organisé par Solidatech, en partenariat avec Contournement et Nocode Forgood.

      L'objectif principal de cette session était de démontrer comment les outils "no-code" et l'intelligence artificielle (IA) peuvent permettre aux associations de "gagner des dizaines d’heures par mois" et de renforcer leur impact numérique.

      1. Solidatech : Renforcer l'impact numérique des associations

      • Solidatech est une organisation française fondée en 2008, dédiée à l'accompagnement des associations dans leur transformation numérique.

      Composée d'une douzaine de personnes, elle opère depuis Paris et les Deux-Sèvres, où se situe sa coopérative d'insertion, les Ateliers du Bocage (mouvement Emmaüs), spécialisée dans le réemploi de matériel bureautique. Solidatech est également le satellite français du réseau international TechSoup.

      Public cible :

      Plus de 42 000 associations inscrites gratuitement. Divers statuts juridiques : associations (locales ou plus grandes), fondations, fonds de dotation, bibliothèques publiques. Toutes tailles d'organisations, avec ou sans employés (y compris celles composées uniquement de bénévoles).

      Piliers d'accompagnement :

      • Accès à des outils et matériels à tarifs réduits : Offre de logiciels et matériels reconditionnés (ordinateurs, écrans, smartphones, etc.) avec des remises allant de -30% à -90%, voire des gratuités. Exemples de partenaires : Cisco, Dell.
      • Développement des usages numériques :Centre de ressources gratuit.
      • Équipe support basée dans les Deux-Sèvres pour le conseil et le choix des licences.
      • Outil de diagnostic numérique pour évaluer la maturité numérique.
      • Étude nationale annuelle sur la place du numérique dans le milieu associatif.
      • Accompagnement et formation :Newsletters régulières.
      • Partenariat Prestatek (annuaire de prestataires de services).
      • Webinaires thématiques variés.
      • Formations certifiées Qualiopi sur des sujets comme la conformité RGPD, la communication digitale, la recherche de financement, la gestion de dons, et l'utilisation d'outils (Microsoft 365, Canva).
      • Impact : Solidatech aide les associations à réaliser des "économies monétaires [et] en temps", à gagner en maturité numérique et à se professionnaliser.

      2. Le No-Code et l'IA : Définitions et promesses

      Erwan Kezzard, cofondateur de Contournement, a introduit les concepts de no-code et d'IA générative comme des leviers majeurs pour optimiser le temps. Il souligne que "le temps... c'est une ressource extrêmement importante, notamment quand on travaille soit aux sources contraintes".

      Définition du No-Code :

      • "Le nocode comme son anxie son son les les l'exprime et l'exige ce sont des outils qui permettent de réaliser visuellement intuitivement des projets numériques sans forcément avoir de compétences informatiques en code."

      • Permet de créer des sites web, des petites applications, d'automatiser des tâches, de créer des solutions internes, etc., de manière visuelle et intuitive.

      • Exemple : Excel n'est pas du no-code ; le no-code permet de "créer ses propres outils".

      Définition de l'IA Générative :

      Il s'agit des IA accessibles comme "les Chat GPT, Mistral et autres qui sont euh bah des technologies auxquelles on peut assez rapidement demander des choses demander de retraiter du contenu demander de faire des recherches et elle nous répond".

      Potentiel et Bénéfices :

      • L'objectif est de "gagner des dizaines d'heures par mois" en évitant les "manipulations répétitives, des tâches non informatisées ou des tâches informatisées mal optimisées".
      • Principal usage : l'optimisation de la productivité, c'est-à-dire "travailler mieux pour faire autant ou faire moins". Cela concerne l'optimisation des "ops" (opérations quotidiennes) en administratif, RH, gestion de projet, etc.
      • Exemple de gain de temps : "si cinq fois par jour je passe 5 minutes à faire une tâche à la fin de l'année j'aurais passé 6 jours plein 6 jours de travail à ne faire que ça".

      3. Les Trois Briques Fondamentales du No-Code Erwan Kezzard a illustré les capacités du no-code à travers trois piliers principaux, souvent combinés :

      Bases de données visuelles :

      Outil clé : Airtable (alternative française : TimeTonic).

      • Fonctionnalité : Ressemble à Excel mais est une "base de données", où chaque ligne est une fiche. Les colonnes ont des types de données spécifiques (liens, sélecteurs, pièces jointes, dates).
      • Avantages : Création rapide de vues filtrées et segmentées ("vues" pour stagiaires, commerciaux, DG), gestion des accès, formulaires d'entrée de données (créé en "moins de 25 secondes").
      • Concept de "relations" : Possibilité de lier des entrées entre différentes tables (ex: lier des prospects à des entreprises), ce qui résout de nombreux problèmes de ressaisie et de cohérence des données. Permet de naviguer entre les données comme sur une application.
      • Permet de construire des "CRM que je me fais moi-même" et des "intranets".

      Automatisation et interconnexion :

      • Outil clé : Zapier (alternatives : Make, N8N - open source mais plus technique).
      • Fonctionnalité : Connecte différents outils pour automatiser des processus.
      • Exemple : "à chaque fois que dans Airtable il y a une nouvelle entrée dans la table entreprise alors automatiquement va dans le chat GPT demande-lui 'Tu es un expert en politique RSE...' puis prends cette convers enfin trouve la ligne dans Air Table et mets à jour cette ligne avec l'info directement ici".
      • Permet d'automatiser des notifications (Teams, Slack), des envois de mails personnalisés, la création de documents (PDF), etc.
      • L'IA "fait qu'un seul boulot" (poser la question), le no-code "fait le boulot" des tuyaux d'interconnexion.

      Interfaces (Sites web, applications mobiles/web) :

      • Outil clé : Glide (pour applications mobiles), Software (pour applications web / intranets).
      • Fonctionnalité : Permet de créer des applications mobiles ou web à partir d'une base de données existante (ex: Airtable).
      • Avantages : Ne nécessite aucune installation ni hébergement, permet de modifier l'apparence et les fonctionnalités intuitivement. "je peux modifier cette application mobile changer l'apparence changer l'info qui apparaît où et cetera".

      4. Philosophie et Positionnement de Contournement & Nocode Forgood

      Contournement :

      • Métier : "former les équipes et les individus au nos code et Alia pour leur permettre de travailler plus efficacement".
      • Ne vise pas à lancer la "prochaine start-up à la mode" mais à "gagner du temps", "digitaliser" et "fluidifier ses processus".
      • Offre de formations en présentiel, téléprésentiel, et e-learning (plateforme avec abonnement à coût accessible, réductions prochainement à 50-100€/mois).

      Accompagne aussi des publics éloignés de l'emploi.

      • Vision du no-code : une "compétence complémentaire" valorisable sur le marché de l'emploi ("je suis chargé de communication... je me forme quelques jours au nocode je sais digitaliser automatiser dans mon métier et ça m'apporte quelque chose").
      • Met en garde contre le "miroir aux alouettes" et le "charlatanisme" liés au no-code comme "nouveau métier".

      Nocode France :

      • "La communauté la plus active au monde dans le Nocode qui est française".
      • Composée de 15 000 personnes qui "s'entraident bénévolement", offrant conseils et orientations.

      Nocode Forgood :

      • Mission : "donner accès aux outils no code les plus démocratiques du numérique pour rendre la vie plus simple aux assos et leur permettre de démultiplier leur impact".
      • Fait découvrir le no-code (masterclass) et surtout met en relation des associations avec des "nocodeurs et des nocodeuses engagés".
      • Approche "MVP" (Minimum Viable Product) : "commencer petit", "réaliser le plus vite possible un morceau qui fonctionne et après de l'adapter". L'objectif est d'aider les associations à "faire leur skateboard" (amorce), puis de les accompagner.
      • Projets : les nocodeurs peuvent travailler bénévolement (avec contrepartie de formations Contournement) ou à "tarif solidaire".

      5. Exemples concrets de succès

      • Les Francofolies : "15 personnes un seul informaticien". En deux jours de formation Airtable, ils ont gagné "plusieurs dizaines d'heures par semaine" notamment sur le reporting carbone.

      Ils ont aussi fait appel à une experte Ania pour des projets plus complexes, mais ont aussi décidé de ne pas "nocoder" certains processus peu chronophages.

      • La MedNum : Coopérative qui gère son sociétariat, ses projets et son organisme de formation avec Airtable (base de données) et Make (automatisation).

      Gagne "énormément de temps". Utilise aussi Notion pour la documentation interne et les ressources textuelles.

      • Wildlife Impact Network (via Nocode Forgood) : Création d'un site avec Softer et d'une galerie de projets finançables avec Airtable en deux jours.
      • Naestan (via Nocode Forgood) : Création d'un outil de pilotage et de reporting interne pour une association d'aide aux jeunes Afghans, réalisé avec CODA.
      • Nocode Forgood (interne) : Automatisation de la génération de brouillons de posts LinkedIn à partir de retours d'expérience d'associations, via Make et l'IA.

      6. Bonnes pratiques et avertissements

      • Cartographier avant de se lancer : "Une bonne pratique c'est de cartographier avant de se lancer".
      • Ne pas tout no-coder à outrance : "pas besoin de tout nous coder les meilleurs outils ça peut être de trouver des outils spécialisés". Si un processus fonctionne bien, ne pas le modifier.
      • Outils modernes et interconnectables : Privilégier les outils qui peuvent se connecter entre eux (vérifier la compatibilité Zapier ou Make). Exemple : Assoconnect est intégrable avec Zapier et Make.
      • Collaboration avec l'IT et les juristes : "appuyez-vous toujours sur l'IT sur le juridique sur les décisionnaires ne faites pas du shadow IT dans votre coin sur le nocode s'il y a des gens qui doivent être décisionnaires avec vous ça peut exposer à des risques de données mal géré et cetera de sécurité".
      • Formation : Même si le no-code est accessible, un minimum de formation est nécessaire. "Au bout d'une journée ou de 2 à 5 jours de formation les gens peuvent commencer à faire des choses".
      • Appui sur des experts externes : Recommandé pour éviter les erreurs (ex: données publiques par erreur) et structurer des projets plus complexes.
      • Coût : "Un outil no code qui se respecte est payant déjà un dans un outil de code qui se respecte est fremium". Les tarifs commencent souvent entre 15 et 30€/mois. Il faut prévoir "entre 50 et 100 € de budget mensuel" pour faire beaucoup de choses. C'est un investissement rapidement amorti.
      • RGPD et stockage des données :L'hébergement aux États-Unis n'est pas intrinsèquement non-RGPD. De nombreux outils américains sont "RGPD compliant".
      • Il est crucial de consulter un juriste pour les données sensibles.
      • "Le RGPD rappelons que c'est un process où vous vous devez faire toute une démarche de nous par exemple contournement on a tout un registre où on dit où sont stocké quelle donné et on fait gaffe régulièrement à supprimer les données qui ont plus de 3 ans".
      • Les outils no-code payants ne "vendent" généralement pas vos données, leur modèle économique étant basé sur l'abonnement. Le risque principal est lié aux exigences gouvernementales (Cloud Act, Patriot Act).
      • Migration de bases de données : Simple via l'import CSV dans Airtable (ou TimeTonic, Notion). Possibilité de synchroniser des bases existantes (ex: Excel) avec Airtable via Zapier/Make.
      • Différence Notion vs. Airtable : Notion est "plus orienté je prends des notes", gestion de "contenu riche", "espace collaboratif tout en un" (wiki, documentation interne). Airtable est centré sur la "donnée" et sa structuration.

      7. Outils de productivité IA complémentaires

      Whisper Flow : Outil de dictée vocale permettant de "dicter et ne plus taper quasiment au clavier". Reconnaissance précise de la syntaxe et de la ponctuation. Dict AI : Application mobile française et souveraine pour "prendre en note les réunions automatiquement" et générer des comptes-rendus.

      Conclusion

      Le no-code et l'IA représentent une opportunité significative pour les associations de toutes tailles d'améliorer leur efficacité opérationnelle et de se professionnaliser.

      Des organisations comme Solidatech, Contournement et Nocode Forgood jouent un rôle essentiel dans la démocratisation de ces technologies, en offrant des ressources, des formations et un accompagnement adapté, tout en soulignant l'importance de l'éthique, de la sécurité des données et d'une approche pragmatique dans leur adoption.

    1. Briefing : Réussir son projet numérique associatif

      Ce document synthétise les points clés du webinaire "[Webinaire] De l'idée à la réalisation : comment réussir votre projet numérique associatif ?", animé par Gautier Jeanzac de Pastec et une représentante de Solidatech.

      Il vise à fournir une méthodologie claire et des conseils pratiques pour les associations souhaitant entreprendre un projet numérique.

      I. Solidatech : Un partenaire pour la transformation numérique des associations

      Solidatech est présenté comme un programme de solidarité numérique créé en 2008, porté par les Ateliers du Bocage (mouvement Emmaüs). Son objectif est de "renforcer l'impact des associations par le numérique" et "renforcer votre impact à travers une meilleure utilisation du numérique".

      1. Bénéficiaires et Éligibilité :

      • Principalement les associations loi 1901, mais aussi les fondations RUP, fonds de dotation, et bibliothèques publiques.
      • L'inscription est gratuite et ouverte "quel que soit votre secteur d'activité, que aussi vous vous soyez bah voilà vous fonctionnez entièrement avec que des bénévoles ou au contraire des des centaines de salariés".
      • Plus de 42 000 associations sont déjà inscrites.

      2. Modes d'action pour accompagner les associations :

      • Faciliter l'accès au numérique :Logiciels à tarifs réduits (Microsoft, Adobe, Zoom, ainsi que des solutions françaises comme Assoctoc, Spirit, Net Explorer, Insia).
      • Matériel informatique reconditionné (par les Ateliers du Bocage) et neuf (grâce à des partenaires comme Cisco et Dell).
      • Accompagnement au développement des usages du numérique :Centre de ressources et outil d'autodiagnostic.
      • Formations (Solidatech est un organisme de formation certifié Qualiopi), webinaires thématiques mensuels.
      • Newsletters.

      Prestations de conseil sur mesure.

      Coproduction et diffusion de savoirs :Réalisation d'une étude nationale sur la place du numérique dans le projet associatif tous les 3 ans (5e édition lancée mi-avril 2025, dernière en 2022).

      II. Pastec : Expertise en conseil et développement informatique pour les projets à impact

      • Gautier Jeanzac représente Pastec, une société coopérative qui est une "agence de conseil et développement en informatique" spécialisée dans l'accompagnement de "projets à impact social et ou environnemental", travaillant "beaucoup avec des associations".

      1. Expertises Métiers de Pastec :

      • Conseil et gestion de projet / Direction technique partagée : Aide à la conception (architecture, planning) et au pilotage du développement produit.
      • Développement de produits numériques : Basé sur un cahier des charges, en "code traditionnel" ou "no code".
      • Numérique responsable : Conception de services "éco-conçus", "accessibles" et "respectueux du RGPD" (Règlement Général sur la Protection des Données).

      2. Rôle du Chef de Produit (Gautier Jeanzac) :

      Point de convergence entre la vision du client, les attentes des utilisateurs et les possibilités techniques. Aide à piloter la vie du produit en intégrant ces différentes perspectives.

      III. La formalisation du besoin : Clé de voûte du projet numérique

      La transformation numérique est définie comme "l'idée d'intégrer des technologies numériques dans l'ensemble des activités de l'association".

      1. Freins et Opportunités de la transformation numérique :

      • Freins majeurs dans les associations : "le coût, le temps et les compétences".
      • Opportunités : "améliorer l'efficacité opérationnelle, moderniser des services pour les bénéficiaires, renforcer l'impact des associations".
      • Exemple : Numérisation de processus administratifs chronophages (ex: suivi des bénévoles via fichiers Excel) pour gagner du temps et "passer ce temps-là du coup on peut le passer sur ces métiers".

      2. Du besoin métier au produit numérique :

      • Identifier un besoin métier : Souvent issu d'un "point de douleur" (ex: "processus d'adhésion très complexe", "beaucoup de saisies manuelles").
      • Question clé : "où est-ce qu'on dépense trop d'énergie et de temps ?"
      • Rédiger un cahier des charges : Document "de synthèse en fait de tous ces besoins", permettant de "prendre du recul avant de vous lancer dans la dans le développement".
      • C'est "le document qui vous permet d'expliquer et d'expliciter le ou les objectifs à atteindre de votre service ou de votre outil numérique".
      • Sert de référence pour le développement, que ce soit avec un prestataire ou en interne.

      3. Structure recommandée d'un cahier des charges (6 parties) :

      • Contexte : Qui est l'association, son histoire, ses objectifs, l'origine du besoin numérique (passé, présent, futur du projet).
      • Lexique : Définir les termes et acronymes propres à l'association pour une compréhension externe.
      • Technique : Préciser les éléments techniques existants (langage, hébergement, développeur précédent, contraintes spécifiques, migration des données, contrat de maintenance, RGPD).
      • Règles d'utilisation (User Stories) : Décrire les interactions des utilisateurs avec le service sous forme de "petites histoires". Ex: "En tant que bénévole de l'association, je souhaite pouvoir me connecter à un espace membre qui m'indique depuis combien de temps je suis bénévole". Inclure le résumé, les détails et les critères d'acceptation.
      • UX (User Experience) et UI (User Interface) :UX : "la capacité à concevoir ce qu'on un parcours utilisateur" (comment l'utilisateur interagit avec le logiciel et ses différentes étapes).
      • UI : "l'interface utilisateur" (ce que l'utilisateur va voir, l'aspect visuel, les maquettes, les wireframes - schémas d'écran).
      • Annexes : Tout document complémentaire pertinent.

      4. Exemple de CRM pour une association d'entrepreneuriat :

      Le cahier des charges a permis de suivre les interactions avec les parties prenantes. Le besoin de CRM est venu d'un "audit qui a fait remonter le besoin". Illustration concrète des user stories et des contraintes techniques (intégration dans un SI global, respect RGPD).

      IV. La construction du produit : Intégrer les utilisateurs et itérer

      La phase de construction insiste sur l'importance d' "intégrer en fait les équipes les bénévoles vos utilisateurs et vos utilisatrices dans la réflexion de ce à quoi va ressembler votre produit".

      1. Mener des actions terrain (Interviews Utilisateurs) :

      • Objectif : Comprendre les points de douleur et les besoins des utilisateurs (ce qu'ils veulent, ce qu'ils pensent de l'existant, comment améliorer).
      • Cinq grandes étapes :Préparation efficace : Définir les informations à recueillir et le "fil rouge" de l'entretien.
      • Début d'entretien : Poser le cadre, mais surtout insister sur le fait qu'il n'y a "pas de bonnes réponses" pour encourager l'honnêteté.
      • Pendant l'entretien : Parler "20%" et écouter "80% du temps". Privilégier les "questions ouvertes".
      • Après l'entretien : Traduire les besoins en fonctionnalités.
      • Priorisation : Développer en priorité ce qui "coûte le moins de temps et qui apporte le plus pour mes utilisateurs" (les "victoires rapides").

      2. Méthodologie Agile et "Petits Pas" :

      • Mettre l'utilisateur au cœur de la réflexion.
      • Commencer par un "plus petit lot possible de fonctionnalité à développer" (un "skateboard" avant la "voiture").
      • Processus itératif : Proposer de nouvelles fonctionnalités, les utilisateurs les utilisent, remontent de nouveaux besoins, et le cycle recommence.
      • Exemple : Formulaire d'adhésion simple (nom, email) puis ajout progressif de champs (adresse, région) basés sur les retours des équipes.
      • Avantages de l'approche itérative : Développer uniquement les fonctionnalités demandées, éviter le budget inutile, créer des outils adaptés aux besoins.
      • Observation d'usage : Observer physiquement les utilisateurs pour comprendre leurs interactions et ajuster le produit.

      V. Le développement : Code traditionnel vs No Code Deux grandes familles de développement sont présentées :

      1. Code traditionnel :

      Avantages : Peu ou pas de limites, possibilité de "tout faire" pour répondre à des besoins très précis. Inconvénients : Plus long et donc plus cher (coût basé sur le temps de développement), "complicité technique" qui rend la compréhension difficile pour les non-initiés (nécessite un bon partenaire pour "vulgariser les points techniques").

      2. No Code :

      • Définition : Outils pour créer des applications ou sites sans coder, comme des "Legos" (assemblage de blocs).
      • Avantages : "Rapidement mettre une solution en place", itérer vite, coût "un petit peu moins cher".
      • Inconvénients : "Moins personnalisable", nécessite une grande vigilance sur "l'écoconception, l'accessibilité et parfois du RGPD", outils propriétaires (la solution ne vous appartient pas).

      3. Exemples d'outils No Code :

      • CRM : Monday, Airtable (attention au RGPD car hébergement aux USA, lié au Patriot Act), Grist (alternative RGPD, hébergeable où l'on veut).
      • Formulaires : Type Form, Tally (version hébergée en Europe, plus RGPD).
      • Sites vitrines : Wix, Webflow, Bubble (Canva peut être une alternative si l'association est à l'aise avec l'outil, car il existe des versions premium gratuites pour les associations).
      • Applications web : Bubble, XAR.
      • Automatisation : Make, Zapper.
      • Wireframes : wireframe.cc (gratuit, simple), Canva, Paint, PowerPoint. Pour des maquettes plus complexes : Figma, suite Adobe (Adobe Express est gratuit en version premium pour les associations).

      VI. Travailler avec une agence et derniers conseils

      Le développement d'outils numériques, qu'il soit en code ou no code, "demande du temps et des compétences techniques".

      Si une association n'a pas le temps et préfère passer par une agence, plusieurs conseils sont donnés :

      • Équipe interne dédiée au pilotage : Avec "un pouvoir décisionnel" pour faciliter les évolutions.
      • Approche collaborative et construite : Intégrer toutes les parties prenantes, surtout les utilisateurs finaux.
      • Ne pas hésiter à demander et exiger la vulgarisation : S'assurer de comprendre ce qui se passe techniquement pour pouvoir reprendre la main si besoin.
      • Adopter la stratégie des petits pas : Éviter de développer des fonctionnalités inutiles et optimiser le budget.
      • Être adaptable : Trouver le juste milieu entre la vision initiale et les retours des utilisateurs.
      • Garder du temps pour se former : Comprendre les aspects techniques du produit.

      Concernant l'utilisation de l'IA pour le développement :

      Réponse nuancée : "J'en sais rien". * Vigilance : Dépend des outils et modèles utilisés. * Prudence : Ne pas déployer des choses non maîtrisées pour éviter les erreurs ou des problèmes ingérables.

      • Ce briefing offre une feuille de route complète, de l'identification du besoin à la concrétisation du projet, en soulignant l'importance de l'écoute des utilisateurs et d'une approche itérative et adaptable.
    1. Note d'information : L'engouement des jeunes pour les soins de la peau (Skincare) et ses implications

      • Ce document de synthèse examine la tendance croissante des jeunes, en particulier la "génération Alpha" (née après 2010), à adopter des routines de soins de la peau complexes, souvent inspirées par les médias sociaux.

      Il met en lumière les motivations de cette tendance, les risques potentiels pour la santé et les mesures prises ou recommandées par les professionnels de la santé et l'industrie.

      Thèmes Principaux :

      • L'adoption précoce des routines de soins par les enfants et préadolescents : Une tendance omniprésente, alimentée par les réseaux sociaux et l'influence des pairs.

      • Les risques pour la santé dermatologique et hormonale : L'utilisation de produits non adaptés aux peaux jeunes peut entraîner irritations, allergies, et des effets synergiques potentiellement dangereux à long terme.

      • L'impact de l'industrie cosmétique et des influenceurs : Les marques ciblent spécifiquement ce nouveau public, créant des produits attrayants mais parfois inappropriés.

      • La réaction des professionnels et les tentatives de régulation : Dermatologues, cosmétologues, et pharmaciens expriment leur inquiétude et appellent à une meilleure information et à des restrictions.

      Synthèse Détaillée :

      1. L'engouement généralisé pour le "Skincare" chez les jeunes

      • Une routine complexe dès le plus jeune âge : Charlotte, 12 ans, décrit une routine typique de "skincare" incluant nettoyage, lotion, masques et crèmes hydratantes. Elle affirme que "90% [des filles de sa classe] en font [du skincare], il y en a même qui en font beaucoup plus que moi qui mettent énormément de produits".

      • Influence des pairs et des réseaux sociaux : Charlotte a découvert cette tendance par ses amis et "en regardant internet aussi il y avait plein de gens qui commençaient à parler de ça". TikTok est devenu "un réseau où l'on expose sa skinc routine sa collection de crème et de lotion". La génération Alpha "copie leurs aîné influenceuses leur style leur vocabulaire".

      • Perception du "skincare" comme un jeu : À 10-12 ans, "prendre soin de sa peau c'est devenu un jeu qu'on expose".

      • Obsession pour la prévention du vieillissement : Des enfants "vantaient de la crème anti-ride persuadé que plus on commence tôt moins on aura de ride". Une fillette de 7 ans s'inquiétait de son "stock d'acide hyaluronique" qui disparaissait.

      • Stratégies d'acquisition : Pour gérer le "sacré budget" des produits, les jeunes utilisent des "techniques avec mes amis" pour obtenir des échantillons gratuits dans des grands magasins comme Globus et Manor, se faisant connaître comme "très connu" par les vendeuses.

      2. Les dangers et préoccupations des professionnels

      • Produits inadaptés aux peaux jeunes : La dermatologue pédiatre constate que "ce qu'elles utilisent ne sont pas des produits adaptés à leur peau qu'en plus d'habitude elles n'ont pas besoin de crème ni de quoi que ce soit à cet âge là".

      • Risques d'irritations et d'allergies : Des amies de Charlotte ont déjà eu "plein de boutons ou des rougeurs" suite à l'utilisation de produits. La dermatologue s'inquiète de savoir "est-ce qu'il va y avoir des irritations est-ce qu'il va y avoir des allergies est-ce que ça peut être plus grave".

      • Effet "cocktail" et perturbations hormonales : L'utilisation de multiples produits crée un "effet de cocktail" ou "synergique" où "chacun va influencer l'autre", ce qui "semble qu'à long terme ce soit plus dangereux qu'on l'avait penser au départ". Il y a une inquiétude quant à la "perturber [des] hormones à long terme".

      • Ingrédients problématiques pour les enfants :Rétinol : "Le rétinol par exemple peut irriter les peaux d'enfant". Un masque testé contenait du rétinol et un dérivé se transformant en "acide rétinoïque qui est interdit dans le domaine cosmétique".

      • Pellings à pH très acide : Peuvent provoquer "des picotements", "des rougeurs", et même "des brûlures".

      • Perturbateurs endocriniens : Certains masques en contiennent, comme le produit Skin Republic.

      • Extraits éclaircissants : Utilisés pour l'éclaircissement, alors que les jeunes n'ont pas de problèmes de tâches cutanées ("on va pas aller essayer d'éclaircir des tâches qui n'existent pas").

      • Molécules toxiques ou à effet "Botox végétal" : Le spilantol (extrait d'acmella) est "vraiment à éviter chez l'enfant" en raison de son "profil toxicologique qui n'est pas forcément très rassurant".

      • Ingrédients œstrogéniques ou corticomimétiques : Un masque "le pire" contenait de l'origan à caractère œstrogénique et des extraits à effet corticomimétique.

      • Allergènes interdits : Un masque liquide contenait un allergène parfumé ("hydroxy isoexyl 3 cycloexène carboxaldéide") désormais "interdit par la réglementation européenne et donc en Suisse aussi".

      • Masques peel-off : Contiennent des "matières plastiques" pour obtenir l'effet pelable, en plus de générer "beaucoup de déchets" avec les emballages à usage unique.

      3. Le rôle de l'industrie cosmétique

      • Ciblage des jeunes : L'industrie cosmétique voit cette génération comme "le nouveau public cible". De "nouvelles marques qui ressemblent à des bonbons naissent chaque mois".

      • Marketing trompeur : Les jeunes sont "finalement victimes des publicités puisque l'industrie cherche à agrandir son cercle de clientèle donc il faut toujours consommer plus".

      • Manque d'information : Les très jeunes filles connaissent "un rayon sur les crèmes leurs effets leurs indications mais qui n'ont pas conscience que certains contenus ne sont pas adaptés".

      • Absence de mention d'âge recommandé : "Légalement les fabricants n'en ont pas l'obligation", mais ils "réalisent maintenant que leurs produits ne sont pas toujours utilisés par le public qui était visé".

      4. Réactions et recommandations

      • Restrictions en Suède : La principale chaîne de pharmacies en Suède a décidé de "ne plus vendre certains produits au moins de 15 ans des antirides notamment", suite à l'augmentation des demandes de "produits skinc avancés" par des enfants de 8 à 10 ans. La réaction du public a été "très très nombreuses... toutes positives".

      • Appel à la prudence en Suisse : L'association des cosmétiques et détergents en Suisse a publié un communiqué précisant que "les produits cosmétiques anti-âge n'ont pas vocation à être utilisés sur des pots d'enfants" et que "les parents doivent veiller à ce que des produits cosmétiques adaptés au besoins de la peau des enfants et des adolescents soient utilisés".

      • Sensibilisation des vendeuses : Des tests réalisés par Inès et Lia (10 et 11 ans) ont montré que les vendeuses dans des enseignes comme Douglas, Kiko et Marionnaud sont désormais sensibilisées, déconseillant l'achat de produits inadaptés en raison de l'âge ("trop forte et que ça pouvait nous brûler la peau") et les mettant en garde contre "ce qu'on avait vu sur Youtube".

      • Vente libre problématique : Cependant, ces mêmes produits peuvent être achetés en "se servant directement sur l'étalage sans passer par le conseil d'une vendeuse", ce qui n'est "rien d'illégal".

      • Nécessité de ralentir la création de marques : La professeur de cosmétologie estime qu'il faut "arrêter... qu'il y ait moins de marque mais de meilleure qualité".

      • Recommandation d'éviter le "layering" : La superposition de cosmétiques ("layering") est "aberrant" même pour l'adulte car cela crée un "effet occlusif" et "accumulation qui n'est pas bon pour la peau", et "encore moins pour l'enfant".

      • Interdiction des ingrédients dangereux : Une analyse en laboratoire a révélé que 10 des 15 masques testés contenaient des "ingrédients problématiques pour des peaux jeunes" et ne devraient "pas être utilisé par des enfants ou des adolescentes", avec un cas de produit "illégal" car contenant un allergène interdit par la réglementation européenne.

      En conclusion, l'engouement des jeunes pour le "skincare" est une tendance préoccupante en raison des risques potentiels pour leur santé dermatologique et hormonale, liés à l'utilisation de produits inadaptés et à des pratiques excessives.

      L'industrie est invitée à davantage de responsabilité, et les parents sont appelés à une vigilance accrue, tandis que des mesures restrictives, comme celles prises en Suède, pourraient être envisagées plus largement.

    1. Synthèse Détaillée : Comprendre et Combattre les Préjugés

      Ce document explore en profondeur la nature des préjugés, des stéréotypes et de la discrimination, leurs origines, leurs manifestations subtiles et leurs impacts.

      Il propose également des stratégies concrètes pour les identifier, les mesurer et les réduire, soulignant l'importance de la conscience de soi et de l'éducation.

      1. Distinction des Concepts : Stéréotypes, Préjugés et Discrimination

      Le document établit une distinction claire entre trois concepts souvent confondus :

      • Stéréotype : Défini comme "une croyance, une opinion, où l’on plaque des caractéristiques à tout un groupe social".

      Ces croyances peuvent être personnelles ou, plus souvent, "des croyances partagées qu'on a apprises sans s’en rendre compte, via nos proches, nos environnements sociaux, les médias, etc."

      Les stéréotypes peuvent être "positifs" (ex: "les garçons sont généralement doués en maths") ou "négatifs" (ex: "les filles seraient moins douées en maths").

      Il est crucial de noter que les stéréotypes ne sont pas seulement descriptifs mais aussi prescriptifs, créant des attentes.

      • Préjugé : Représente "l’émotion, le sentiment, les attitudes négatives qu’on peut avoir vis-à-vis d’un groupe social", souvent associées à des stéréotypes.

      Les préjugés sont renforcés dans des contextes où l'on se sent menacé par un groupe, que ce sentiment soit fondé ou non.

      Une personne confrontée à une réalité qui contredit ses stéréotypes peut générer une "réaction négative : un préjugé."

      • Discrimination : Désigne des "comportements spécifiques où l’on traite différemment les individus selon leur groupe social perçu".

      Cela peut se manifester par des "remarques déplacées, ou encore ignorer ou désavantager volontairement quelqu’un."

      • Il est souligné que ces concepts ne sont pas toujours interconnectés de manière linéaire :

      "On peut avoir connaissance des stéréotypes, même les plus négatifs, sans que cela génère en nous des préjugés.

      On peut aussi avoir des préjugés, sans que cela aboutisse à des comportements discriminants."

      La conscience de ses propres préjugés peut même permettre de s'ajuster pour éviter les comportements discriminants.

      2. Le Masque des Préjugés et les Stratégies de Dissimulation

      Les préjugés sont souvent dissimulés ou exprimés de manière détournée, car "nos préjugés avancent masqués."

      • Humour de dénigrement : Une stratégie courante est l'utilisation de l'humour, où "une remarque sexiste, suivie d'un « Oh mais ça va, c'est une blague ! »" sert de "couverture" pour "rendre socialement plus acceptable l’expression de préjugés, tout en pouvant se défendre qu’il s’agit là de préjugés."

      • Rhétorique pseudodémocratique : Dès les années 40, Adorno et ses collègues ont étudié cette stratégie où les personnes "préfèrent atténuer l’expression de leur préjugé en utilisant le conditionnel, ou des conjonctions comme mais."

      L'exemple classique est "Je ne suis pas raciste, mais..." ou "Ce n'est pas que j'ai des préjugés, mais...". Ces discours à forts préjugés sont "déguisé[s] sous l’apparence d’ouverture et de tolérance."

      • Déni et sous-estimation : Paradoxalement, "on peut avoir tendance à sous-estimer ses propres préjugés, à croire qu’on n’en a pas, et paradoxalement, c'est ce qui peut alimenter des stéréotypes et conduire à des discriminations."

      Les personnes ayant des préjugés se répètent, à elles-mêmes et aux autres, "ne pas en avoir, comme s’il suffisait de dire Je ne suis absolument pas raciste. Pour annuler le reste du propos."

      3. Préjugés Implicites et Leurs Origines

      Le document introduit la notion de préjugés implicites : "Oui. Et on parle dès lors de préjugés implicites."

      • Nature des préjugés implicites : Contrairement aux préjugés explicites (conscients), les préjugés implicites sont "inaccessibles, automatiques, omniprésents, et influencent d’une manière unique nos jugements et comportements."

      Ils agissent "comme des tâches en arrière plan" de notre conscience, influençant nos interactions sans que nous nous en rendions compte.

      "Autrement dit, on peut sincèrement penser ne pas avoir de préjugés et pourtant en avoir en toile de fond."

      • Sources des préjugés : Qu'ils soient implicites ou non, les stéréotypes et préjugés sont "construits, appris très tôt dès notre enfance auprès de nos parents, de notre famille, de nos environnements sociaux, à partir de certains évènements vécus, ou encore à travers les médias de masse."

      L'exemple donné est celui de la télévision dans les années 80, où "plus les gens regardaient la télévision, plus leurs préjugés racistes et sexistes se retrouvaient fortifiés" à force de voir des "représentations stéréotypées."

      4. Les Microagressions : Manifestations Subtiles de la Discrimination

      Le document met en lumière les "microagressions" comme des "comportements plus subtils et bien plus présents au quotidien."

      Ces comportements, bien que peu visibles, ont des conséquences préjudiciables lorsqu'ils sont répétés :

      • Exemples : "faire des blagues sexistes, avoir tendance à couper la parole et à la monopoliser, mépriser l’identité d’une personne, par exemple en la mégenrant, ne pas tenir compte de l’avis d’une personne en raison de sa couleur de peau, de son genre, orientation sexuelle, handicap, etc."

      • Impact : Elles entraînent une "diminution de l’estime personnelle, dépression, anxiété, sentiment d’impuissance, culpabilisation" chez les victimes, et contribuent à "maintenir et renforcer les inégalités dans la société."

      5. Mesurer les Préjugés : Les Méthodes des Psychologues

      Les psychologues utilisent diverses méthodes pour étudier les préjugés, notamment :

      • Questionnaires d'auto-évaluation : Simples, mais sujets au "biais de désirabilité sociale", où les gens modifient leurs réponses pour être bien perçus. L'anonymat peut atténuer ce biais.

      • Observation comportementale : Des situations mises en scène permettent d'observer les comportements des gens sans qu'ils sachent qu'ils sont testés.

      L'exemple donné est celui de l'aide apportée à des personnes hétérosexuelles ou homosexuelles, montrant un "pourcentage plus élevé d’aide dans la condition “hétérosexuel”."

      • Mesures physiologiques : Fréquence cardiaque, activité électrique du cerveau (IRM fonctionnelle).

      Il est mentionné que "lorsqu’on présente à des personnes blanches sous IRM fonctionnelle des photos d’hommes noirs, ils auront une réponse émotionnelle négative, ce qui n’est pas le cas devant la photo d’un homme blanc," interprétée comme une "perception de menace."

      • Tests d'association implicites (IAT) : Mesurent le temps de réaction entre des catégories de groupes sociaux et des mots à valence positive ou négative, révélant des "associations automatiques, des attitudes implicites."

      • La combinaison de plusieurs méthodes permet de "capturer nos préjugés à plusieurs niveaux, des plus explicites aux plus implicites."

      6. Les Motivations Derrière la Dissimulation des Préjugés

      Le conflit intérieur entre le désir d'exprimer des émotions et le maintien de valeurs contradictoires explique pourquoi les préjugés sont cachés. Deux types de motivations sont identifiés :

      • Motivations internes : Liées aux "valeurs personnelles, telles que l’altruisme, la tolérance ou l’égalité."

      Ceux qui sont animés par ces motivations "lutter[ont] contre eux [leurs préjugés]" et "travailler[ont] sur moi-même, en diminuant mes propres préjugés de manière autonome." Ils ont effectivement de plus faibles préjugés.

      • Motivations externes : Dictées par "des motifs extérieurs, sociaux, normatifs," comme la "crainte par exemple d’être socialement mal perçus" (biais de désirabilité sociale).

      Ces personnes "tenter[ont] de résoudre ce conflit en évitant d’exprimer mes préjugés sans vraiment travailler à les diminuer."

      Leurs préjugés sont généralement plus forts et ils les déguisent par "des blagues dégradantes, des rhétoriques pseudo-démocratiques ou diverses justifications tel que des arguments naturalistes : « ce sont les faits », « c’est la biologie », « c’est la nature »."

      7. L'Impact des Normes Sociales et de la Rhétorique Politique

      Le document aborde la manière dont les normes sociales influencent l'expression des préjugés :

      • Changement des normes : Si les normes sociales deviennent plus permissives envers l'expression des préjugés, "les personnes qui jusqu’ici cachaient leurs préjugés risquent de les exprimer davantage, parfois avec force, comme un barrage qui vient de céder."

      • L'effet d'encouragement ("effet Trump") : La rhétorique de figures politiques, comme celle de Donald Trump en 2016, "participe à banaliser l’expression de préjugés, à les rendre comme socialement plus acceptable."

      Cela déplace les normes sociales, autorisant "les personnes qui jusqu’ici réprimaient leurs préjugés selon des motivations externes" à "exprimer le fond de leur pensée, parfois avec grande violence."

      8. L'Héritage des Stéréotypes et Préjugés : L'Exemple de "Couleur Café"

      Le document utilise la chanson "Couleur Café" de Serge Gainsbourg pour illustrer comment les stéréotypes implicites et les préjugés coloniaux peuvent être ancrés dans la culture populaire :

      • Interprétation contrastée : Alors que pour beaucoup, c'est une chanson qui "célèbre la diversité," pour les personnes de couleur, elle "réduit [notre identité] à une couleur et à un produit colonial, le café."

      • Clichés coloniaux : La chanson réactive "tout un imaginaire et des préjugés coloniaux," associant "femmes noires, produits coloniaux et sexualité."

      Le texte explique l'origine de l'image de la femme métisse "dansante, au service de l’homme blanc," créée par la "propagande coloniale" pour attirer de jeunes colons.

      • Persistance et déconstruction : Aujourd'hui, les femmes noires et métisses "essayent de se débarrasser de ce cliché," ce qui est difficile car "les gens pensent que c’est un cliché positif."

      Le document appelle non pas à la censure, mais à "écouter les paroles et essayer de comprendre l’histoire des symboles et des préjugés," utilisant la chanson comme un "outil parfait pour analyser les stéréotypes et faire de la pédagogie antiraciste."

      9. Stratégies pour Réduire et "Hacker" les Préjugés

      Malgré leur omniprésence, il est affirmé que les préjugés "peuvent être diminués, voire hackés, y compris quand ils sont implicites."

      • Auto-régulation et reconnaissance : "Apprendre à reconnaître ses préjugés, à ne pas les nier, sans se juger sévèrement," en voyant cela comme une "occasion de les travailler pour s’en débarrasser."

      Avec l'entraînement, cela peut devenir automatique.

      • Aider autrui : En évitant les jugements sévères, "poser des questions, sur ses émotions, l’amener à prendre conscience par lui-même que certaines attitudes et comportements peuvent être problématiques."

      • Développer des valeurs : Cultiver des "valeurs d’égalité et de tolérance de manière autonome," issues de motivations internes.

      • Prise de perspective et empathie : "Imaginer le monde du point de vue d’une autre personne, se mettre à sa place," par l'écoute de témoignages ou la fiction.

      • Éviter le déni des inégalités : Refuser la croyance que "les préjugés et les discrimination n’auraient plus vraiment cours," car cela "favorise les préjugés" en rendant aveugle à leur gravité et aux microagressions. Préférer une "approche multi culturelle qui valorise les différences."

      • Environnements diversifiés et inclusifs : Favoriser dès l'enfance des "environnements sociaux diversifiés et inclusifs" (théorie du contact intergroupe).

      • Représentations positives dans les médias : Promouvoir une meilleure image des divers groupes sociaux.

      • Éviter les cadres compétitifs : Limiter les situations qui renforcent le clivage "nous contre eux."

      • Programmes de sensibilisation et de formation : Dans les écoles et sphères professionnelles, "sensibiliser à la diversité, en expliquant ce que sont les stéréotypes, les préjugés, et les moyens de lutter contre," et "exposer des récits contre-stéréotypés, de proposer des prises de perspectives."

      • En résumé, le document offre un aperçu complet de la complexité des préjugés, allant de leur définition conceptuelle à leurs manifestations les plus subtiles, et propose des voies claires pour leur réduction individuelle et sociétale.

    1. Note de synthèse : Convention Citoyenne sur les Temps de l'Enfant

      Cette note de synthèse est un compte-rendu des thèmes principaux, des idées maîtresses et des faits importants extraits des interventions d'ouverture de la Convention Citoyenne sur les Temps de l'Enfant.

      Elle inclut des citations pertinentes des sources originales.

      I. Contexte et Objectif de la Convention

      La Convention Citoyenne sur les Temps de l'Enfant est la troisième convention citoyenne souhaitée par le Président de la République, le Premier Ministre et le Gouvernement français, marquant ainsi "l'inscription durable de ce format de cet instrument dans notre paysage institutionnel".

      Elle fait suite à celles sur le climat et la fin de vie, et vise à approfondir la démocratie participative en France.

      Question centrale posée aux 140 citoyens tirés au sort :

      "Comment mieux structurer les différents temps de la vie quotidienne des enfants afin qu'ils soient plus favorables à leurs apprentissages, à leur développement et à leur santé ?"

      Cette question englobe un large éventail d'aspects de la vie des enfants :

      • Le temps de l'école
      • Le temps des familles
      • Le temps des vacances
      • L'accès aux loisirs, au sport, à la culture
      • Le temps passé devant les écrans
      • L'objectif est de produire des "réponses concrètes" et "nécessaires" sur un sujet "central pour la société". Les travaux de la Convention sont destinés à "éclairer la décision publique" et à servir de "boussole dans la société". Il est explicitement mentionné que les citoyens "n'allez pas faire la loi", mais leurs propositions "nourrissent les travaux législatifs".

      II. Principes Fondateurs et Méthodologie

      La Convention se déroule au Conseil Économique Social et Environnemental (CESE), un lieu où le débat est traditionnellement "respectueux, fondé, contradictoire mais toujours apaisé".

      Ces principes sont également ceux qui guideront les travaux de la Convention citoyenne :

      • Égalité : "tous les membres sont à égalité il n'y a pas de voix plus importante que d'autres". Chaque citoyen est considéré comme "légitime à prendre la parole dans le respect de vos différences".
      • Fondé : Les travaux "reposent sur des éléments factuels et vérifiés et se nourrissent de nombreuses rencontres et échanges".
      • Contradictoire : "tous les points de vue doivent s'exprimer", sans "nier, gommer ou affair les opinions les différences".
      • Apaisé : Les désaccords, même "francs massifs", ne doivent "jamais être violents ou blessants". La démocratie au CESE "n'est pas un sport de combat".
      • L'importance de l'intelligence collective est soulignée comme le "meilleur levier pour bâtir à plusieurs les meilleures solutions dans un esprit de construction".

      • La méthodologie de travail s'étend sur sept sessions jusqu'à fin novembre, soit six mois et 21 journées de travail. Elle se décompose en plusieurs phases :

      • Acculturation (avant l'été, sessions 1 & 2) : Faire groupe, apprendre à se connaître, explorer le sujet, rencontrer des intervenants (chercheurs, spécialistes, acteurs, jeunes, enfants) pour se forger une "culture commune" et une "perception commune des enjeux".
      • Exploration approfondie et élaboration de propositions (dès début septembre, sessions 3 à 6) : Les citoyens choisiront les sujets à approfondir et recevront en audition des acteurs de terrain, experts, porteurs de points de vue, etc. L'objectif est d'échanger, dialoguer et élaborer des "propositions qui seront argumentées qui seront construites collectivement y compris des opinions minoritaires".
      • Finalisation (session 7) : Remise du "rapport citoyen final au gouvernement et au président de la République".

      III. Inclusivité et Diversité des Acteurs

      La Convention met un accent particulier sur la diversité de ses membres et l'inclusion de différentes perspectives :

      • 140 citoyens tirés au sort : Représentatifs de la diversité de la population française. Les statistiques présentées montrent une répartition équilibrée en termes de genre (56% femmes, 44% hommes), une large diversité d'âges (moins de 25 ans, plus de 65 ans et entre les deux), une représentation des différentes catégories socio-professionnelles et une couverture de toutes les régions métropolitaines, y compris les Outre-mer et la Corse.
      • Implication des enfants : Un "groupe d'une vingtaine d'enfants" sera constitué pour début septembre. Ils pourront "vous faire part directement de leur vécu de leur perception de leurs attentes de leurs propositions". Cette démarche est jugée essentielle, car "nous ne pouvons pas parler des temps de l'enfant sans les enfants eux-mêmes".
      • Contribution des territoires : Des ateliers seront organisés durant l'été "dans les territoire" pour recueillir de la matière et "nourrir vos réflexions dès la rentrée".
      • Rôle du CESE : Les membres du CESE (175 représentants de 81 organisations de la société civile) se saisiront également de la question pour donner "l'avis de la société civile organisée". Des points de rencontre entre les citoyens et le CESE seront organisés.
      • Acteurs de la Convention : Plusieurs groupes de soutien et d'encadrement sont identifiés par des couleurs de cordons :
      • Blanc : Membres de la Convention citoyenne.
      • Vert : Comité de gouvernance (présidé par Kenza Kaucé), garantissant la liberté et la sérénité des débats.
      • Bleu foncé : Garantes, assurant l'intégrité, l'indépendance, la transparence et la qualité des travaux.
      • Rouge : Organisation (membres du CESE facilitant le parcours).
      • Bleu clair : Collectif d'animation, accompagnant les séances de travail et les débats.
      • Rose : Observateurs chercheurs, analysant et rendant compte du processus.
      • Jaune : Journalistes (présents à certains moments).
      • Noir : Personnes auditionnées.

      IV. Engagement et Attentes

      Les organisateurs expriment leur gratitude envers les citoyens pour leur engagement, reconnaissant les "sacrifices personnels" que la participation implique. Il est souligné que l'expérience sera "passionnante" et que les citoyens "par procuration pour la société tout entière" en apprenant à se connaître et à débattre.

      Il est rappelé que les citoyens sont "parfaitement légitime[s]" à être là, à poser des questions aux experts et à interroger des ministres, comme Madame Borne (Ministre de l'Éducation Nationale, de l'Enseignement Supérieur et de la Recherche) et Sarah El Haïry (Haute Commissaire à l'Enfance) qui viendront les rencontrer.

      Le travail des citoyens "aura un impact bien au-delà de ces murs pour les enfants d'aujourd'hui et pour la société de demain". Les organisateurs s'engagent à ce que le travail des citoyens "soit prise en compte par ceux qui vous ont saisi". Un urne sera mise à disposition pour que deux citoyens puissent se porter candidats et assister au comité de gouvernance le dimanche après-midi pour partager leur vécu de la session.

    1. Chapter 5: Identifying Quality Indicators: Ensuring Excellence in Early Childhood Education Programs Mary Beth Boettcher, MSEd Course Competency: Identify quality indicators in early childhood education programs Learning Objectives: Understand and articulate the principles of developmentally appropriate practices (DAP) Explain the accreditation process and its importance in maintaining high standards of quality in early childhood programs Explain how YoungStar criteria are used to assess and improve the quality of childcare programs Understand the role of environmental rating scales (ERS) in guiding improvements to early childhood education environments 5.1 Introduction To ensure that early childhood education programs provide the best possible environment for young learners, it is important to not only recognize but also understand the quality indicators that define exceptional early childhood settings. These indicators, which span across various domains such as curriculum, teacher-child interactions, family engagement, and physical space, serve as the foundation for creating environments where children can thrive. This chapter will guide you through the quality indicators so that we can ensure that each child has access to an environment that promotes their growth and well-being. 5.2 Developmentally Appropriate Practices Developmentally appropriate practice (DAP) is a teaching approach in early childhood education that focuses on meeting children where they are developmentally, contextually, and individually. Here’s a simple breakdown to help you see it from a bird’s eye view: Understanding Developmental Stages: DAP is based on the idea that children grow and learn at different rates. Educators use their knowledge of child development to create activities that are suitable for the age and stage of each child. Individual Needs and Interests: Every child is unique, with their own strengths, interests, and needs. DAP encourages teachers to get to know each child and tailor their teaching methods to support each child’s individual journey. Creating Engaging Learning Experiences: DAP emphasizes making learning fun and engaging. Activities are designed to be hands-on and interactive, helping children explore and discover through play and exploration. Holistic Development: DAP supports all areas of a child’s development—cognitive (thinking), social (interacting with others), emotional (understanding and expressing feelings), and physical (movement and coordination). Responsive Teaching: Teachers using DAP are flexible and responsive. They observe children closely and adjust their teaching strategies to better support each child’s learning and development. In essence, DAP is about creating a nurturing and supportive environment where every child can thrive and develop a love for learning. “Educators who engage in developmentally appropriate practice foster young children’s joyful learning and maximize the opportunities for each and every child to achieve their full potential” (National Association for the Education of Young Children, DAP Position Statement, n.d.). The National Association for the Education of Young Children (NAEYC) defines developmentally appropriate practice (DAP) as methods that promote each child’s optimal development and learning through a strengths-based, play-based approach. DAP emphasizes creating joyful, engaged learning experiences that are tailored to the individual needs, cultural backgrounds, and developmental stages of each child. It supports educators in making intentional, informed decisions to foster children’s growth across all domains—cognitive, social, emotional, and physical. 1. https://www.naeyc.org/resources/position-statements/dap/contents The three core considerations of developmentally appropriate practice (DAP), as outlined by the National Association for the Education of Young Children (NAEYC), are described in Table 5a below. Table 5a: Three Core Considerations Three Core Considerations of Developmentally Appropriate Practice Commonality in Child Development and Learning Understanding what is generally true about how children develop and learn at different ages and stages. This includes recognizing patterns of growth in all developmental domains—cognitive, social, emotional, and physical—based on research and child development theories. Individuality of Each Child Recognizing that each child is unique, with their own interests, abilities, and developmental progress. Educators must observe and assess children to tailor experiences that meet their specific strengths, needs, and learning styles. Cultural and Social Context Acknowledging that a child’s development is influenced by their family, culture, community, and lived experiences. Teachers must create inclusive environments that respect and reflect diverse backgrounds while ensuring equitable learning opportunities for all children. By considering these three factors, educators can implement practices that truly support the needs of every child in a developmentally appropriate way. Educators that engage in developmentally appropriate practices foster joyful learning, which helps to maximize each child’s full potential. Children are born eager to learn and as Figure 5a depicts, the child has made a connection to reading and exploring his grandmother’s books and learning materials. Figure 5a: Child playing Additional Resources DAP Video 1 created by MBB using an AI source Unlocking Young Minds: DAP Video 1 Unlocking Young Minds: DAP Video 2 NAEYC Resources: The National Association for the Education of Young Children (NAEYC) offers a wealth of information on DAP, including position statements, articles, and guidelines. Their website is a great starting point for understanding the principles and applications of DAP12. Reflect How do the three core considerations of developmentally appropriate practice (DAP)—commonality, individuality, and cultural context—show up in your current or future work with children? Can you think of a time when considering one of these helped support a child’s development? 5.3 Accreditation Accreditation in early childhood education is a voluntary process through which programs demonstrate their commitment to high-quality standards that promote the well-being and development of young children. It involves an in-depth evaluation of various aspects of a program, including its curriculum, teaching practices, staff qualifications, and environment. Achieving accreditation ensures that a program meets or exceeds established benchmarks, providing families with confidence that their children are receiving the best care and educational experiences. There are a variety of accrediting bodies in early childhood education in addition to the two described below. NAEYC Accreditation The National Association for the Education of Young Children (NAEYC) is a professional organization that sets high standards for early childhood education programs. NAEYC accreditation ensures that early childhood programs provide high-quality care and education. It shows that a program meets rigorous standards in areas like curriculum, teaching, health, safety, and family engagement. The Accreditation Process Self-Study: Programs start by evaluating their own practices against NAEYC standards. Application: They submit an application to NAEYC, showing their commitment to meeting these standards. Site Visit: NAEYC sends trained assessors to visit the program, observe classrooms, and review documentation. Decision: Based on the visit and the program’s documentation, NAEYC decides whether to grant accreditation. Benefits of Accreditation Quality Assurance: Accreditation confirms that the program provides a safe, nurturing, and effective learning environment. Continuous Improvement: Accredited programs commit to ongoing improvement and professional development. Trust and Recognition: Families can trust that accredited programs meet high standards, and programs gain recognition for their quality. Early Learning Program Accreditation | NAEYC As you can see, NAEYC accreditation is a way for early childhood programs to demonstrate their dedication to providing excellent care and education for young children. In addition to NAEYC, several other organizations offer accreditation to ensure high-quality standards in early childhood education. These accrediting bodies assess programs based on research-based best practices, emphasizing child development, curriculum, teacher qualifications, and family engagement. National Association for Family Childcare (NAFCC) Accreditation The National Association for Family Child Care (NAFCC) provides accreditation for home-based childcare providers. It ensures that family childcare homes meet high standards of care, learning, and professionalism. The Accreditation Process Self-Study & Application: Providers assess their program and submit an application. Observation Visit: A trained observer evaluates interactions, learning materials, and the home environment. Accreditation Decision: Providers meeting NAFCC’s high-quality standards receive accreditation. Benefits of NAFCC Accreditation Validates the quality of family childcare programs. Enhances professional credibility and career growth. Provides families with assurance of a nurturing and educational home-based setting. Accreditation from organizations like NAEYC, NAFCC, and others ensures that early childhood education programs maintain high-quality standards that promote child development, safety, and learning. These accreditations give families confidence in the care their children receive while encouraging programs to engage in continuous improvement and professional excellence. Additional Resources View on video on NAEYC accreditation: NAEYC Accreditation. A: NAEYC. (2019, October 15). NAEYC accreditation [Video]. YouTube. All rights reserved. https://www.youtube.com/watch?v=zjMumYJl4Og Reflect Why do you think some early childhood programs choose to pursue accreditation while others do not? How might accreditation impact a family’s decision when choosing a care or education program? 5.4 YoungStar YoungStar is Wisconsin’s childcare quality rating and improvement system. It is designed to help providers improve the quality of their business and program practices. It evaluates and rates childcare programs to help parents choose the best options for their children. YoungStar – Wisconsin’s Child Care Quality Rating and Improvement System YoungStar has a website where parents can search for childcare called Child Care Finder. The goal of the website is for parents to have access to high-quality childcare, so parents can make informed childcare decisions and identify quality standards that meet the unique needs of their children and families. Youngstar also helps to support Wisconsin’s early educators by offering a variety of low-cost or free training programs covering key topics in early childhood education. The goal with this and technical assistance is to improve the quality of childcare in Wisconsin. How Does It Work? YoungStar is a Quality Rating System: Childcare programs are rated on a scale from 1 to 5 stars, with 5 stars indicating the highest quality. These ratings are based on several factors, including the learning environment, staff qualifications, and business practices. Parents can see at a glance how a particular program is meeting the quality standards. Assessment: Programs undergo a comprehensive assessment to determine their rating. This includes observations and reviews of their practices and policies. Each provider is rated around four important areas of care: The childcare staff’s education and training The learning environment and curriculum The program’s business and professional practices The child’s health and well-being Improvement Support: YoungStar provides resources, training, and technical assistance to help childcare providers improve their quality. This support helps programs move up the rating scale. YoungStar For Providers – Rating Criteria and Tips for Achieving Highest Possible Rating Why Does It Matter? High-quality childcare positively impacts children’s development, including their cognitive, social, and emotional well-being. See the benefits for both parents and providers in Table 5a below. Table 5b: YoungStar Benefits Benefits for Parents and Providers For Parents YoungStar ratings make it easier for parents to find high-quality childcare that fits their needs. The ratings provide a clear, objective measure of a program’s quality. For Providers Childcare providers receive guidance and support to enhance their services. This can lead to better outcomes for children and increased trust from families. In Wisconsin, YoungStar is a valuable tool for both parents and childcare providers, promoting high standards and continuous improvement in early childhood education. Additional Resources YoungStar101 PP Find Your Local YoungStar Office 5.5 Environmental Rating Scales Environmental rating scales (ERS) are standardized tools designed to evaluate various aspects of early childhood settings, such as classrooms and child care centers. They help ensure that these environments are conducive to children’s learning and development. What Are the Types ERS? Infant/Toddler Environment Rating Scale (ITERS): Used for settings with children from birth to 2.5 years old. Early Childhood Environment Rating Scale (ECERS): Used for preschool and kindergarten settings, typically for children aged 2.5 to 5 years. School-Aged Care Environment Rating Scale (SACERS): Used for programs serving school-aged children1. Remove this. It is covered by reference below. Family Child Care Environment Rating Scale (FCCERS): Used for home-based childcare settings. What Do They Measure? Early Childhood Environment Rating Scale®, Third Edition | Environment Rating Scales® ERS tools assess various components of the learning environment, including the following: Space and Furnishings: The physical setup and materials available such as indoor space; furnishings for care, play, and learning; room arrangements for play and learning; space for privacy, child-related display; space for gross motor play; and gross motor equipment Personal Care Routines: Meals/snacks, toileting/diapering, health practices, and safety practices Language and Literacy: Opportunities for language development and literacy activities such as helping children expand vocabulary, encouraging children to use language, staff using books with children, encouraging children’s use of books, and becoming familiar with print Learning Activities: Variety and appropriateness of activities offered such as fine motor, art, music and movement, blocks, dramatic play, nature/science, math materials and activities, math in daily events, understanding written numbers, promoting acceptance of diversity, and appropriate use of technology. Interactions: Quality of interactions between children and teachers such as supervision of gross motor, individualized teaching and learning, staff-child interaction, peer interaction, and discipline. Program Structure: Daily schedule and organization such as transitions and waiting times, free play, whole-group activities for play and learning, daily schedule, and balance of activities. Why Are They Important? Quality Assurance: ERSs provide a reliable way to measure the quality of early childhood environments, ensuring they meet high standards. Guidance for Improvement: The results from ERS assessments help educators identify strengths and areas for improvement, guiding them to enhance their programs. Support for Development: High-quality environments, as measured by ERS, support children’s overall development, including their cognitive, social, emotional, and physical growth. As you can see, environmental rating scales are valuable tools that help ensure early childhood education environments are high-quality and supportive of children’s development. Additional Resources Environmental Rating Scales ECERS – Third Edition ITERS-3 SACERS-U FCCERS-3 Relationship between ECERS and Child Outcomes 5.6 Conclusion In conclusion, this chapter has provided a comprehensive overview of the essential quality indicators in early childhood education programs. By understanding and implementing developmentally appropriate practices (DAP), recognizing the importance of accreditation, utilizing the YoungStar criteria, and applying environmental rating scales (ERS), educators can significantly enhance the quality of early childhood education environments. These practices and standards ensure that programs are not only safe and nurturing but also developmentally appropriate, fostering the holistic development and well-being of young children. As you move forward, applying these principles will help create enriching and supportive learning experiences that lay a strong foundation for children’s future success. Learning Activities 5.7 References National Association for the Education of Young Children. (n.d.). Developmentally appropriate practice (DAP) position statement. NAEYC. https://www.naeyc.org/resources/position-statements/dap/contents National Association for the Education of Young Children. (n.d.). Early learning program quality assessment & accreditation. NAEYC. https://www.naeyc.org/accreditation/quality-assessment-and-accreditation National Association for Family Child Care. (2024). About us. https://nafcc.org/about-us/ UNC-Chapel Hill. (n.d.). Early Childhood Environment Rating Scale®, Third Edition. Frank Porter Graham Child Development Institute: Environment Rating Scales. https://ers.fpg.unc.edu/scales-early-childhood-environment-rating-scale-third-edition.html Wisconsin Department of Children and Families. (n.d.). YoungStar. https://dcf.wisconsin.gov/youngstar Wisconsin Department of Children and Families. (n.d.). YoungStar for providers. dcf.wisconsin.gov. https://dcf.wisconsin.gov/youngstar/providers Images: “untitled” by Mary Beth Boettcher is used with permission. Previous/next navigation Previous: Chapter 4: Exploring Regulatory Requirements: Early Childhood Education Programs in Wisconsin Next: Chapter 6: Summarizing the Responsibilities: Early Childhood Education Pr

      Well laid out/easy to follow.

    1. Synthèse et Analyse Approfondie des Cancers Professionnels et de leur Invisibilité en France

      Ce document de synthèse explore les multiples facettes de l'invisibilité des cancers professionnels en France, s'appuyant sur les travaux du Giscope (Groupe d'Intérêt Scientifique de recherche sur les cancers professionnels) en Seine-Saint-Denis, notamment les recherches d'Anne Marchand, sociologue et historienne, et les commentaires de Nathalie Bajos.

      Il met en lumière les mécanismes institutionnels, scientifiques, sociaux et culturels qui contribuent à cette invisibilité, malgré une prévalence significative et des conséquences humaines et sociales dramatiques.

      1. Le Cloisonnement Historique et Institutionnel entre Santé au Travail et Santé Publique

      • Un thème central est le cloisonnement historique et persistant entre l'espace du travail et l'espace de vie en matière de santé. Ce cloisonnement, analysé par l'historien Thomas Lerou, a conduit à "l'effacement progressif du corps ouvrier dans les préoccupations sanitaires et politiques" dès les 18e et 19e siècles. Il a créé une séparation artificielle entre l'hygiène industrielle et l'hygiène publique, cette dernière devenant "l'hygiène d'une partie seulement du public ignorant ce qui se déroule dans l'espace de travail".

      Cette dichotomie a des conséquences majeures :

      • Approche fragmentée de la santé : Elle empêche de "penser la santé des individus et des populations dans leur globalité" et "laisse dans l'ombre de nombreux facteur d'inégalité sociale".
      • Campagnes de prévention inadaptées : Les campagnes de prévention contre le cancer sont "exclusivement centrées (...) sur la modification des comportements dits individuels", ignorant le rôle des conditions de travail et la responsabilité de l'État et des employeurs. Cela conduit à une approche qui "pointe la responsabilité des seuls individus" tout en laissant dans l'ombre les "cancérogènes présents dans le monde du travail".
      • Angle mort de la recherche en santé publique : Le travail est souvent "un angle mort des approches en santé", comme si les lieux de travail n'étaient pas aussi des lieux de vie où l'on passe une grande partie de son temps.

      • L'Épidémie Cachée : La Sous-Estimation et la Sous-Déclaration des Cancers Professionnels

      • Les sources révèlent une sous-estimation et une sous-déclaration massives des cancers d'origine professionnelle, contrastant avec l'augmentation constante de l'incidence du cancer en France (doublée depuis les années 1990).

      • Disparité Chiffrée : En 2023, seules 1452 reconnaissances de cancers professionnels ont été enregistrées, majoritairement liées à l'amiante. Or, les estimations épidémiologiques consensuelles indiquent que "4 à 8 % des nouveaux cas de cancer seraient d'origine professionnelle", soit "jusqu'à 34 644 cas par an". Cette énorme divergence crée un "phénomène un peu circulaire : moins il y a de cancer professionnel reconnus moins les personnes atteintes de cancer seront en mesure de penser le lien entre leur travail et leur maladie moins elles le déclareront en maladie professionnelle".

      • Exposition Généralisée : L'étude Sumi révèle que "11 % des salariés en moyenne des secteurs publics et privés (...) sont exposés à au moins un cancérogène dans leur activité habituelle de travail". Ces expositions sont fortement inégalitaires, touchant particulièrement les ouvriers qualifiés de l'industrie automobile (90% exposés), les intérimaires, et les jeunes de moins de 25 ans.
      • Polyexposition : La "poliexposition", c'est-à-dire l'exposition simultanée ou successive à différents cancérogènes, "démultiplie le risque de contracter un cancer". Un exemple frappant est celui d'un homme exposé à 17 cancérogènes identifiés au cours de son parcours professionnel.
      • Longue Latence : Le caractère différé des effets des cancérogènes (20 à 50 ans après l'exposition) rend le lien causal difficile à établir pour les victimes et le corps médical. De plus, il est "impossible scientifiquement et médicalement de distinguer un facteur sur l'autre dans sa survenue" (ex: amiante vs tabac pour le cancer du poumon).

      • Les Mécanismes d'Invisibilisation des Cancers Professionnels

      • Plusieurs facteurs, imbriqués et complexes, contribuent à cette invisibilité :

      3.1. Les Données Officielles et la Prévalence de l'Amiante

      • Loupe déformante : Les chiffres de reconnaissance de l'Assurance Maladie sont le "premier facteur de cette invisibilité sociale", donnant l'impression que les cancers professionnels sont rares et majoritairement liés à l'amiante. L'amiante est "l'arbre qui cache la forêt des autres cancérogènes".
      • Maladies "signatures" et droits spécifiques : L'existence de maladies "signature" (mésothéliome) et de droits spécifiques (retraite anticipée, FIVA) pour les victimes de l'amiante a paradoxalement renforcé cette perception limitée des cancers professionnels.

      3.2. Le Cadre Juridique et Administratif : Les Tableaux de Maladies Professionnelles

      • Objet de négociation et de rapport de force : Les tableaux de maladies professionnelles, créés par le Code de la Sécurité Sociale, sont le "résultat de négociation entre représentant de syndicat de salariés et représentant de syndicat d'employeur". Chaque terme choisi est le fruit de "rapports de force", ouvrant ou fermant les conditions de reconnaissance.
      • Restrictions et obsolescence : Ces tableaux sont des "objets mouvants du droit" mais leur contenu est souvent "très en deçà des connaissances scientifiques". L'exemple du cancer de la vessie lié aux amines aromatiques, dont le "titre" nécessite "un bac + 12 en chimie pour arriver à relier son travail à ce cancer", illustre la complexité et l'inadéquation.
      • Cancer du sein : un exemple d'invisibilité levée : L'absence de tableau pour le cancer du sein a longtemps masqué son origine professionnelle, le cantonnant à une "certaine fatalité". Les efforts de syndicats et de recherches ont permis de "rendre visible le facteur professionnel dans cette épidémie", montrant l'impact potentiel de l'inscription dans un tableau.
      • La "maladie négociée" : La maladie professionnelle n'est pas une catégorie médicale mais "une catégorie juridico-politique", une "maladie négociée", ce qui la rend distincte de la causalité médicale.

      3.3. L'Ignorance des Expositions et le Sentiment de Protection des Salariés

      • Manque d'information : La plupart des personnes touchées "ignoraient avoir été exposées à des substances cancérogènes". Cette ignorance peut venir de la méconnaissance des dangers de substances (comme l'amiante dans les années 80) ou de leur présence insidieuse et imperceptible (rayonnements ionisants, produits chimiques sans odeur ni effet immédiat).
      • Fausse impression de sécurité : Les salariés ont le "sentiment d'avoir été protégés" car ils imaginent que "sauf situation accidentelle tout est maîtrisé dans l'entreprise" ou que les substances dangereuses seraient interdites.
      • Dispositifs trompeurs :Valeurs Limites d'Exposition Professionnelle (VLEP) : Les VLEP sont le "fruit de compromis sociaux" et ne signifient pas l'absence de risque, car "la plupart des cancérogènes sont sans effet de seuil".
      • Surveillance Médicale Renforcée (SMR) : La SMR, bien que réservée aux salariés exposés, "ne protège en rien" mais peut créer l'illusion de protection ("Il pensait qu'on le protégeait en fait on l'endormait").
      • Équipements de Protection Individuelle (EPI) : Les EPI sont souvent inefficaces ou utilisés pour d'autres raisons (protection du produit), brouillant la perception du risque (ex: gants en salle blanche).

      3.4. Le Manque d'Intérêt pour la Déclaration et l'Indemnisation Insuffisante

      • L'horizon indemnitaire : Le "montant proposé au mieux (...) ne peut dépasser le montant mensuel des derniers salaires", ce qui est souvent "pas assez pour devenir moteur d'engagement". L'indemnisation est "forfaitaire" et très éloignée de ce qu'une victime obtiendrait devant un tribunal.
      • Dispositifs concurrents : Le dispositif d'invalidité est perçu comme "plus facile et plus rémunérateur", orientant les victimes loin de la reconnaissance en maladie professionnelle. Cette stratégie "contribue largement à rendre invisible les effets du travail sur la santé et donc les cancers professionnels" et "socialise le coût de ces maladies à l'ensemble de la collectivité" au lieu qu'il soit financé par les employeurs.
      • Signification de l'argent : L'argent de l'indemnisation revêt différentes significations culturelles. L'ignorance du principe "pollueur-payeur" fait que certains ne veulent pas "coûter davantage à la Sécu", ou ressentent de la "honte" à "assimiler cette démarche à une demande d'aide sociale". Pour les veuves, l'argent peut "brûler les doigts", générant une stigmatisation sociale.

      3.5. Le Rôle Déterminant et les Lacunes du Corps Médical

      • Formation insuffisante : Les médecins sont "très peu formés sur ce volet très spécifique du droit de la sécurité sociale" (environ "une dizaine d'heures sur leurs dizaines années d'études").
      • Difficulté à établir le lien : Formés à la causalité médicale, ils "appréhendent avec beaucoup de circonspection cette catégorie médico-administrative" et sont nombreux à refuser de rédiger un certificat médical pour des patients fumeurs, ignorant ou refusant d'admettre la présomption d'origine professionnelle.
      • Crainte du conflit : Le certificat médical initial (CMI) est un "espace de conflit" et peut entraîner des convocations devant le Conseil de l'Ordre à la demande d'employeurs. La tâche de "certifier" une origine professionnelle les éloigne de leur cœur de métier, le soin.
      • Manque d'interrogatoire : Dans l'ensemble, les médecins "interrogent très peu les activités exercées et encore moins les conditions de travail" de leurs patients.

      3.6. Les Inégalités d'Accès à la Reconnaissance et les Transformations du Travail

      • Charge de la preuve : La présomption d'origine professionnelle des tableaux est limitée, et le salarié doit souvent "apporter des preuves de la maladie", "des preuves de l'emploi" (certificats de travail, fiches de paye) et surtout "des preuves de l'activité habituelle de travail de l'activité exposante jusqu'à 40 ans en amont de la survenue de la maladie".
      • Fragilité des parcours : Cette capacité à prouver les activités exposantes est "très inégalement distribuée". Elle est plus facile pour les salariés avec une "stabilité professionnelle" ou qui peuvent compter sur un "réseau syndical ou de retraités dynamiques" (mineurs, dockers).
      • Travail morcelé et sous-traitance : La situation est "bien plus dur pour des salariés isolés", ceux "qui ont connu des parcours très morcelés" (jusqu'à 35-40 employeurs), et surtout pour les "salariés des entreprises sous-traitantes", qui sont à la fois "parmi les plus exposés et les moins reconnus". La sous-traitance, légalisée dans les années 70, est devenue un moyen de "contourner leurs obligations" et d'"externaliser des activités qui étaient les plus pénibles et les plus exposantes", renforçant l'invisibilité.
      • Intérimaires et travailleurs migrants : Les intérimaires, dont les documents ne disent "absolument rien du site sur lequel ils ont travaillé", et les "migrants travailleurs agricoles saisonniers", souvent "affectés au traitement chimique là où les risques toxiques sont les plus importants mais dont la maladie si elle survient ne sera pas visible en France ni reliée au travail", sont particulièrement vulnérables.

      3.7. Le Manque de Traçabilité Institutionnelle

      • Volatilité réglementaire : La "valse des réglementations" empêche la mise en place d'un dispositif stable garantissant une "traçabilité rigoureuse dans le temps des expositions cancérogènes" sur de longues périodes (20, 30, 40 ans).

      • Le Caractère Structurel de l'Invisibilité et l'Enjeu de Justice Sociale

      • L'analyse de la genèse de la catégorie "cancer professionnel" révèle une "certaine récurrence dans les obstacles à la construction de la connaissance". Dès le début du 20e siècle, malgré une identification précoce des cancers liés à des industries spécifiques (houille, colorants, rayons X), les mêmes constats d'échec de déclaration et de reconnaissance se répètent. Les affiches de 1938 exhortant les médecins à déclarer les maladies professionnelles témoignent de cette problématique ancienne.

      • Absence de données fiables : Les données sur le cancer sont "incomplètes", avec des registres qui ne couvrent "moins d'un quart de la population en France", et qui présentent des biais (population plus rurale, plus âgée, plus favorisée, moins de personnes d'origine étrangère). Les zones les plus polluées (sites Seveso) sont souvent non couvertes. La proposition de loi pour créer un registre national des cancers est une étape "indispensable".

      • Fabrication de "non-problèmes" : L'invisibilité des cancers professionnels s'inscrit dans une dynamique de "fabrique des non-problèmes ou comment éviter que la politique s'emmêle".
      • Question de justice sociale : En définitive, cette invisibilité pose la "question de la valeur différentielle des vies" et constitue une "question de justice sociale", comme le souligne Nathalie Bajos.

      En conclusion, la lutte contre les cancers professionnels exige bien plus que des campagnes de prévention individuelles.

      Elle nécessite une réforme profonde des mécanismes de reconnaissance, une formation accrue du corps médical, une meilleure traçabilité des expositions, une indemnisation plus juste, et surtout, un changement de paradigme qui intègre pleinement la santé au travail dans la santé publique, reconnaissant le lieu de travail comme un lieu de vie essentiel.

    1. Note de synthèse : La sous-reconnaissance des maladies professionnelles en France : un problème de santé publique et de justice sociale

      Ce briefing documente l'ampleur et les causes de la sous-déclaration et de la sous-reconnaissance des maladies professionnelles en France. Il s'appuie sur une analyse processuelle et met en lumière les multiples obstacles rencontrés par les victimes, ainsi que les lacunes du système juridique et médical actuel.

      1. Ampleur et enjeu de la sous-reconnaissance

      Les maladies professionnelles (MP) représentent un problème de santé publique majeur et invisible en France, exacerbant les inégalités sociales de santé.

      • Chiffres alarmants : En 2022, on estime à plusieurs centaines de milliers le nombre de maladies professionnelles non déclarées. Concernant spécifiquement les cancers professionnels, la fourchette est estimée entre 67 000 et 99 000 cas, dont seulement 4 000 sont déclarés.
      • Coût financier et social : La sous-déclaration transfère le coût de ces maladies de la branche « Accidents du Travail et Maladies Professionnelles » (AT/MP), financée par les cotisations patronales, vers la branche « Maladie » du régime général, désavantageant financièrement les victimes qui ne bénéficient pas des indemnisations plus favorables (prise en charge des frais de santé, indemnités journalières, rentes viagères). Au-delà de l'enjeu financier, il existe un enjeu symbolique fort pour les victimes.
      • Inégalités sociales : L'exposition aux risques professionnels est fortement inégalitaire. Les ouvriers sont nettement plus exposés aux contraintes physiques intenses et aux cancérogènes que les cadres ou les professions intermédiaires, soulignant un lien direct entre position sociale et risques pour la santé au travail.

      2. Cadre juridique et ses limites

      • Le droit à la santé et à la sécurité au travail repose sur deux principes : la responsabilité de l'employeur et la réparation des atteintes à la santé. La loi de 1898 (étendue en 1919 aux MP) a instauré un système d'assurance forfaitaire, supprimant la nécessité de prouver la faute de l'employeur, mais en contrepartie, le droit à poursuivre pénalement l'employeur a été perdu.

      • Les tableaux de maladies professionnelles : Créés pour identifier les pathologies éligibles à la reconnaissance et à l'indemnisation, ils sont aujourd'hui considérés comme obsolètes et incomplets. Leur création est le fruit de négociations entre l'État, les syndicats de salariés et d'employeurs, où les considérations économiques et les arguments patronaux ont historiquement pesé lourd.

      • Critiques de l'ANSES (2024) : Les tableaux sont jugés "incomplets", "loins" de la réalité des expositions et "hétérogènes". Les diagnostics d'exclusion méconnaissent le principe de présomption d'origine.
      • Ralentissement de l'actualisation : Seulement 2 créations et 5 révisions de tableaux sont intervenues au régime général entre 2010 et 2018. Ce ralentissement est dû à la divergence des intérêts patronaux (financeurs uniques de la branche AT/MP), l'absence de consensus sur la présomption d'imputabilité, et le caractère plurifactoriel des pathologies.

      3. Le processus de reconnaissance : une "course d'obstacles"

      • La reconnaissance d'une maladie professionnelle est un processus complexe, jalonné d'obstacles à chaque étape :
      • Exposition au risque : Les contraintes et expositions physiques varient considérablement selon le sexe et la position sociale. Par exemple, les ouvriers sont majoritairement plus exposés aux risques cancérogènes. Le cas de l'amiante est emblématique : classé cancérogène en 1977, son usage n'a été interdit qu'en 1997, et il reste présent dans de nombreux matériaux, exposant encore des travailleurs.
      • Reconnaissance par le salarié de l'origine professionnelle :
      • Méconnaissance des maladies : De nombreuses MP restent mal connues, notamment les troubles psychiques qui représentent un "angle mort très important".
      • Difficulté à établir le lien travail-maladie : Il est souvent "pas évident pour un individu de faire le lien entre sa maladie et son travail, de considérer que le travail puisse être pathogène". Cette démarche est source de "tension normative".
      • Déni du danger : Dans certains métiers, des salariés développent une "attitude de déni du danger pour tenter d'y faire face", comme le montre le travail de Christophe Dejours sur les ouvriers du bâtiment ou l'exemple des coiffeuses.
      • Méconnaissance des droits : Même en ayant conscience du lien travail-maladie, de nombreux salariés ignorent les droits qui leur sont ouverts.
      • Absence de perception d'intérêt : Certains ne perçoivent pas d'intérêt matériel, financier, ni même symbolique à la déclaration, surtout en cas de traitements lourds où "les démarches de réparation sont vues comme secondaires par rapport aux enjeux de soins, voire inutiles ou même néfastes".
      • Peur des représailles : La crainte de perdre son emploi ou de subir des représailles de l'employeur ou des collègues est un frein majeur.
      • Déclaration de la maladie professionnelle :
      • Responsabilité de la victime : Contrairement aux accidents du travail, c'est la victime elle-même (ou ses ayants droit) qui doit effectuer la demande, nécessitant un certificat médical initial.
      • Complexité administrative et juridique : La procédure est "compliquée" et "complexe", décourageant de nombreux potentiels bénéficiaires.
      • Manque d'information et de soutien des médecins : La formation des professionnels de santé sur les MP est insuffisante (environ 10h en 2e cycle des études médicales, contre une moyenne européenne de 25h). Certains médecins du travail sont réticents à accompagner les démarches, parfois par méconnaissance des avantages financiers pour le salarié ou par crainte de l'impact négatif sur l'emploi du patient.
      • Obstruction des employeurs : Les employeurs n'ont "évidemment pas d'intérêt financier à ce qu'il y ait des maladies professionnelles déclarées". Ils peuvent exercer des pressions, proposer des ruptures conventionnelles en échange de la renonciation, ou contester le lien avec l'accident/la maladie.
      • Reconnaissance administrative et médico-légale :
      • Obstruction des caisses primaires d'assurance maladie (CPAM) : Des "obstructions importantes" sont documentées, se manifestant par une "très forte hétérogénéité entre les caisses dans les délais de traitement des dossiers".
      • Caractère différé des maladies : Le "temps de latence" entre l'exposition et l'apparition des symptômes (plusieurs années, voire décennies pour certains cancers) rend difficile la traçabilité des expositions passées.
      • Ressources inégales face à la contestation : Les "grandes entreprises qui ont les moyens de recourir à des cabinets d'avocats spécialisés" peuvent manipuler les données et "mettre en scène l'ignorance pour contester la parole des travailleurs et limiter le coût de la reconnaissance". La stratégie de certains avocats est de "repérer un bon cas" pour créer une jurisprudence favorable.

      4. Perspectives et recommandations

      • La situation est marquée par une "stabilité" voire une "inertie" des logiques sociales et institutionnelles qui construisent la non-reconnaissance. Des "petites mesures" ne suffiront pas ; une "modification de la loi" est nécessaire.
      • Manque de connaissance et biais dans la recherche :
      • Analyses genrées : Il y a un "manque de connaissance" et une "absence particulière" des analyses genrées en santé publique sur les MP, malgré leur pertinence. Les études épidémiologiques sur les cancers professionnels ont historiquement porté majoritairement sur les hommes, sous-estimant les expositions et les cancers chez les femmes (ex: agentes de nettoyage).
      • Populations vulnérables : Les travailleurs étrangers ou d'origine étrangère, et les personnes en situation de précarité, sont confrontés à des obstacles particuliers et sont "pas du tout assez étudiées". Une approche intersectionnelle est nécessaire pour articuler les rapports sociaux de domination (classe, genre, race).
      • Facteurs de risque et multiexpositions : La recherche doit continuer à identifier les facteurs de risque, notamment pour les maladies plurifactorielles (expositions professionnelles et environnementales simultanées). L'idée qu'on puisse isoler une cause unique est une "illusion épidémiologique". La question est de savoir si une exposition professionnelle favorise ou aggrave la maladie, indépendamment d'autres causes (ex: tabac, environnement).
      • Nécessité de modifier la loi et le système de reconnaissance :
      • Formation des professionnels de santé : Renforcer la formation des médecins sur les MP, même si cela ne suffit pas sans mesures structurelles.
      • Traçabilité et information : Améliorer la traçabilité des expositions et l'information des salariés sur leurs droits.
      • Contrôle et sanctions : Renforcer l'arsenal de contrôle et de sanction des entreprises qui procèdent à des déclarations incomplètes.
      • Actualisation et refonte des tableaux : Actualiser les tableaux de maladies professionnelles, voire en modifier l'objectivation des pathologies en se basant sur les examens recommandés par les sociétés savantes ou la Haute Autorité de Santé.
      • Refonte globale du système : La loi elle-même est interrogée pour sa capacité à produire la non-déclaration. Une refonte du système de reconnaissance est indispensable pour tenir compte :
      • De l'évolution des modes de management.
      • De la plus grande discontinuité des carrières professionnelles.
      • De l'augmentation des produits dangereux et de la reconnaissance de leur dangerosité.
      • Des multiexpositions.
      • De la "question fondamentale de la reconnaissance des troubles psychiques qui ne font toujours pas l'objet d'un tableau de maladie professionnelle".
      • De l'exclusion de certains travailleurs.
      • En conclusion, la reconnaissance des maladies professionnelles est un "enjeu majeur de santé publique" qui contribue aux inégalités de santé. C'est un enjeu "politique", "scientifique" et "éthique" qui nécessite des changements profonds pour sortir de l'inertie actuelle. Les expériences de terrain, comme celle du GISCOPE, peuvent dessiner des pistes concrètes pour une transformation fondamentale.
    1. Brefing détaillé : L'Enseignement Mutuel et les Transformations de l'Éducation Ce briefing analyse les thèmes principaux et les faits marquants des extraits de l'émission "À la découverte de l'enseignement mutuel" de France Culture, en se concentrant sur l'histoire, les principes, les défis et les perspectives de l'enseignement mutuel, ainsi que sur les questions plus larges de l'éducation contemporaine en France et ailleurs.

      I. L'Enseignement Mutuel : Histoire, Principes et Marginalisation L'émission s'ouvre sur une exploration de l'enseignement mutuel, une approche pédagogique qui a connu son apogée au début du XIXe siècle en France, avant d'être largement marginalisée.

      A. Définition et Origines :

      L'enseignement mutuel, ou "classe mutuelle", est une pédagogie où "les élèves apprennent les uns aux autres", le rôle du maître étant "beaucoup moins présent que dans le mode pédagogique dominant l'enseignement simultané". Importée d'Angleterre au début de la Restauration, elle est issue des travaux de Bell et Lancaster, d'où le nom de "méthode lancastérienne". Elle a été introduite en France par des "libéraux extrêmement soucieux de développer l'instruction populaire" suite à la fermeture des écoles et congrégations religieuses pendant la Révolution, laissant l'instruction primaire "véritablement en chantier". B. Avantages et Efficacité :

      L'enseignement mutuel était perçu comme une "véritable aubaine" car "très économique" : il permettait de "rassembler dans un très grand local plusieurs centaines d'enfants" sous l'autorité d'un seul enseignant, qui pouvait "déléguer une partie de son pouvoir d'instruction auprès de moniteurs" (des élèves plus avancés). Cette méthode permettait "d'instruire à une vitesse beaucoup plus rapide un très grand nombre d'élèves". Anne Querrien souligne que les élèves apprenaient "à lire et à écrire en trois ans" contre six ans avec la méthode simultanée des Frères des écoles chrétiennes. Sylvie Jouan souligne un avantage pédagogique majeur : "les élèves sont toujours regroupés avec des camarades qui correspondent à leur niveau" et "avancent toujours à leur rythme", évitant l'ennui ou la perte. C. La "Première Guerre Scolaire" et la Marginalisation (1833) :

      Malgré son efficacité, cette méthode a suscité de "très vives critiques". Le "tournant" décisif pour l'école française, "peut-être plus important encore que les dates très célèbres des lois Ferry", est 1833, suite à une "vive polémique" appelée "la première guerre scolaire". Cette querelle opposait les défenseurs de l'enseignement mutuel et ceux de l'enseignement simultané. Arguments contre l'enseignement mutuel :Rapidité de l'apprentissage : Le principal argument critique était précisément la rapidité, car elle "amènerait les enfants à délaisser les écoles trop tôt et du coup à errer dans les rues", présentant un "risque social". Priorité à l'éducation morale : L'instruction devait être "absolument indissociable de l'éducation", en particulier l'éducation chrétienne au début du XIXe siècle, puis l'éducation morale à la fin du siècle. L'enseignement simultané était privilégié car "assuré par des frères qui de par leur présence même étaient des garants d'une certaine religiosité". Le "contact direct et continu avec ce maître qui est la garantie de l'éducation morale" manquait dans l'enseignement mutuel. Fonctionnalité sociale de l'école : Le patronat, soucieux de la santé des enfants travaillant dans l'industrie, réclama l'interdiction du travail des enfants. L'école primaire devait donc "occuper les enfants jusqu'à l'âge de l'entrée en classe [13 ans]". Risque de "bureaucratie" et de "désoeuvrés" : Un texte cité dénonce une école qui "favorise la bureaucratie qui dévore la France et la foule dangereuse de désoeuvrés qui corrompt les mœurs" – ces jeunes instruits n'ayant pas encore l'âge de travailler. L'alliance de circonstance : Une "espèce d'alliance entre l'Église, les enseignants, le pouvoir en place" s'est formée, avec pour objectif de faire de l'école primaire "l'éducation avant l'instruction pour garantir un certain ordre social". L'héritage de Guizot : François Guizot, en 1837, crée les écoles normales d'instituteurs pour former à la méthode simultanée, pérennisant ce modèle sous le Second Empire et Jules Ferry. Le buste de la République et la photo du président dans les classes ont remplacé l'autorité divine. II. L'Héritage Historique et les Défis de l'Enseignement Contemporain L'héritage de l'enseignement simultané est encore très présent dans le système éducatif français actuel, créant des tensions avec les besoins et les philosophies pédagogiques contemporaines.

      A. La Persistance du Modèle Traditionnel :

      Vincent Faillet confirme que l'enseignement simultané est le modèle dominant et "la norme" depuis des siècles, oublié que "d'autres voies existent".

      Ce modèle se caractérise par "un certain nombre d'élèves dans une classe... des tables alignées des chaises dérangées et un immense tableau central pour que le maître puisse faire son cours".

      B. La Quête d'Alternatif et le Modèle de la Classe Homogène :

      • Sylvie Jouan s'est intéressée à l'enseignement mutuel en étudiant les classes rurales multi-âges et les "discours hostiles" qu'elles suscitent.

      Elle a mis en évidence un "modèle pédagogique plutôt implicite" : la "classe homogène", indissociable de l'enseignement simultané.

      • L'idée sous-jacente est que pour éduquer (plutôt qu'instruire), les élèves doivent être en "présence continue d'un même maître", et pour que cela fonctionne, le groupe doit être "relativement homogène".

      Cette homogénéité est une "retraite justicière pour l'enseignant" mais rend la tâche difficile face à l'hétérogénéité réelle des élèves.

      C. Le Renouveau de la Classe Mutuelle et la Pédagogie Coopérative :

      • Vincent Faillet a recréé une "classe mutuelle" dans son lycée, non par connaissance historique mais par "prise de conscience" de l'obsolescence des salles de classe de 1887.
      • Sa démarche a commencé par le "défi" lancé à ses élèves de trouver un autre système, conduisant à bouger les tables, créer des îlots, et utiliser les tableaux muraux.

      Il a redécouvert les principes du monitorat et même l'utilisation de "sonnettes et de cloches" pour gérer le mouvement et le bruit, pratiques du XIXe siècle.

      Sa classe met en œuvre des principes tels que :

      • Apprentissage par les pairs : "Si les élèves qui ont besoin de moi je vais les aider c'est le prof qui m'a la charge et donc d'arriver d'un message moteur un message aux autres équipes dépassement noël son actif". Un élève témoigne avoir "mieux compris son cours avec un camarade qu'avec son professeur".

      • Autonomie et responsabilisation : Les élèves sont encouragés à travailler en groupes, à s'aider mutuellement, à poser des questions et à utiliser des supports variés (schémas, tableaux, réseaux sociaux).

      • Flexibilité et mouvement : "On peut communiquer on pose nos questions et si on a besoin le profil vient nous voir ils nous aident et sur elle le fait d'écrire sur les tableaux va c'est plus simple... on peut bouger dans la classe agréable".

      • Prise en compte du corps : Vincent Faillet insiste sur "l'émancipation déjà physique" et la "prise en compte de quelque chose qui est totalement oubliée c'est le corps de l'élève dans la classe".

      • Sylvie Jouan précise que ces pratiques actuelles s'inspirent de l'enseignement mutuel mais aussi des "pédagogies coopératives" qui vont "bien au-delà du tutorat" et incluent l'entraide, absente de l'enseignement mutuel du XIXe siècle.

      • L'enseignement mutuel n'était pas nécessairement émancipateur au XIXe siècle ; Foucault lui-même, dans "Surveiller et Punir", le critique comme trop autoritaire, au même titre que l'enseignement simultané.

      D. L'Élève au Centre : une "Injonction Contradictoire" ?

      • Depuis 1989, un texte stipule que "l'élève est au centre du système éducatif". Sylvie Jouan qualifie cette formule d' "éminemment subversive" car elle implique que "c'est plus l'enseignant qui est au centre".

      • Cela "aurait dû induire un véritable changement de paradigme" en remettant en cause l'enseignement simultané, car "si l'élève est au centre... on ne peut plus [enseigner simultanément] puisqu'il n'y en a pas qu'un dans la classe".

      • Anne Querrien ajoute que l'école est faite de "collectifs", et non de singuliers, ce qui rend l'approche "élève au centre" complexe pour les enseignants.

      E. Obstacles et Solutions pour les Réformes Pédagogiques :

      • Les réformes récentes "ne parlent pas beaucoup de l'organisation pédagogique de la classe", se concentrant plutôt sur la réduction du nombre d'élèves ou l'interdisciplinarité.

      • Le problème des espaces : Vincent Faillet insiste sur le fait que "la pédagogie est intimement liée au lieu dans lequel vous vous trouvez". Si les salles de classe restent inchangées (avec un tableau central et des tables alignées), il est "très difficile de changer la pédagogie".

      • Le dialogue entre les acteurs : Il y a une difficulté de dialogue entre l'État (programmes), les collectivités (salles de classe) et les enseignants.

      • Le temps et la confiance : La mise en place de méthodes innovantes prend du temps et nécessite d'instituer un "rapport de confiance" avec les élèves (qui peuvent être réticents car "pétrissés par ce modèle pédagogique") et les parents.

      • La solidarité entre enseignants : Sylvie Jouan souligne l'importance d'une "réelle solidarité entre entre les enseignants" dans un même établissement, car un enseignant isolé aura plus de difficultés à mettre en place ces méthodes sur un temps limité.

      • Gérer le "bazar" et la non-participation : Vincent Faillet répond aux craintes des enseignants concernant le bruit et la dissipation en soulignant que les élèves inactifs sont plus visibles dans une classe mutuelle et peuvent être pris en charge individuellement.

      Il lui est arrivé de passer "trois quarts d'heure voire une heure de cours avec un seul élève qui n'avait rien compris pendant que les autres travaillaient", chose "totalement impensable" en enseignement simultané.

      III. La "Révolte des Premiers de la Classe" et la Revalorisation des Métiers Manuels

      La dernière partie de l'émission aborde le phénomène des "surdiplômés" qui se réorientent vers des métiers manuels, ce que Jean-Laurent Cassely appelle "la révolte des premiers de la classe".

      A. Un Phénomène Croissant :

      De plus en plus de jeunes et moins jeunes, diplômés de master ou d'écoles de commerce, après une première expérience professionnelle (ou pas), se "réorientent ou se reconvertissent" vers "des métiers manuels, les métiers d'artisanat, de petits commerces, des services de proximité".

      Ils repassent souvent un CAP, le diplôme le plus populaire pour des métiers comme la cuisine ou la pâtisserie. C'est une "surdiplomation mais à l'envers", un "déclassement" ou une "réconciliation entre les études les plus intellectuelles et les métiers manuels".

      B. Les Raisons de cette Réorientation :

      • Manque de sens et ennui : La motivation principale n'est pas le chômage, mais le fait que ces personnes "s'ennuient et ne trouvent plus aucun sens à leur quotidien de travail".

      • Critique des "bullshit jobs" : Le livre dénonce les "bullshit jobs" (traduits en français par "métiers à la con" ou "à la noix"), un concept popularisé par l'anthropologue David Graeber, qui décrit ces professions intellectuelles et cadres où l'on a le sentiment de "ne servir à rien et de ne pas savoir pourquoi [on] passe [sa] temps leur vie professionnelle derrière un ordinateur à faire du tableur du powerpoint ou des réunions".

      • Quête de concrétude et de valeur ajoutée : Comme le dit un étudiant de Sciences Po, "quand tu fais Sciences Po tu vois beaucoup de gens qui vont finir chef de projet de quelque chose dans une agence à se faire chier... on n'apporte aucune valeur à la société".

      C. Conséquences et Implications :

      • Revalorisation des filières professionnelles : Ces "bobos" ou "hipsters" parviennent à "redorer le blason de certaines filières", en particulier les métiers de bouche, de la décoration ou du bois, traditionnellement "dévalorisées" et vues comme des "voies de garage" en France.

      • Saturation de certaines filières : Des écoles de restauration ou des filières de boulangerie sont "extrêmement demandées", et certains reconvertis commencent à rencontrer des "problèmes de débouchés" pour s'implanter.

      • Reconversion dans l'enseignement : 27% des professeurs des écoles en formation viennent d'autres secteurs, motivés par la même "quête de sens".

      Le métier d'enseignant permet de se confronter au "client final", de voir les bénéfices de son travail et de réconcilier l'aspect intellectuel et "concret même corporel".

      D. Recommandation : Avoir les Deux Diplômes :

      Jean-Laurent Cassely conseille d'avoir "les deux" : un diplôme supérieur puis une formation courte et qualifiante.

      Il souligne que les diplômes supérieurs restent "importants pour trouver du travail" et que les compétences acquises (gestion de projet, stratégie, mise en scène) sont souvent valorisées dans la reconversion.

      Le "parcours idéal" serait donc "études supérieures puis formations plus courtes qualifiantes concrètes".

    1. André Zysberg qui déclare publiquement que “la BNF n’est pas un laboratoire de recherche mais une bibliothèque”

      intéressant: ces trois modèles successifs présentés ici sont donc le reflets d'un repositionnement de la bibliothèque dans l'espace intellectuel, d'une recherche d'identité en quelque sorte

    1. Note de synthèse : L'emprise sectaire - Conférence CRIAVS (Jean-Baptiste Bron)

      Cette synthèse est basée sur l'intervention de Jean-Baptiste Bron, avocat spécialisé en emprise sectaire, lors de la conférence CRIAVS.

      Son propos, bien que contraint par un temps limité, offre une analyse pertinente de la nature de l'emprise sectaire, la comparant à un État totalitaire et détaillant les mécanismes de manipulation employés.

      I. Définition et nature de l'emprise sectaire : Un État totalitaire

      Jean-Baptiste Bron introduit la notion d'emprise sectaire en la comparant directement au concept orwellien de la "redéfinition de la réalité" à l'image du célèbre "2 + 2 = 5" tiré de George Orwell.

      Pour lui, "la trahison quelque part de la réalité, la redéfinition de la réalité est l'élément le plus grave et le plus difficile pour s'en extraire que l'on impose aux adeptes de communauté sectaires."

      Il précise que l'emprise sectaire, au-delà de la "neutralisation du désir d'autrui, l'abolition de toute altérité, de toute différence, de toute singularité pour ramener l'autre à la fonction et au statut d'objet entièrement assimilable", se distingue par son exercice sur les plans social et politique.

      Chaque communauté sectaire est perçue comme un "état totalitaire" où l'emprise vise à "supprimer l'individu mais également de remplacer la société".

      Le gourou, figure centrale, incarne à lui seul les trois pouvoirs d'un État totalitaire : législatif, exécutif et judiciaire.

      A. Le pouvoir législatif du gourou

      • Création et enrichissement permanent de la doctrine/du dogme : Seul le gourou est habilité à créer les règles et prescriptions du groupe. Il est le "maître de la loi" dont la parole est incontestable.

      • Discours globalisants et mouvants : L'enseignement du gourou est souvent totalisant, redéfinissant par exemple la santé (ex: Thierry Casasnovas) ou la réalité de la maladie.

      Cette doctrine est également dynamique, s'enrichissant des désirs des adeptes pour les réimposer à toute la communauté.

      B. Le pouvoir exécutif du gourou

      • Redéfinition du réel et du langage : Le gourou modifie la signification des termes pour créer la confusion.

      Des concepts comme la maladie, l'agression sexuelle ou la relation sexuelle sont réinterprétés ("travail tantrique", "voyage cosmique", "échange d'énergie").

      • Effacement de l'identité et induction de faux souvenirs : Une nouvelle identité est imposée aux adeptes, effaçant la leur.

      Des techniques comme les faux souvenirs induits ou la redéfinition des liens de parentalité (le gourou comme père/mère de tous les enfants) sont utilisées pour déstructurer l'individu.

      C. Le pouvoir judiciaire du gourou

      • Monopole de la sanction : Le gourou détient le droit exclusif de sanctionner, même en déléguant ce pouvoir à des membres du groupe dans un but précis (ex: imposition de relations aberrantes).

      • Déstabilisation permanente et menaces immatérielles : Le gourou "souffle le chaud et le froid" sur les adeptes, les jugeant, les punissant et organisant une surveillance constante.

      Des "châtiments physiques ou immatériels" (menaces de maladie, de mort, de sanctions sur la famille) planent constamment, agissant comme "une épée de Damoclès".

      II. Le rôle du groupe sectaire

      La communauté elle-même joue un rôle crucial dans l'emprise :

      Accueil et insertion : Le groupe facilite l'intégration des nouveaux membres. Renforcement de l'autorité : Il consolide le pouvoir du gourou.

      Désubjectivisation et indistinction : Le groupe participe à la "disparition de l'individu" par l'indifférenciation et l'identification fusionnelle, conduisant à une "indistinction entre soi et l'autre".

      III. Techniques de manipulation et stratégies d'altération du jugement

      Jean-Baptiste Bron décrit une séquence récurrente de techniques utilisées pour abolir le jugement et l'individualité des adeptes :

      • Love Bombing (Bombardement d'amour) : L'objectif est d'"apater le futur adepte", de l'entourer de flatteries et de lui faire miroiter une "réalité beaucoup plus attrayante, une utopie idyllique" pour le détourner de sa réalité souffrante.

      • Isolement progressif : Sous prétexte de "purification et d'évolution spirituelle", l'adepte est coupé de son "environnement habituel (familial, social, professionnel) et avec la société", et finalement, de "sa propre moralité, ses propres convictions".

      • Affaiblissement systématique : Pour empêcher toute révolte ou rétractation, l'adepte est affaibli physiquement et mentalement, soit par insuffisance (régimes alimentaires stricts, privation de sommeil, postures prolongées), soit par excès (travail excessif, logorrhée du gourou).

      • La doctrine/L'enseignement : Le dogme du gourou devient le "ciment de l'emprise", construisant son mythe et devenant un "prête à croire ou un prête à penser".

      • Déstructuration du réel : Des outils sont utilisés pour "couper l'adepte de ses anciens repères et de ses anciennes valeurs", en imposant la "grille interprétative de lecture" du gourou et en "altérant la perception du monde de l'adepte".

      • Culpabilisation du doute : Toute remise en question de la parole du gourou est interdite et perçue comme un "signe de faiblesse", visant à "annihiler le libre arbitre de l'adepte".

      • Mise en place de rappels : Des "rituels, bilans journaliers, annonces de dangers imminents, menaces de châtiment ou de damnation" sont constamment utilisés pour maintenir l'emprise et la peur.

      • En conclusion, l'intervention de Jean-Baptiste Bron met en lumière la complexité de l'emprise sectaire, qu'il analyse comme une forme de totalitarisme miniature, où la déconstruction de la réalité individuelle et collective est la pierre angulaire du contrôle exercé par le gourou.

    1. Compte rendu détaillé : La soumission chimique – Comprendre, Identifier et Lutter

      Ce document de briefing est basé sur la conférence de Juliette Descœurs, praticien hospitalier et biologiste au laboratoire de toxicologie de la Péronie, et experte près la cour d'appel de Montpellier, axée sur le phénomène de la "soumission chimique".

      Il vise à synthétiser les concepts clés, les substances impliquées, les méthodes d'analyse et les stratégies de prévention.

      1. Définition et Distinction de la Soumission Chimique

      Juliette Descœurs débute par une définition précise de la soumission chimique : « l'administration volontaire de substances psycho-actives à l'insu de la victime ou sous la menace à des fins à la fois soit délictuelles pour des vols des signatures de documents par exemple ou à des fins criminelles pour faire des agressions sexuelles des viols de la pédophilie ou des affaires que l'on retrouve dans des maisons de retraite ou même intrafamiliales ».

      Elle établit une distinction cruciale avec la "vulnérabilité chimique". Cette dernière désigne la « consommation volontaire par une personne de substance psychoactive qui conduirait à un état de vulnérabilité », où les agressions sont majoritairement perpétrées sur des victimes ayant consommé de l'alcool et/ou du cannabis.

      • Un point important soulevé est l'utilisation des substances comme « une stratégie pour instaurer une genre d'emprise par addiction à des psychotropes provoqués et alimentés par l'exploiteur ».

      Cette emprise est renforcée par le fait que « l'obtention de ces substances est réalisée par l'exploiteur lui-même », transformant l'emprise chimique en un moyen de « contraindre des personnes en situation de vulnérabilité à commettre des délits des crimes ou même à se mettre en danger ».

      2. Le "Produit Idéal" pour la Soumission Chimique

      Pour un agresseur, le produit idéal de soumission chimique présente plusieurs caractéristiques :

      Facilité d'obtention. Goût agréable ou sans goût. Forme liquide ou soluble, facilement dissoluble dans un milieu aqueux. Invisible. Actif à faible dose et à action rapide. Deux critères principaux sont recherchés pour classer ces substances :

      Vitesse d'élimination : « rapide ».

      Mécanisme d'action : « sédation, un effet amnésiant, une stimulation sexuelle, une action myorelaxante pour pouvoir faire un peu ce qu'on veut de la victime, une diminution de ces des réactions de défense ».

      3. Substances Utilisées dans la Soumission Chimique

      Les substances sont classées en deux catégories principales :

      3.1. Substances Non Médicamenteuses :

      • GHB (Gamma-Hydroxybutyrate) : Surnommé "liquide extasie" ou "drogue du violeur".
      • Forme : Poudre blanche soluble, liquide inodore et incolore.

      • Utilisation : Principalement dans les milieux festifs à des fins illégales en raison de son « effet amnésiant et inducteur de sommeil ». Souvent consommé avec de l'alcool.

      • Effets : Forte sensation de chaleur et d'ivresse (comparable à l'alcool) à faibles doses, puis quiétude, légère euphorie, désinhibition. À fortes doses : vertiges, perte de coordination, nausées, vomissements, coma, dépression respiratoire.

      • Furtivité : Qualifié de "furtif" car il disparaît rapidement du sang (jusqu'à 5-6h) et des urines (jusqu'à 10-12h). Sa particularité est sa double production : physiologique (taux basal de 2 à 3 mg/L) et in vitro (formation dans les échantillons mal conservés), rendant l'analyse complexe et nécessitant de prendre en compte la conservation, le seuil physiologique et les délais de prélèvement.

      • Alcool : Souvent le "numéro 1" des substances retrouvées, agissant comme un "alter ego du GHB" avec des effets euphorisants, désinhibants, stimulants et amnésiques. Les cas suspects de GHB se révèlent souvent être des intoxications alcooliques sévères (3 à 4 g/L).

      • Extasie (MDMA) : Mentionnée en lien avec l'affaire du sénateur Joël Guerriot. Présente une forte prévalence dans ce type de situations.

      • Effet : Antactogène, c'est-à-dire qu'il « altère le consentement de la victime » et provoque une « amnésie antérograde ». Bien que stimulant, il est un bon candidat pour la soumission chimique car il agit comme « un adjuvant de l'humeur par effet euphorisant et en abolissant la méfiance », rendant la victime « participative ».

      • Catinones de synthèse, cannabis, cocaïne.

      • Hallucinogènes :Scopolamine : Action sédative, provoque hallucinations, amnésie et pertes de conscience.

      • Ayahuasca (dérivé de la diméthyltriptamine) : Souvent associée aux rituels chamaniques, la littérature montre que les victimes se retrouvent souvent dans un « état second avec une impossibilité de s'opposer à des agressions sexuelles ».

      3.2. Substances Médicamenteuses :

      • Benzodiazépines et "Z-drugs" (hypnotiques apparentés) : (Bromazépam, diazépam, alprazolam, zolpidem, zopiclone). Mentionnées en écho au procès de Mazan (affaire Gisèle Pélico). Des langues bleues (additif du clonazépam) ont été observées dans des vidéos.

      • Propriétés : Anxiolytiques, anticonvulsivantes, sédatives, myorelaxantes et surtout « amnésiantes très recherchées par les agresseurs ». L'« amnésie antérograde et lacunaire » est particulièrement retrouvée avec les benzodiazépines hypnotiques sédatives à demi-vie courte, permettant aux agresseurs de faire accomplir des actes dont la victime ne gardera aucun souvenir.

      • Antihistaminiques (H1) : (Atarax, désloratadine, Aérius).

      • Effets : Sédation, somnolence, étourdissement, ralentissement des réflexes.

      • Neuroleptiques : Souvent détournés de leur usage, retrouvés dans des cas de maisons de retraite où des personnes âgées sont en état léthargique après administration à leur insu.

      4. Statistiques et Prévalence (Enquête CEIP-A 2022)

      En 2022, sur 1229 signalements suspects, 97 cas de soumission chimique ont été jugés vraisemblables. Les victimes étaient « essentiellement des femmes et dans des milieux festifs ».

      La majorité des substances impliquées étaient médicamenteuses, mais une part non négligeable de substances non médicamenteuses était également présente.

      Top 1 non médicamenteuses : MDMA (extasie), cocaïne, cannabis. Top 1 médicamenteuses : Benzodiazépines (bromazépam, zopiclone, hydroxyzine) et tramadol.

      5. Prise en Charge en Laboratoire (CHU La Péronie)

      Le laboratoire du CHU La Péronie a mis en place un protocole avec les urgences, l'Institut de Médecine Légale et la pharmacologie pour la prise en charge des cas suspects de soumission chimique.

      • Circuits de prélèvement :

      • Conservation : Demande de 4 tubes minimum (hépariné, fluoré, EDTA, urine).

      • Clinique : Demande de tubes supplémentaires si nécessaire pour des analyses complémentaires.

      • Gestion des échantillons : Détruits après 3 ans sans saisie de justice ; traités en cas de réquisition judiciaire.

      • Formulaire de réception des prélèvements : Essentiel pour compiler un maximum d'informations rapidement.

      • Informations clés : Date/heure supposée des faits, date/heure des prélèvements, prise en charge thérapeutique, traitement habituel de la victime, consommation éventuelle de stupéfiants.

      • Signes non cliniques : Agression physique (signes de violence), préjudice matériel (perte de carte bancaire, chéquier), découverte de substances sur les lieux.

      • Signes cliniques (neuropsychiques) :Durée de la phase léthargique et qualité du réveil : Différents selon les molécules (ex: GHB : sédation courte, réveil rapide et complet ; benzodiazépines : somnolence prolongée, réveils difficiles).

      • Troubles de la vigilance, propos désorganisés, troubles du comportement, hallucinations.

      • Amnésie : Classiquement « antérograde » (empêche l'enregistrement de nouveaux souvenirs) et « lacunaire » (absence de souvenir d'un moment de la vie).

      • Autres symptômes : Vomissements (GHB, absents avec antihistaminiques H1), sécheresse buccale marquée (effets anticholinergiques des antihistaminiques).

      • Types de prélèvements pour l'analyse :

      • Sang : Permet de remonter à la quantité prise, mais fenêtre de détection courte (quelques heures).

      • Urine : Fenêtre de détection plus large grâce à la présence de métabolites.

      • Cheveux : « Stabilité exceptionnelle » car matrice biologique non biodégradable.

      • Principe : 1 cm de cheveux correspond à environ un mois de condition de vie.

      • Avantages : Constitue une « sauvegarde des molécules » avec lesquelles le sujet a été en contact, documente un usage répété ou une exposition unique. Réalisé en zone de confidentialité et conservé à température ambiante.

      6. Moyens de Lutte et de Prévention

      • Mission gouvernementale sur la soumission chimique (rapport du 12 mai 2025) : Juliette Descœurs met l'accent sur la recommandation 43 : « un soutien à la recherche scientifique en galénique et en toxicologie qui permettra d'entraver la lutte contre le détournement criminel de médicaments ».

      • L'Agence du Médicament demande aux laboratoires titulaires d'une AMM de « modifier l'aspect visuel de tels médicaments en ajoutant par exemple des colorants (...) un goût, une odeur facilement identifiable et peut-être une texture aussi inhabituelle (faire des grumeaux à la surface) », pour permettre aux victimes de repérer un éventuel détournement.

      • Mouvement #metoo et visibilisation : Les agressions sexistes et sexuelles facilitées par l'absorption non consentie de substances psychoactives ont été mises en lumière dans le cadre d'événements festifs (#balancetonbar) et de la sphère privée (affaires Sandrine Josu et Gisèle Pécelico).

      • Campagne de sensibilisation (mai 2023) : Lancée par le CRAFS (Société Francophone des Sciences Pharmaceutiques Officinales), l'Ordre National des Pharmaciens, et l'association #Mandorpa, avec le soutien du Secrétaire d'État à l'égalité entre les femmes et les hommes. Le CRAFS est la « plateforme référente de santé publique qui informe sur les substances actuellement de soumission chimique ».

      • Ce briefing souligne l'importance d'une approche multidisciplinaire pour comprendre, identifier et combattre la soumission chimique, impliquant à la fois la recherche scientifique, l'adaptation des médicaments, la sensibilisation du public et une prise en charge médico-légale rigoureuse.

    1. Compte-rendu détaillé du Séminaire International sur le Travail Collaboratif à l’École

      Ce compte-rendu explore les thèmes principaux et les idées essentielles abordées lors du séminaire international sur le travail collaboratif à l’école, organisé par France Éducation Internationale (FEI).

      Il met en lumière la philosophie de la co-construction, l'importance des initiatives de terrain, les défis de la généralisation des bonnes pratiques et le rôle crucial de l'inclusion et de la diversité dans l'éducation.

      1. France Éducation Internationale : Un Opérateur de Coopération Éducative axé sur la Co-construction

      France Éducation Internationale (FEI), anciennement CIEP, se positionne comme l'opérateur clé du Ministère de l'Éducation Nationale et de la Jeunesse pour la coopération éducative mondiale.

      Sa philosophie centrale est la "co-construction", qui rejette l'exportation unilatérale du savoir-faire français au profit d'une collaboration adaptée aux contextes locaux.

      • Rôle et Mission de FEI : FEI englobe diverses activités, de l'aide au développement à la mobilité (assistants de langue), en passant par la reconnaissance des diplômes et la recherche pédagogique.
      • Approche Comparatiste : Le séminaire lui-même illustre cette approche, comme le souligne le représentant de FEI : « le séminaire d'aujourd'hui a été conçu dans cet esprit avec une approche volontairement comparatiste qui est celle de notre revue internationale d'éducation de Sèvres ». Cette méthode permet d'apprendre des expériences diversifiées, avec des études de cas en France (Creuse, Aube), en Inde, au Royaume-Uni et au Mexique.
      • Héritage et Vision : L'ambition de FEI, héritée de la vision de Gustave Monod lors de la création du Centre International d'Études Pédagogiques en 1945, reste inchangée : « établir et maintenir des liens à l'international et bénéficier de ces échanges pour alimenter les travaux de recherche en vue de méthode plus active d'enseignement ». L'idée fondatrice est que « on travaille avec les autres on aide les autres mais les autres nous instruisent ».

      2. Le Conseil National de la Refondation (CNR) – Volet Éducatif : "Notre école, faisons-la ensemble"

      Le lancement du volet éducatif du CNR, baptisé "Notre école, faisons-la ensemble", représente une approche "révolutionnaire" pour le système éducatif français, historiquement très centralisé.

      • Confiance aux Acteurs de Terrain : Plutôt que des injonctions verticales, la démarche repose sur la confiance accordée aux équipes pédagogiques locales. Le ministre souligne : « non par je ne sais quel injonction verticale venue du ministère mais par autant de dynamiques collective locale autour de l'école d'initiative et d'innovation portée par les équipes pédagogiques de confiance donnée aux acteurs de terrain ».
      • Dynamique Collective Locale : Plus de 17 000 écoles et établissements (près d'un tiers du total) se sont engagés dans des concertations locales impliquant toutes les parties prenantes (enseignants, élèves, parents, collectivités). Cela a déjà abouti au dépôt de plus de 5 500 projets pédagogiques.
      • Soutien Financier et Accompagnement : Ces projets bénéficient d'un soutien financier via le fonds d'innovation pédagogique, permettant de lever les freins liés au transport et au financement, notamment dans les zones rurales isolées. Comme l'indique l'une des présentatrices : « grâce au fond cette barrière peut être levée et là la démarche de notre école faisons là ensemble est une véritable aide à la réussite des élèves et à la lutte contre les inégalités ».

      3. Études de Cas Françaises : Illustrations du Travail Collaboratif

      Deux projets français, issus du CNR, sont présentés comme des exemples concrets de travail collaboratif :

      • Collège de Parsac (Creuse) : Améliorer la lecture et l'orthographe
      • Objectifs : Améliorer la lecture à haute voix et la fluence, ainsi que l'orthographe et l'expression écrite, de la maternelle à la troisième.
      • Démarche : Né d'un diagnostic local basé sur les résultats des tests nationaux, le projet a impliqué des concertations avec les enseignants, les élèves, les parents et les collectivités locales.
      • Actions : Incluent des ateliers d'écriture avec le groupe "Les Goguettes", la lecture d'albums par les élèves de 6ème aux maternelles ("Les Grands chez les Petits"), des nuits de la lecture, la rédaction d'un journal inter-degrés et un projet d'observation d'abeilles solitaires. L'élève Apolline témoigne : « J'aime lire des livres aux enfants de l'école ».
      • Impact : Création d'un continuum pédagogique et interdisciplinaire, renforcement des liens entre le collège et les écoles, et une dynamique de confiance accordée au terrain.
      • École Primaire de Mézières-lès-Briennes (Aube) : Parcours linguistique en allemand
      • Objectif : Mettre en place un parcours linguistique cohérent en allemand dès l'école maternelle, visant le niveau A1+ à la fin du cycle 3.
      • Contexte : Fortement motivé par le faible niveau en langues vivantes (notamment révélé par les tests Eva Langues) et un jumelage actif avec une ville allemande.
      • Acteurs Impliqués : Enseignantes aux compétences en allemand, professeur agrégé d'allemand du collège, comité de jumelage, collectivités locales, parents d'élèves.
      • Actions : Sensibilisation précoce à la diversité linguistique (dispositif Élysée), enseignement bilingue (dispositif Émile), correspondance avec une Kita allemande, mobilités d'élèves et d'enseignants, et à terme, une heure d'histoire en allemand au collège.
      • Philosophie : « une approche méthodologique innovante qui va bien au-delà de l'enseignement des langues vivantes visant la citoyenneté la curiosité des élèves l'engagement de tous partenaire et acteurs l'interculturalité et la motivation ».

      4. Perspectives Internationales sur le Travail Collaboratif

      Les études de cas du Mexique et de l'Inde soulignent la portée universelle et l'adaptabilité du travail collaboratif.

      • Mexique (Carlos Ornellas) : Le travail collaboratif est une réponse essentielle dans des contextes difficiles, marqués par la violence sociale et les inégalités. Des initiatives simples, émanant du terrain, permettent aux enfants de sortir de situations de violence et de misère. Comme le souligne M. Ornellas, cela met en évidence que « les initiatives viennent du terrain et c'est que là que c'est là que se construisent la véritable expertise ».
      • Inde (Salini Borka) : Une initiative dans un État indien, mobilisant un ensemble d'acteurs éducatifs autour d'un syndicat, a permis d'inventer de nouvelles méthodes. Cela prouve qu'« un collectif qui connaît le terrain et beaucoup plus performant que toute idée qui peuvent qui peut qui peut surnager sans avoir cette connaissance fine du terrain et des ajustements nécessaires pour pour une meilleure éducation ».

      5. Caractéristiques Clés du Travail Collaboratif et Conditions de Succès

      Plusieurs intervenants ont identifié des principes fondamentaux pour la réussite et la généralisation du travail collaboratif :

      • Intelligence Collective et Engagement : Le travail collaboratif repose sur la mobilisation de « l'intelligence collective », mutualisant les compétences des élèves, des équipes pédagogiques, et de l'environnement extérieur. Il nécessite un « engagement basé sur une motivation » (M. Ndoy).
      • Dialogue Inclusif basé sur l'Évaluation : Le dialogue doit être « inclusif » et fondé sur « l'évaluation des résultats de l'apprentissage », permettant d'identifier des problèmes concrets à résoudre.
      • Changement Culturel et Renouvellement des Pratiques : Le travail collaboratif bouleverse l'organisation pédagogique traditionnelle et conduit à un changement culturel chez les enseignants, les incitant à considérer que « tout enfant est éducable » (M. Ndoy) et à s'intéresser aux apprenants en difficulté.
      • La Question de la "Réforme" vs. "Initiative" : Le professeur Antonio Nóvoa remet en question la pertinence du terme "réforme" au profit d'"initiative", de "partage" et de "collaboration".

      Il met en garde contre les projets qui restent « une exception à la au quotidien scolaire » et ne touchent pas le « corps le centre du travail scolaire ». Il insiste sur la nécessité d'une nouvelle organisation de l'école (emploi du temps, organisation des classes, curriculums) pour que le travail soit au cœur du processus. * Optimisme et "Agir Ensemble" : La rectrice Carole Drucker Godard met en avant l'« optimisme » et l'« envie » générés par ces projets. Elle souligne que l'« agir ensemble est fédéré par des valeurs partagées » et que l'effort doit être partagé. * Les Facteurs de Réussite de la Rectrice :Communication : Essentielle pour expliquer les bienfaits des pratiques innovantes et « transmettre l'envie ». * Auto-évaluation et Rétroaction : Pour ajuster et améliorer continuellement les projets. * Formation des Enseignants : Développer la culture du travail collaboratif, notamment via des formations continues comme les "constellations". * Accompagnement des Projets : Par les chefs d'établissement et les services académiques. * Incitation à la Dynamique de Projet : Être attentif aux appels à projets pertinents. * Lien avec la Recherche : Impliquer des chercheurs pour enrichir la réflexion et l'action. * Reproductibilité vs. Reproduction (M. Ndoy) : Pour la généralisation, il ne s'agit pas de reproduire une expérience telle quelle, mais de comprendre et recréer les « facteurs qui ont conduit à la réussite » dans de nouveaux contextes. L'« analyse diagnostic » est primordiale. * Créer les Conditions de la Collaboration (M. Nóvoa) : La collaboration n'est pas automatique. Elle nécessite des « espaces ouverts », une autre « organisation des temps de l'école » et des « environnements éducatifs » qui favorisent la diversité et le travail conjoint. « Il n'y a pas d'inclusion sans diversité ». * La "Publication de l'Âme" (M. Nóvoa citant Steiner) : La communication ne se limite pas au journalisme ; il s'agit de "publier les innovations", de les partager, pour créer une "action commune".

      En conclusion, le séminaire a souligné que le travail collaboratif à l'école est bien plus qu'une simple méthode pédagogique.

      Il représente une transformation profonde des pratiques, des cultures et des organisations scolaires, enracinée dans la confiance envers les acteurs de terrain, la mutualisation des intelligences et un engagement commun pour la réussite et l'épanouissement de tous les élèves.

      Bien que des défis subsistent, notamment la systématisation des changements, l'optimisme quant à la capacité des acteurs à innover est palpable.

    1. La sanzione estingue l'obbligo della vaccinazione ma non permette comunque la frequenza all'asilo nido e alle scuole dell'infanzia a meno di adempimento delle vaccinazioni. L'esonero è previsto "ove sussista un accertato pericolo per la salute dell'individuo"

      No, la sanzione amministrativa per inadempienza non estingue l’obbligo vaccinale.

      In Italia, l’obbligo vaccinale (ad esempio per il morbillo) è normato dalla Legge 119/2017, che prevede:

      Un obbligo vaccinale per l’iscrizione a scuola (per i bambini da 0 a 16 anni).

      Una sanzione amministrativa pecuniaria per i genitori che non vaccinano i figli e non giustificano l’omissione (es. per motivi medici).

      Ma il pagamento della sanzione non equivale ad "assolvere" l’obbligo: lo Stato può continuare a sollecitare la vaccinazione.

      In sintesi:

      ✅ Paghi la sanzione → eviti il procedimento amministrativo o le multe successive? NO

      Pagare la sanzione non significa che sei in regola: l’obbligo rimane e può essere fatto valere in altre forme (es. esclusione scolastica). ** Questa impostazione è confermata da diverse sentenze (anche del TAR) e dalla prassi del Ministero della Salute.**

    2. creare uno stato immunitario

      creare uno stato immunitario rispetto a che cosa? Il termine creare presuppone che qualcosa venga generato dal nulla. Insomma, questi cazzari sembrano avere una linea di comunicazione con Dio che gli suggerirebbe di volta in volta le blasfemità da compiere...

    3. La sua efficacia è in relazione alla sua estensione nei confronti della popolazione; essa è assoluta solo nel caso in cui tutta la popolazione che si vuole proteggere sia stata vaccinata

      Affermazione arbitraria: non sostenuta da dimostrazioni scientifiche..

    1. Author response:

      Public Review

      Joint Public Review:

      This manuscript presents an algorithm for identifying network topologies that exhibit a desired qualitative behaviour, with a particular focus on oscillations. The approach is first demonstrated on 3-node networks, where results can be validated through exhaustive search, and then extended to 5-node networks, where the search space becomes intractable. Network topologies are represented as directed graphs, and their dynamical behaviour is classified using stochastic simulations based on the Gillespie algorithm. To efficiently explore the large design space, the authors employ reinforcement learning via Monte Carlo Tree Search (MCTS), framing circuit design as a sequential decision-making process.

      This work meaningfully extends the range of systems that can be explored in silico to uncover non-linear dynamics and represents a valuable methodological advance for the fields of systems and synthetic biology.

      Strengths

      The evidence presented is strong and compelling. The authors validate their results for 3-node networks through exhaustive search, and the findings for 5-node networks are consistent with previously reported motifs, lending credibility to the approach. The use of reinforcement learning to navigate the vast space of possible topologies is both original and effective, and represents a novel contribution to the field. The algorithm demonstrates convincing efficiency, and the ability to identify robust oscillatory topologies is particularly valuable. Expanding the scale of systems that can be systematically explored in silico marks a significant advance for the study of complex gene regulatory networks.

      Weaknesses

      The principal weakness of the manuscript lies in the interpretation of biological robustness. The authors identify network topologies that sustain oscillatory behaviour despite perturbations to the system or parameters. However, in many cases, this persistence is due to the presence of partially redundant oscillatory motifs within the network. While this observation is interesting and of clear value for circuit design, framing it as evidence of evolutionary robustness may be misleading. The "mutant" systems frequently exhibit altered oscillatory properties, such as changes in frequency or amplitude. From a functional cellular perspective, mere oscillation is insufficient - preservation of specific oscillation characteristics is often essential. This is particularly true in systems like circadian clocks, where misalignment with environmental cycles can have deleterious effects. Robustness, from an evolutionary standpoint, should therefore be framed as the capacity to maintain the functional phenotype, not merely the qualitative behaviour.

      A secondary limitation is that, despite the methodological advances, the scale of the systems explored remains modest. While moving from 3- to 5-node systems is non-trivial, five elements still represent a relatively small network. It is somewhat surprising that the algorithm does not scale further, particularly when considering the performance of MCTS in other domains - for instance, modern chess engines routinely explore far larger decision trees. A discussion on current performance bottlenecks and potential avenues for improving scalability would be valuable.

      Finally, it is worth noting that the emergence of oscillations in a model often depends not only on the topology but also critically on parameter choices and the nature of the nonlinearities. The use of Hill functions and high Hill coefficients is a common strategy to induce oscillatory dynamics. Thus, the reported results should be interpreted within the context of the modelling assumptions and parameter regimes employed in the simulations.

      We thank the reviewers for their careful consideration of our work and for the interesting feedback and scientific discussion. We are working on a revised text based on their recommendations, which will include some of the discussion below.

      This work meaningfully extends the range of systems that can be explored in silico to uncover non-linear dynamics and represents a valuable methodological advance for the fields of systems and synthetic biology.

      We thank the reviewers for their positive assessment of our work’s impact!

      The use of reinforcement learning to navigate the vast space of possible topologies is both original and effective, and represents a novel contribution to the field. The algorithm demonstrates convincing efficiency, and the ability to identify robust oscillatory topologies is particularly valuable. Expanding the scale of systems that can be systematically explored in silico marks a significant advance for the study of complex gene regulatory networks.

      We appreciate these kind comments about our work’s merits. We are excited to share our reinforcement learning (RL) based method with the fields of systems and synthetic biology, and we consider it a valuable tool for the systematic analysis and design of larger-scale regulatory networks!

      The principal weakness of the manuscript lies in the interpretation of biological robustness. The authors identify network topologies that sustain oscillatory behaviour despite perturbations to the system or parameters… [However, these] "mutant" systems frequently exhibit altered oscillatory properties, such as changes in frequency or amplitude. From a functional cellular perspective, mere oscillation is insufficient - preservation of specific oscillation characteristics is often essential. This is particularly true in systems like circadian clocks, where misalignment with environmental cycles can have deleterious effects. Robustness, from an evolutionary standpoint, should therefore be framed as the capacity to maintain the functional phenotype, not merely the qualitative behaviour.

      We thank the reviewers for their attention to this point. In the large-scale circuit search, summarized in Figures 4A and 4B, we ran a search for 5-component oscillators that can spontaneously oscillate even when subjected to the deletion of a random gene. Some of the best performing circuits under these conditions exhibited a design feature we call “motif multiplexing,” in which multiple smaller motifs are interleaved in a way that makes oscillation possible under many different mutational scenarios. Interestingly, despite not selecting for preservation of frequency, the 3Ai+3Rep circuit (a 5-gene circuit highlighted in Figure 5) anecdotally appears to have a natural frequency that is robust to partial gene knockdowns, although not to complete gene deletions. As shown in Figure 5C, this circuit has a natural frequency of 6 cycles/hr (with one particular parameterization), and it can sustain a knockdown of any of its 5 genes to 50% of the wild-type transcription rate without altering the natural frequency by more than 20%.

      However, we agree that there are salient differences between this training scenario and natural evolution. The revised text will clarify that these differences limit what conclusions can be drawn about biological evolution by analogy. As the reviewers point out, we use the presence of spontaneous oscillations (with or without the deletion) as a measure of fitness, regardless of frequency, so as to screen for designs with promising behavior. Also, the deletion mutations introduced during training likely represent larger perturbations to the system than a typical mutation encountered during genome replication (for example, a point mutation in a response element leading to a moderate change in binding affinity). Finally, we do not introduce any entrainment. Real circadian oscillators are aligned to a 24-hour period (“entrained”) by environmental inputs such as light and temperature. For this reason, natural circadian clocks may have natural frequencies that are slightly shorter or longer than 24 hours, although a close proximity to the 24-hour period does seem to be an important selective factor [1].

      ...despite the methodological advances, the scale of the systems explored remains modest. While moving from 3- to 5-node systems is non-trivial, five elements still represent a relatively small network. It is somewhat surprising that the algorithm does not scale further, particularly when considering the performance of MCTS in other domains - for instance, modern chess engines routinely explore far larger decision trees. A discussion on current performance bottlenecks and potential avenues for improving scalability would be valuable.

      We thank the reviewers for their attention to this point. The main limitation we encountered to exploring circuits with more than 5 nodes in this work was the poor computational scaling of the Gillespie stochastic simulation algorithm, rather than a limitation of MCTS itself. While the average runtime of a 3-node circuit simulation was roughly 7 seconds, this number increased to 18-20 seconds with 5-node circuits. For this reason, we limited the search to topologies with ≤15 interaction arrows (15 sec/simulation). In general, the simulation time was proportional to the square of the number of transcription factors (TFs). We will revise the text to include the reason for stopping at 5 nodes, which is significant for understanding CircuiTree’s scaling properties.

      With regards to scaling, an important advantage of CircuiTree is its ability to generate useful candidate designs after exploring only a portion of the search space. Like exhaustive search, given enough time, MCTS will comprehensively explore the search space and find all possible solutions. However, for large search spaces, RL-based agents are generally given a finite number of simulations (or time) to learn as much as possible.

      Across machine learning (ML) applications [2] and particularly with RL models [3], this training time tends to obey a power law with respect to the underlying complexity of the problem. Thus we can use the complexity of the 3-node and 5-node searches to infer the current scaling limits of CircuiTree. The first oscillator topology was discovered after 2,280 simulations for the 3-node search, and in the 5-node search, the first oscillator using 5 nodes appeared at ~8e5 simulations, resulting in a power law of Y ~ 84.4 X<sup>0.333</sup>. Thus, useful candidate designs may be found for 6-node and 7-node searches after 4.5e7 and 5.26e9 simulations, respectively, even though these spaces contain 1.5e17 and 2.5e23 topologies, respectively. Thus, running a 7-node search with the current implementation of CircuiTree would require resources close to the current boundaries of computation, requiring roughly 1.8 million CPU-hours, or 2 weeks on 5,000 CPUs, assuming a 1-second simulation. These points will be incorporated into both the results and discussion sections in our revised text.

      However, we are optimistic about CircuiTree’s potential to scale to much larger circuits with modifications to its algorithm. CircuiTree uses the original (so-called “vanilla”) implementation of MCTS, which has not been used in professional game-playing AIs in over a decade. Contemporary RL-based game-playing engines leverage deep neural networks to dramatically reduce the training time, using value networks to identify game-winning positions and policy networks to find game-winning moves. AlphaZero, developed by Google DeepMind to learn games by self-play and without domain knowledge, outperformed all other chess AIs after 44 million training games, much smaller than the 10^43 possible chess states [4]. Similarly, the game of go has 10<sup>170</sup> possible states, but AlphaZero outperformed other AIs after only 140 million games [4]. Large circuits live in similarly large search spaces; for example, 19-node and 20-node circuits represent spaces of 10<sup>172</sup> and 10<sup>190</sup> possible topologies. The revised text will include this discussion and identify value and policy networks, as well as more scalable simulation paradigms such as ODEs and neural ODEs, as our future directions for improving CircuiTree’s scalability.

      Finally, our revised discussion will note some important differences between game-playing and biological circuit design. Unlike deterministic games like chess, the final value of a circuit topology is determined stochastically, by running a simulation whose fitness depends on the parameter set and initial conditions. Thus, state-for-state, it is possible that training an agent for circuit design may inherently require more simulations to achieve the same level of certainty compared to classical games. Additionally, while we often possess a priori knowledge about a game such as its overall difficulty or certain known strategies, we lack this frame of reference when searching for circuit designs. Thus, it remains challenging to know if and when a large space of designs has been “satisfactorily” or “comprehensively” searched, since the answer depends on data that are unknown, namely the quantity, quality, and location of solutions residing in the search space.

      Not accounting for redundancy due to structural symmetries

      Finally, it is worth noting that the emergence of oscillations in a model often depends not only on the topology but also critically on parameter choices and the nature of the nonlinearities. The use of Hill functions and high Hill coefficients is a common strategy to induce oscillatory dynamics. Thus, the reported results should be interpreted within the context of the modelling assumptions and parameter regimes employed in the simulations.

      In our dynamical modeling of transcription factor (TF) networks, we do not rely on continuum assumptions about promoter occupancy such as Hill functions. Rather, we model each reaction - transcription, translation, TF binding/unbinding, and degradation - explicitly, and individual molecules appear and disappear via stochastic birth and death events. Many natural TFs are homodimers that bind cooperatively to regulate transcription; similarly, we assume that pairs of TFs bind more stably to their response element than individual TFs. Thus, our model has similar cooperativity to a Hill function, and it can be shown that in the continuum limit, the effective Hill coefficient is always ≤2. Our revision will clarify this aspect of the modeling and include a derivation of this property. Currently, the parameter values used in the figures are shown in Table 2. In the revised text, these will be displayed in the body of the text as well for clarity.

      Bibliography (1) Spoelstra, K., Wikelski, M., Daan, S., Loudon, A. S. I., & Hau, M. (2015). Natural selection against a circadian clock gene mutation in mice. PNAS, 113(3), 686–691. https://doi.org/https://doi.org/10.1073/pnas.1516442113<br /> (2) Neumann, O., & Gros, C. (2023). Scaling Laws for a Multi-Agent Reinforcement Learning Model. The Eleventh International Conference on Learning Representations. Retrieved from https://openreview.net/forum?id=ZrEbzL9eQ3W (3) Jones, A. L. (2021). Scaling Scaling Laws with Board Games. arXiv [Cs.LG]. Retrieved from http://arxiv.org/abs/2104.03113 (4) Silver, D., Hubert, T., Schrittwieser, J., Antonoglou, I., Lai, M., Guez, A., Lanctot, M., Sifre, L., Kumaran, D., Graepel, T., Lillicrap, T., Simonyan, K., & Hassabis, D. (2018). A general reinforcement learning algorithm that Masters Chess, Shogi, and go through self-play. Science, 362(6419), 1140–1144. https://doi.org/10.1126/science.aar6404

    1. les anciennes modélisations textuelles présentes dans les documents, ainsi que les traces de leurs actions, les transformations suppriment également les autorités faisant foi lors de la phase de production, mais aussi durant toutes les transformations intermédiaires subits par le documents jusqu’à ce qu’il soit positionné dans l’espace public, c’est-à-dire connecté à un réseau d’objets et d’informations. Dès lors, il n’y a plus réellement d’autorité de l’écriture hors de leur cadre éphémère entre chaque transformation: un écrivain, un environnement d’écriture, un logiciel de conversion, une feuille de transformations, un cms, une plateforme de diffusion. Tous ces acteurs du processus d’écriture numérique font chacun leur tour autorité sur le document tant ils en modifient le sens.

      je suis pas sûr: si j'ai par ex rajouté un mot-clé controlé avec un id grâce à l'api d'isidore sur stylo... je vais l'avoir dans l'xml lodel

    2. été initialement rédigé dans Stylo ou dans un autre environnement. Au cours du processus de transformation, on observe un écrasement du modèle textuel employé initialement par les auteurs.

      oui, mais non... les conséquences restent là - si t'as écrit en word tu as écrit différemment, par exemple t'a pas balisé des trucs. mais aussi t'as vu les choses différemment. DOnc en réalité à la fin il devrait y avoir des différences même si le frmat final est le même. Mais pour le démontreer il faudrait analyser ;)

    3. L’éditorialisation observée à travers ces quelques médiations techniques ne reflète que la partie émergée de l’iceberg, là où les traces sont visibles dans les documents. En modifiant le modèle textuel sous-jacent à l’article, ces médiations permettent de créer une structure d’objets que Lodel va pouvoir indexer. L’indicissible d

      à mon avis il faudrait une analyse de ce que devient ce texte dans l'environnement lodel: publication, forme, graphisme, mais surtout relation avec le reste de la revue, le reste d'openedition et le reste du web (indexation, moteurs de recherche, recommandation, réseaux sociaux etc)

    4. De son côté, la crcen travaille activement à la mise en place d’un changement du modèle textuel de ces outils en proposant une solution technique à cette communauté afin que les données bibliographiques restent structurées dans les documents transformés en xml tei.

      mets le en note ou coupe... pas intéressant. Plutôt: une réflexion sur la raison? Personne ne semble rien n'avoir à fouttre de la biblio. Personne n'utilise la biblio structurée... donc personne ne se donne la peine de la structurer. Et pandoc ne se donne pas la peine de garder les infos sémantiques...

    5. nnées 1990, les premières plateformes de diffusions apparaissent durant cette décennie sur plusieurs continents: il y a la plateforme SciELO en Amérique latine (1998) qui promeut un accès ouvert à la recherche et aux publications scientifiques10; mais aussi la plateforme Érudit au Québec, qui a été mise en ligne 1998 également 11 et défend rapidement une politique du libre accès; ou encore la plateforme JSTOR lancée en 1995 aux État-Unis 12.

      ok, ça arrive ici. moi je me concentrerai juste sur ^¸ca, sinon tu te perds

    6. nt la seconde moitié du xx siècle participe également de cette organisation des connaissances, notamment la technique de la base de données (Tesnière 2021, 18 & 287). La transition du papier vers le numérique est marquée par une période de numérisation des articles déjà publiés où coexistent les revues papiers et leur pendant numérique (Guédon et Loute 2017). Le constat est qu

      faudrait parler d'érudit et du début de la diff numé Livre de Guislaine Beaudry et G Boismenu "Le nouveau monde numérique Le cas des revues universitaires" pum

    7. Il est toutefois important de souligner que le processus d’éditorialisation ne se limite pas à la seule production d’un texte. Dans le cadre de sa publication, notamment sur le Web, il est impératif que ce texte subisse une ou plusieurs transformations pour devenir publiable, c’est-à-dire qu’il soit mis en lien avec un réseau d’objets et d’information

      il y a aussi la question des relations du texte avec le reste de l'environnement - chose typique de l'a fonction de diffusion de l'édition et encore plus spécifique en domaine numérique

    8. La notion d’auteur émerge au xviii siècle et sa fonction auctoriale consiste à garantir à la fois l’originalité des contenus et leur fiabilité.

      attention! c'est un sujet très complexe! "La notion d'auteur moderne... on peut considérer qu'elle émerge, telle que nous la connaissons dans la modernité... une de ses fonctions... etc. Mets des références! Par ex Rose, Authors and owners.

    9. ie entre autre sur la définition anglaise de l’éditorialisation et signifie sensiblement ce que les sciences de l’information et de la communication nomment éditorialisation

      en anglais c'est ce qu'écrit un journaliste... donc non, assez loin! en anglais d'ailleurs ça commence à signifier exprimer opinions subjectives et non apputées par des faits (you are editorializing)

    10. l’éditeur est absent

      mmm. la maison d'édition. la fonction éditoriale est là. l'éditeur... ça dépend de ce que tu entends par éditeur. expliciter

    11. cument à l’ère pré-numérique évoque l’univers de l’édition, notamment en raison de la mise en œuvre de tout un processus impliquant la composition typographique, l’impression des documents, leur distribution et la communication autour de ces derniers, dans le but de conférer une certaine visibilité à cette publication auprès des publics ci

      ça peut être aussi plus - ou moins: production (demande de contenu), structuration: l'éditeur compose un manuel à partir de fragments écrits par plusieurs auteurs, ou il compose une anthologie... etc. Je suis vraiment pas convaincu par l'opposition entre monde du papier (qui en plus est déjà multiple) et numérique

    12. friction dans l’écriture numérique, dans sa phase de préparation à la diffusion, durant laquelle l’éditeur intervient dans le texte et modifie le modèle textuel initialement employé par l’auteur.

      même dans l'édition "papier". quand on compose avec des caractères de plombs... tandis que l'auteur a donné un manuscrit! Ici on pourrait dire l'enverse de ce que tu dis: en numérique il y a plus de continuité... il faut que tu étoffe ton argument

    13. ns engendrent des modifications de la structure du texte, l’édition numérique diffère de l’édition plus tra

      je comprends pas quelle serait la différence avec l'édition papier. Pas clair! "Modification de la structure? quelle structure?

    1. Author response:

      The following is the authors’ response to the original reviews.

      Public Reviews:

      Reviewer #1 (Public review):

      Summary:

      Work by Brosseau et. al. combines NMR, biochemical assays, and MD simulations to characterize the influence of the C-terminal tail of EmrE, a model multi-drug efflux pump, on proton leak. The authors compare the WT pump to a C-terminal tail deletion, delta_107, finding that the mutant has increased proton leak in proteoliposome assays, shifted pH dependence with a new titratable residue, faster-alternating access at high pH values, and reduced growth, consistent with proton leak of the PMF.

      Strengths:

      The work combines thorough experimental analysis of structural, dynamic, and electrochemical properties of the mutant relative to WT proteins. The computational work is well aligned in vision and analysis. Although all questions are not answered, the authors lay out a logical exploration of the possible explanations.

      Weaknesses:

      There are a few analyses that are missing and important data left out. For example, the relative rate of drug efflux of the mutant should be reported to justify the focus on proton leak. Additionally, the correlation between structural interactions should be directly analyzed and the mutant PMF also analyzed to justify the claims based on hydration alone. Some aspects of the increased dynamics at high pH due to a potential salt bridge are not clear.

      Reviewer #2 (Public review):

      Summary:

      This manuscript explores the role of the C-terminal tail of EmrE in controlling uncoupled proton flux. Leakage occurs in the wild-type transporter under certain conditions but is amplified in the C-terminal truncation mutant D107. The authors use an impressive combination of growth assays, transport assays, NMR on WT and mutants with and without key substrates, classical MD, and reactive MD to address this problem. Overall, I think that the claims are well supported by the data, but I am most concerned about the reproducibility of the MD data, initial structures used for simulations, and the stochasticity of the water wire formation. These can all be addressed in a revision with more simulations as I point out below. I want to point out that the discussion was very nicely written, and I enjoyed reading the summary of the data and the connection to other studies very much.

      Strengths:

      The Henzler-Wildman lab is at the forefront of using quantitative experiments to probe the peculiarities in transporter biophysics, and the MD work from the Voth lab complements the experiments quite well. The sheer number of different types of experimental and computational approaches performed here is impressive.

      Weaknesses:

      The primary weaknesses are related to the reproducibility of the MD results with regard to the formation of water wires in the WT and truncation mutant. This could be resolved with simulations starting from structures built using very different loops and C-terminal tails.

      The water wire gates identified in the MD should be tested experimentally with site-directed mutagenesis to determine if those residues do impact leak.

      We appreciate the reviewers thoughtful consideration of our manuscript, and their recognition of the variety of experimental and computational approaches we have brought to bear in probing the very challenging question of uncoupled proton leak through EmrE.

      We did record SSME measurements with MeTPP+, a small molecule substrate at two different protein:lipid ratios. These experiments report the rate of net flux when both proton-coupled substrate antiport and substrate-gated proton leak are possible. We will add this data to the revision, including data acquired with different lipid:protein ratio that confirms we are detecting transport rather than binding. In brief, this data shows that the net flux is highly dependent on both proton concentration (pH) and drug-substrate concentration, as predicted by our mechanistic model. This demonstrates that both types of transport contribute to net flux when small molecule substrates are present.

      In the absence of drug-substrate, proton leak is the only possible transport pathway. The pyranine assay directly assesses proton leak under these conditions and unambiguously shows faster proton entry into proteoliposomes through the ∆107-EmrE mutant than through WT EmrE, with the rate of proton entry into ∆107-EmrE proteoliposomes matching the rate of proton entry achieved by the protonophore CCCP. We have revised the text to more clearly emphasize how this directly measures proton leak independently of any other type of transport activity. The SSME experiments with a proton gradient only (no small molecule substrate present) provide additional data on shorter timescales that is consistent with the pyranine data. The consistency of the data across multiple LPRs and comparison of transport to proton leak in the SSME assays further strengthens the importance of the C-terminal tail in determining the rate of flux.

      None of the current structural models have good resolution (crystallography, EM) or sufficient restraints (NMR) to define the loop and tail conformations sufficiently for comparison with this work. We are in the process of refining an experimental structure of EmrE with better resolution of the loop and tail regions implicated in proton-entry and leak. Direct assessment of structural interactions via mutagenesis is complicated because of the antiparallel homodimer structure of EmrE. Any point mutation necessarily affects both subunits of the dimer, and mutations designed to probe the hydrophobic gate on the more open face of the transporter also have the potential to disrupt closure on the opposite face, particularly in the absence of sufficient resolution in the available structures. Thus, mutagenesis to test specific predicted structural features is deferred until our structure is complete so that we can appropriately interpret the results.

      In our simulation setup, the MD results can be considered representative and meaningful for two reasons. First, the C-terminal tail, not present in the prior structure and thus modeled by us, is only 4 residues long. We will show in the revision and detailed response that the system will lose memory of its previous conformation very quickly, such that velocity initialization alone is enough for a diverse starting point. Second, our simulation is more like simulated annealing, starting from a high free energy state to show that, given such random initialization, the tail conformation we get in the end is consistent with what we reported. It is also difficult to sample back-and-forth tail motion within a realistic MD timescale. Therefore, it can be unconclusive to causally infer the allosteric motions with unbiased MD of the wildtype alone. The best viable way is to look at the equilibrium statistics of the most stable states between WT- and ∆107-EmrE and compare the differences.

      Recommendations for the authors:

      Reviewer #1 (Recommendations for the authors):

      The work is well done and well presented. In my opinion, the authors must address the following questions.

      (1) It is unclear to a non-SSME-expert, why the net charge translocated in delta_107 is larger than in WT. For such small pH gradients (0.5-1pH unit), it seems that only a few protons would leave the liposome before the internal pH is adjusted to be the same as the external. This number can be estimated given the size of the liposomes. What is it? Once the pH gradient is dissipated, no more net proton transport should be observed. So, why would more protons flow out of the mutant relative to WT?

      We appreciate the complexity of both the system and assay and have made revisions to both the main text and SI to address these points more clearly. While we can estimate liposomes size, we cannot easily quantify the number of liposomes on the sensor surface so cannot calculate the amount of charge movement as suggested by the reviewer. We have revised Fig. 3.2 and added additional data at low and high pH with different lipid to protein ratios to distinguish pre-steady state (proton release from the protein) and steady state processes (transport). An extended Fig. 3.2 caption and revised discussion in the main text clarify these points.

      We have also revised SI figure 3.2 to include an example of transport driven by an infinite drug gradient. Drug-proton antiport results in net charge build-up in the liposome since two protons will be driven out for every +1 drug transported in. This also creates a pH gradient is created (higher proton concentration outside). The negative inside potential inhibits further antiport of drug. However, both the negative-inside potential and proton gradient will drives protons back into the liposome if there is a leak pathway available. This is clearly visible with a reversal of current negative (antiport) to positive (proton backflow), and the magnitude of this back flow is larger for ∆107-EmrE which lacks the regulatory elements provided by the C-terminal tail. We have amended the main text and SI to include this discussion.

      (2) Given the estimated rate of transport, size of liposomes, and pH gradient, how quickly would the SSME liposomes reach pH balance?

      Since SSME measurements are due to capacitive coupling and will represent the net charge movement, including pre-steady state contributions, the current values will be incredibly sensitive to individual rates of alternating access, proton and drug on- and off-rates. Time to pH balance would, therefore, differ based on the construct, LPR, absolute pH or drug concentrations as well as the magnitude of the given gradients. For this reason, we necessarily use integrated currents (transported charge over time) when comparing mutants as it reflects kinetic differences inherent to the mutant without over-processing the data, for example, by normalizing to peak currents which would over emphasize certain properties that will differ across mutants. This process allows for qualitative comparisons by subjecting mutants to the same pH and substrate gradients when the same density of transporter construct is present, and care is given to not overstate the importance of the actual quantities of charges that are moving as they will be highly context dependent. This is clearly seen in Fig 3.2 where the current is not zero and the net transported charge is still changing at the end of 1 second. We have amended SI figure 3.2 and the main text to include this discussion.

      (3) Given that H110 and E14 would deprotonate when the external pH is elevated above 7 and that these protons would be released to external bulk, the external bulk pH would decrease twice as much for WT compared to delta107. This would decrease the pH gradient for WT relative to the mutant. Can these effects be quantified and accounted for? Would this ostensibly decrease the amount of charge that transfers into the liposomes for WT? How would this impact the current interpretation that the two systems are driven by the same gradient?

      The reviewer is correct that there will be differences in deprotonation of WT and ∆107 and the amount of proton release will also change with pH. We have amended Figure 3.2 to clarify this difference and its significance. For the proton gradient only conditions in Figure 3, each set of liposomes were equilibrated to the starting pH by repeated washings and incubation before measurement occurred. For example, for the pH 6.5 inside, pH 7 outside condition, both the inside and outside pH were equilibrated at 6.5, and both E14 residues will be predominantly protonated in WT and ∆107, and H110 will be predominantly protonated in WT-EmrE. Upon application of the external pH 7 solution, protons will be released from the E14 of either construct, with additional proton being released from H110 for WT-EmrE causing a large pre-steady state negative contribution to the signal (Fig. 3.2A). Under this pH condition, we the peak current correlates with the LPR, as this release of protons will depend on density of the transporter. However, we also see that the longer-time decay of the signal correlates with the construct (WT or ∆107) and is relatively independent of LPR, consistent with a transport process rather than a rapid pre-steady state release of protons. Therefore, when we look at the actual transported charge over time, despite the higher contribution of proton release to the WT-EmrE signal, the significant increase in uncoupled proton transport for the C-terminal deletion mutant dominates the signal.

      As a contrast, we apply this same analysis to the pH 8 inside, pH 8.5 outside condition where both sets of transports will be deprotonated from the start (Fig. 3.2B). Now the peak currents, decay rates, and transported charge over time are all consistent for a given construct (WT or ∆107). The two LPRs for an individual construct match within error, as the differences in overall charge movement and transported charge over time are independent of pre-steady-state proton release from the transporter at high pH.

      (4) A related question, how does the protonation of H110 influence the potential rate of proton transport between the two systems? Does the proton on H110 transfer to E14?

      The protonation of H110 will only influence the rate of transport of WT-EmrE as its protonation is required for formation of the hydrogen bonding network that coordinates gating. However, protonation of both E14s will influence the rate of proton transport of both systems as protonation state affects the rate of alternating access which is necessary for proton turnover. This is another reason we use the transported charge over time metric to compare mutants as it allows for a common metric for mutants with altered rates which are present in the same density and under the same gradient conditions. We do not have any evidence to support transfer of proton from H110 to E14, but there is also no evidence to exclude this possibility. We do not discuss this in the manuscript because it would be entirely speculative.

      (5) Is the pKa in the simulations (Figure 6B) consistent with the experiment?

      We calculated the pKa from this WT PMF and got a pKa of 7.1, which is in close proximity of the experimental value of 6.8

      (6) Why isn't the PMF for delta_107 compared to WT to corroborate the prediction that hydration sufficiently alters both the rate and pKa of E14?

      We appreciate the reviewer’s suggestion and agree that a direct comparison would be valuable. However, several factors limit the interpretability of such an analysis in this context:

      (a) Our data indicate that the primary difference in free energy barriers between WT and Δ107 lies in the hydration step rather than proton transport itself. To fully resolve this, a 2D PMF calculation via 2D umbrella sampling would be required which can be very expensive. Solely looking at the proton transport side of this PMF will not give much difference.

      (b) Given this, the aim for us to calculate this PMF is to support our conjecture that the bottleneck for such transport is the hydrophobic gate.

      (7) The authors suggest that A61 rotation 'controls the water wire formation' by measuring the distribution of water connectivity (water-water distances via logS) and average distances between A61 and I68/I67. Delta_107 has a larger inter-residue distance (Figure 6A) more probable small log S closer waters connecting E14 and two residues near the top of the protein (Figure 5A). However, it strikes me that looking at average distances and the distribution of log S is not the best way to do this. Why not quantify the correlation between log S and A61 orientation and/or A61-I68/I71 distances as well as their correlation to the proposed tail interactions (D84-R106 interactions) to directly verify the correlation (and suggest causation) of these interactions on the hydration in this region. Additionally, plotting the RMSD or probability of waters below I68 and I171 as a function of A61-I68 distances and/or numbers over time would support the log S analysis.

      The reviewer requested that we provide direct correlation analyses between A61 orientation, residue distances (A61-I68/I71), and water connectivity (logS) to better support the claim about water wire formation, rather than relying solely on average distances and distributions.

      We appreciate the reviewer’s suggestion to strengthen our analysis with direct correlations. However, due to the slow kinetics of hydration/dehydration events, unbiased simulation timescales do not permit sufficient sampling of multiple transitions to perform statistically robust dynamic correlation analyses. Instead, our approach focuses on equilibrium statistics, which reveal the dominant conformational states of WT- and Δ107-EmrE and provide meaningful insights into shifts in hydration patterns.

      (8) It looks like the D84-R106 salt bridge controls this A61-I68 opening. Could this also be quantifiably correlated?

      As discussed in response to the previous question, the unbiased simulation timescales do not permit sufficient sampling of multiple transitions to perform statistically robust dynamic correlation analyses.

      (9) The NMR results show that alternating access increases in frequency from ~4/s for WT at low and high pH to ~17/s for delta_107 only at high pH. They then go on to analyze potential titration changes in the delta_107 mutant, finding two residues with approximate pKa values of 5.6 and 7.1. The former is assigned to E14, consistent with WT. But the latter is suggested to be either D84, which salt bridges to R106, or the C-terminal carboxylate. If it is D84, why would deprotonation, which would be essential to form the salt bridge, increase the rate of alternating access relative to WT?

      We note that the faster alternating access rate was observed for TPP+-bound ∆107-EmrE, not the transporter in the absence of substrate. In the absence of substrate the relatively broad lines preclude quantitative determination of the alternating access rate by NMR making it difficult to judge the validity of the reviewers reasoning. Identification of which residue (D84 or H110) corresponds to the shifted pKa is ultimately of little consequence as this mutant does not reflect the native conditions of the transporter. It is far more important to acknowledge that both R106 and D84 are sensitive to this deprotonation as it indicates these residues are close in space and provides experimental support for the existence of the salt bridge identified in the MD simulations, as discussed in the manuscript.

      (10) In a more general sense, can the authors speculate why an efflux pump would evolve this type of secondary gate that can be thrown off by tight binding in the allosteric site such as that demonstrated by Harmane? What potential advantage is there to having a tail-regulated gate?

      This was likely a necessity to allow for better coupling as these transporters evolved to be more promiscuous. The C-terminal tail is absent in tightly coupled family members such as Gdx who are specific for a single substrate and have a better-defined transport stoichiometry. We have included this discussion in the main text and are currently investigating this phenomenon further. Those experiments are beyond the scope of the current manuscript.

      (11) It is hard to visualize the PT reaction coordinate. Is the e_PT unit vector defined for each window separately based on the initial steered MD pathway? If so, how reliant is the PT pathway on this initial approximate path? Also, how does this position for each window change if/when E14 rotates? This could be checked by plotting the x,y,z distributions for each window and quantifying the overlap between windows in cartesian space. These clouds of distributions could also be plotted in the protein following alignment so the reader can visualize the reaction coordinate. Does the CEC localization ever stray to different, disconnected regions of cartesian phase space that are hidden by the reaction coordinate definition?

      The unit vector e_PT is the same across all windows based on unbiased MD. Therefore, the reaction coordinate (a scalar) is the vector from the starting point to the CEC, projected on this unit vector. E14 rotation does not significantly change the window definition a lot unless the CEC is very close to E14, where we found this to be a better CV. For detailed discussions about this CV, especially a comparison between a curvilinear CV, please see J. Am. Chem. Soc. 2018, 140, 48, 16535–16543 “Simulations of the Proton Transport” and its SI Figure S1.In the Supplementary Information, we added figure 6.1 to show the average X, Y, Z coordinates of each umbrella window.

      (12) Lastly, perhaps I missed it, but it's unclear if the rate of substrate efflux is also increased in the delta_107 mutant. If this is also increased, then the overall rate of exchange is faster, including proton leak. This would be important to distinguish since the focus now is entirely on proton leaks. I.e., is it only leak or is it overall efflux and leak?

      We have amended SI figure 3.2 to include a gradient condition where an infinite drug gradient is created across the liposome. The infinite gradient allows for rapid transport of drug into the liposomes until charge build-up opposes further transport. This peak is at the same time for both LPRs of WT- and ∆107-EmrE suggesting the rate of substrate transport is similar. Differences in the peak heights across LPRs can be attributed to competition between drug and proton for the primary binding site such that more proton will be released for the higher density constructs as described above. This process does also create a proton gradient as drug moving in is coupled to two protons moving out so as charge build-up inhibits further drug movement, the building proton gradient will also begin to drive proton back in which is another example of uncoupled leak. Here, again we see that this back-flow of protons or leak is of greater magnitude for ∆107-EmrE proteoliposomes that for those with WT-EmrE. We have included this discussion in the SI and main text.

      Minor

      (1) Introduction - the authors describe EmrE as a model system for studying the molecular mechanism of proton-coupled transport. This is a rather broad categorization that could include a wide range of phenomena distal from drug transport across membranes or through efflux pumps. I suggest further specifying to not overgeneralize.

      We revised to note the context of multidrug efflux.

      Reviewer #2 (Recommendations for the authors):

      Simulations. The initial water wire analysis is based on 4 different 1 ms simulations presented in Figure 5. The 3 WT replicates show similar results for the tail-blocking water wire formation, but the details of the system build and loop/C-terminal tail placement are not clear. It does appear that a single C-terminal tail model was created for all WT replicates. Was there also modeling for any parts of the truncation mutant? Regardless, since these initial placements and uncertainties in the structures may impact the results and subsequent water wire formation, I would like a discussion of how these starting structures impacted the formation or not of wires. I think that another WT replicate should be run starting from a completely new build that places the tail in a different (but hopefully reasonable location). This could be built with any number of tools to generate reasonable starting structures. It's critical to ensure that multiple independent simulations across different initial builds show the same water wire behavior so that we know the results are robust and insensitive to the starting structure and stochastic variation.

      We thank Reviewer 2 for their suggestion regarding the discussion of the initial structure. In our simulations, the C-terminal tail was initially modeled in an extended conformation (solvent-exposed) to mimic its disordered state prior to folding. This approach resembles an annealing process, where the system evolves from a higher free-energy state toward equilibrium. Notably, across all three replicas, we observed consistent folding of the tail onto the protein surface, supporting the robustness of this conformational preference.

      For the Δ107 truncation mutant, minimal modeling was required, as most experimental structures resolve residues up to S105 or R106. To rigorously assess the influence of the starting configuration, we analyzed the tail’s dynamics using backbone dihedral angle auto- and cross-correlation functions (new Supplementary Figures 10.1 and 10.2). These analyses reveal rapid decay of correlations—consistent with the tail’s short length (5 residues) and high flexibility—indicating that the system "forgets" its initial configuration well within the simulation timescale. Thus, we conclude that our sampling is sufficient to capture equilibrium behavior, independent of the starting structure.

      What does the size of the barrier in the PMF (Figure 6B) imply about the rate of proton transfer/leak and can the pKa shift of the acidic residue be estimated with this energy value compared to bulk?

      We noticed this point aligns with a related concern raised by Reviewer 1. For a detailed discussion please refer to Point 5 in our response to Reviewer 1.

      Experimental validation. The hypotheses generated by this work would be better buttressed if there were some mutation work at the hydrophobic gate (61, 68, 71) to support it. I realize that this may be hard, but it would significantly improve the quality.

      Due to the small size of the transporter, any mutagenesis of EmrE should necessarily be accompanied by functional characterization to fully assess the effects of the mutation on rate-limiting steps. We have revised the manuscript to add a discussion of the challenges with analyzing simple point mutants and citing what is known from prior scanning mutagenesis studies of EmrE.

    1. Author response:

      The following is the authors’ response to the previous reviews.

      Reviewer #1:

      The addition of the discussion about the two isomers of 18:1 didn't quite work in the place that the authors added. What the authors wrote on line 126 is true about 18:1 isomers in wild type worms. However, they are reporting their lipidomics results of the fat-2(wa17) mutant worms. In this case, a substantial amount of the 18:1 is the oleic acid (18:1n-9) isomer. The authors can check Table 2 in their reference [10] and see that wild type and other fat mutants indeed contain approximately 10 fold more cis vaccenic than oleic acid, the fat-2(wa17) mutants do accumulate oleic acid, because the wild type activity of FAT-2 is to convert oleic acid to linoleic acid, where it can be converted to downstream PUFAs. I suggest editing their sentence on line 126 to say that the high 18:1 they observed agrees with [10], and then comment about reference 10 showing the majority of 18:1 being the cis-vaccenic isomer in most strains, but the oleic acid isomer is more abundantly in the fat-2(wa17) mutant strain.

      We thank the reviewer for spotting that and sparing us a bit of embarrassment. We have now modified the text and hope we got it right this time:

      "Even though the lipid analysis methods used here are not able to distinguish between different 18:1 species, a previous study showed that the majority of the 18:1 fatty acids in the fat-2(wa17) mutant is actually 18:1n9 (OA) [10] and not 18:1n7 (vaccenic acid) as in most other strains [10,23]; this is because OA is the substrate of FAT-2 and thus accumulates in the mutant."

      Reviewer #2:

      I still do not agree with the answer to my previous comment 6 regarding Figure S2E. The authors claim that hif-1(et69) suppresses fat-2(wa17) in a ftn-2 null background (in Figure S2 legend for example). To claim so, they would need to compare the triple mutant with fat2(wa17);ftn-2(ok404) and show some rescue. However, we see in Figure 5H that ftn2(ok404) alone rescues fat-2(wa17). Thus, by comparing both figures, I see no additional effect of hif-1(et69) in an ftn-2(ok404) background. I actually think that this makes more sense, since the authors claim that hif-1(et69) is a gain-of-function mutation that acts through suppression of ftn-2 expression. Thus, I would expect that without ftn-2 from the beginning, hif-1(et69) does not have an additional effect, and this seems to be what we see from the data. Thus, I would suggest that the authors reformulate their claims regarding the effect of hif1(et69) in the ftn-2(ok404) background, which seems to be absent (consistently with what one would expect).

      We completely agree with the reviewer and indeed this is the meaning that we tried to convey all along. The text has now been modified as follows:

      "Lastly, ftn-2(et68) is still a potent fat-2(wa17) suppressor when hif-1 is knocked out (S2D Fig), suggesting that no other HIF-1-dependent functions are required as long as ftn-2 is downregulated; this conclusion is supported by the observation that the potency of the ftn2(ok404) null allele to act as a fat-2(wa17) suppressor is not increased by including the hif-1(et69) allele (compare Fig 5H and S2E Fig)."

    1. Author response:

      The following is the authors’ response to the original reviews.

      Public Reviews:

      Reviewer #1 (Public Review):

      Summary:

      In this manuscript, the authors present a novel CRISPR/Cas9-based genetic tool for the dopamine receptor dop1R2. Based on the known function of the receptor in learning and memory, they tested the efficacy of the genetic tool by knocking out the receptor specifically in mushroom body neurons. The data suggest that dop1R2 is necessary for longer-lasting memories through its action on ⍺/ß and ⍺'/ß' neurons but is dispensable for short-term memory and thus in ɣ neurons. The experiments impressively demonstrate the value of such a genetic tool and illustrate the specific function of the receptor in subpopulations of KCs for longer-term memories. The data presented in this manuscript are significant.

      Reviewer #2 (Public Review):

      Summary:

      This manuscript examines the role of the dopamine receptor, Dop1R2, in memory formation. This receptor has complex roles in supporting different stages of memory, and the neural mechanisms for these functions are poorly understood. The authors are able to localize Dop1R2 function to the vertical lobes of the mushroom body, revealing a role in later (presumably middle-term) aversive and appetitive memory. In general, the experimental design is rigorous, and statistics are appropriately applied. While the manuscript provides a useful tool, it would be strengthened further by additional mechanistic studies that build on the rich literature examining the roles of dopamine signaling in memory formation. The claim that Dop1R2 is involved in memory formation is strongly supported by the data presented, and this manuscript adds to a growing literature revealing that dopamine is a critical regulator of olfactory memory. However, the manuscript does not necessarily extend much beyond our understanding of Dop1R2 in memory formation, and future work will be needed to fully characterize this reagent and define the role of Dop1R2 in memory.

      Strengths:

      (1) The FRT lines generated provide a novel tool for temporal and spatially precise manipulation of Dop1R2 function. This tool will be valuable to study the role of Dop1R2 in memory and other behaviors potentially regulated by this gene.

      (2) Given the highly conserved role of Dop1R2 in memory and other processes, these findings have a high potential to translate to vertebrate species.

      Weaknesses:

      (1) The authors state Dop1R2 associates with two different G-proteins. It would be useful to know which one is mediating the loss of aversive and appetitive memory in Dop1R2 knockout flies.

      We thank you for the insightful comment. We agree that it would be very useful to know which G-proteins are transmitting Dop1R2 signaling. To that extent, we examined single-cell transcriptomics data to check the level of co-expression of Dop1R2 with G-proteins that are of interest to us. (Figure 1 S1)

      Lines 312-325

      “Some RNA binding proteins and Immediate early genes help maintain identities of Mushroom body cells and are regulators of local transcription and translation (de Queiroz et al., 2025; Raun et al., 2025). So, the availability of different G-proteins may change in different lobes and during different phases of memory. The G-protein via which GPCRs signal, may depend on the pool of available G-proteins in the cell/sub-cellular region (Hermans, 2003)., Therefore, Dop1R2 may signal via different G-proteins in different compartments of the Mushroom body and also different compartments of the neuron. We looked at Gαo and Gαq as they are known to have roles in learning and forgetting (Ferris et al., 2006; Himmelreich et al., 2017). We found that Dop1R2 co-expresses more frequently with Gαo than with Gαq (Figure 1 S1). While there is evidence for Dop1R2 to act via Gαq (Himmelreich et al., 2017). It is difficult to determine whether this interaction is exclusive, or if Dop1R2 can also be coupled to other G-proteins. It will be interesting to determine the breadth of G-proteins that are involved in Dop1R2 signaling.”

      (2) It would be interesting to examine 24hr aversive memory, in addition to 24hr appetitive memory.

      This is indeed an important point and we agree that it will complete the assessment of temporally distinct memory traces. We therefore performed the Aversive LTM experiments and include them in the results.

      Lines 208-228

      “24h memory is impaired by loss of Dop1R2

      Next, we wanted to see if later memory forms are also affected. One cycle of reward training is sufficient to create LTM (Krashes & Waddell, 2008), while for aversive memory, 5-6 cycles of electroshock-trainings are required to obtain robust long-term memory scores (Tully et al., 1994). So, we looked at both, 24h aversive and appetitive memory. For aversive LTM, the flies were tested on the Y-Maze apparatus as described in (Mohandasan et al., (2022).

      Flipping out Dop1R2 in the whole MB causes a reduced 24h memory performance (Figure 4A, E). No phenotype was observed when Ddop1R2 was flipped out in the γ-lobe (Figure 4B, F). However, similar to 2h memory, loss of Ddop1R2 in the α/β-lobes (Figure 4C, G) or the α’/β’-lobes (Figure 4D, H) causes a reduction in memory performance. Thus, Dop1R2 seems to be involved in aversive and appetitive LTM in the α/β-lobes and the α’/β’-lobes.

      Previous studies have shown mutation in the Dop1R2 receptor leads to improvement in LTM when a single shock training paradigm is used (Berry et al., 2012). As we found that it disrupts LTM, we wanted to verify if the absence of Dop1R2 outside the MB is what leads to an improvement in memory. To that extent, we tested panneuronal flip-out of Dop1R2 flies for 6hr and 24hr memory upon single shock using the elav-Gal4 driver. We found that it did not improve memory at both time points (Figure 4 S1). Confirming that flipping out Dop1R2 panneuronally does not improve LTM (Figure 4 S1C) and highlighting its irrelevance in memory outside the MB.”

      (3) The manuscript would be strengthened by added functional analysis. What are the DANs that signal through Dop1R. How do these knockouts impact MBONs?

      We thank you for this question. We indeed agree that it is a highly relevand and open question, how distinct DANs signal via distinct Dopamine receptors. Our work here uniquely focusses on Dop1R2 within the MB. We aim to investigate other DopRs and the connection between DANs in the future using similar approaches.

      (4) Also in Figure 2, the lobe-specific knockouts might be moved to supplemental since there is no effect. Instead, consider moving the control sensory tests into the main figure.

      We thank you for this suggestion and understand that in Figure 2 no significant difference is seen. However, we have emphasized in the text that the results from the supplementary figures are just to confirm that the modifications made at the Dop1R2 locus did not alter its normal function.

      Lines 156-162

      “We wanted to see if flipping out Dop1R2 in the MB affects memory acquisition and STM by using classical olfactory conditioning. In short, a group of flies is presented with an odor coupled to an electric shock (aversive) or sugar (appetitive) followed by a second odor without stimulus. For assessing their memory, flies can freely choose between the odors either directly after training (STM) or at a later timepoint.

      To ensure that the introduced genetic changes to the Dop1R2 locus do not interfere with behavior we first checked the sensory responses of that line”

      (5) Can the single-cell atlas data be used to narrow down the cell types in the vertical lobes that express Dop1R2? Is it all or just a subset?

      This is indeed an interesting question, and we thank you for mentioning it. To address this as best as we could, we analyzed the single cell transcriptomic data from (Davie et al., 2018) and presented it in Figure 1 S1.

      Reviewer #3 (Public Review):

      Summary:

      Kaldun et al. investigated the role of Dopamine Receptor Dop1R2 in different types and stages of olfactory associative memory in Drosophila melanogaster. Dop1R2 is a type 1 Dopamine receptor that can act both through Gs-cAMP and Gq-ERCa2+ pathways. The authors first developed a very useful tool, where tissue-specific knock-out mutants can be generated, using Crispr/Cas9 technology in combination with the powerful Gal4/UAS gene-expression toolkit, very common in fruit flies.

      They direct the K.O. mutation to intrinsic neurons of the main associative memory centre fly brain-the mushroom body (MB). There are three main types of MB-neurons, or Kenyon cells, according to their axonal projections: a/b; a'/b', and g neurons.

      Kaldun et al. found that flies lacking dop1R2 all over the MB displayed impaired appetitive middle-term (2h) and long-term (24h) memory, whereas appetitive short-term memory remained intact. Knocking-out dop1R2 in the three MB neuron subtypes also impaired middle-term, but not short-term, aversive memory.

      These memory defects were recapitulated when the loss of the dop1R2 gene was restricted to either a/b or a'/b', but not when the loss of the gene was restricted to g neurons, showcasing a compartmentalized role of Dop1R2 in specific neuronal subtypes of the main memory centre of the fly brain for the expression of middle and long-term memories.

      Strengths:

      (1) The conclusions of this paper are very well supported by the data, and the authors systematically addressed the requirement of a very interesting type of dopamine receptor in both appetitive and aversive memories. These findings are important for the fields of learning and memory and dopaminergic neuromodulation among others. The evidence in the literature so far was generated in different labs, each using different tools (mutants, RNAi knockdowns driven in different developmental stages...), different time points (short, middle, and long-term memory), different types of memories (Anesthesia resistant, which is a type of protein synthesis independent consolidated memory; anesthesia sensitive, which is a type of protein synthesis-dependent consolidated memory; aversive memory; appetitive memory...) and different behavioral paradigms. A study like this one allows for direct comparison of the results, and generalized observations.

      (2) Additionally, Kaldun and collaborators addressed the requirement of different types of Kenyon cells, that have been classically involved in different memory stages: g KCs for memory acquisition and a/b or a'/b' for later memory phases. This systematical approach has not been performed before.

      (3) Importantly, the authors of this paper produced a tool to generate tissue-specific knock-out mutants of dop1R2. Although this is not the first time that the requirement of this gene in different memory phases has been studied, the tools used here represent the most sophisticated genetic approach to induce a loss of function phenotypes exclusively in MB neurons.

      Weaknesses:

      (1) Although the paper does have important strengths, the main weakness of this work is that the advancement in the field could be considered incremental: the main findings of the manuscript had been reported before by several groups, using tissue-specific conditional knockdowns through interference RNAi. The requirement of Dop1R2 in MB for middle-term and long-term memories has been shown both for appetitive (Musso et al 2015, Sun et al 2020) and aversive associations (Plaçais et al 2017).

      Thank you for this comment. We believe that the main takeaway from the paper is the elegant tool we developed, to study the role of Dop1R2 in fruit flies by effectively flipping it out spatio-temporally. Additionally, we studied its role in all types of olfactory associative memory to establish it as a robust tool that can be used for further research in place of RNAi knockouts which are shown to be less efficient in insects as mentioned in the texts in line 394-398.

      “The genetic tool we generated here to study the role of the Dop1R2 dopamine receptor in cells of interest, is not only a good substitute for RNAi knockouts, which are known to be less efficient in insects (Joga et al., 2016), but also provides versatile possibilities as it can be used in combination with the powerful genetic tools of Drosophila.”

      (2) The approach used here to genetically modify memory neurons is not temporally restricted. Considering the role of dopamine in the correct development of the nervous system, one must consider the possible effects that this manipulation can have in the establishment of memory circuits. However, previous studies addressing this question restricted the manipulation of Dop1R2 expression to adulthood, leading to the same findings than the ones reported in this paper for both aversive and appetitive memories, which solidifies the findings of this paper.

      We thank you for this comment and we agree that it would be important to show a temporally restricted effect of Dop1R2 knockout. To assess this and rule out potential developmental defects we decided to restrict the knockout to the post-eclosion stage and to include these results.

      Lines 230-250

      “Developmental defects are ruled out in a temporally restricted Dop1R2 conditional knockout.

      To exclude developmental defects in the MB caused by flip-out of Dop1R2, we stained fly brains with a FasII antibody. Compared to genetic controls, flies lacking Dop1R2 in the mushroom body had unaltered lobes (Figure 4 S2C).

      Regardless, we wanted to control for developmental defects leading to memory loss in flip-out flies. So, we generated a Gal80ts-containing line, enabling the temporal control of Dop1R2 knockout in the entire mushroom body (MB). Given that the half-life of the receptor remains unknown, we assessed both aversive short-term memory (STM) and long-term memory (LTM) to determine whether post-eclosion ablation of Dop1R2 in the MB produced differences compared to our previously tested line, in which Dop1R2 was constitutively knocked out from fertilization. To achieve this, flies were maintained at 18°C until eclosion and subsequently shifted to 30°C for five to seven days. On the fifth day, training was conducted, followed by memory testing. Our results indicate that aversive STM was not significantly impaired in Dop1R2-deficient MBs compared to control flies (Figure 4 S3), consistent with our previous findings (Figure 2). However, aversive LTM was significantly impaired relative to control lines (Figure 4 S3), which also aligned with prior observations. These findings strongly indicate that memory loss caused by Dop1R2 flip-out is not due to developmental defects.”

      (3) The authors state that they aim to resolve disparities of findings in the field regarding the specific role of Dop1R2 in memory, offering a potent tool to generate mutants and addressing systematically their effects on different types of memory. Their results support the role of this receptor in the expression of long-term memories, however in the experiments performed here do not address temporal resolution of the genetic manipulations that could bring light into the mechanisms of action of Dop1R2 in memory. Several hypotheses have been proposed, from stabilization of memory, effects on forgetting, or integration of sequences of events (sensory experiences and dopamine release).

      We thank you for this comment. We agree that it would be interesting to dissect the memory stages by knocking out the receptor selectively in some of them (encoding, consolidation, retrieval). However, our tool irreversibly flips out Dop1R2 preventing us from investigating the receptor’s role in retrieval. Our results show that the receptor is dispensable for STM formation (Figure 2, Figure 4 Supplement 3), suggesting that it is not involved in encoding new information. On the other hand, it is instead involved in consolidation and/or retrieval of long-term and middle-term memories (Figure 3, Figure 4, Figure 5B).

      Overall, the authors generated a very useful tool to study dopamine neuromodulation in any given circuit when used in combination with the powerful genetic toolkit available in Drosophila. The reports in this paper confirmed a previously described role of Dop1R2 in the expression of aversive and appetitive LTM and mapped these effects to two specific types of memory neurons in the fly brain, previously implicated in the expression and consolidation of long-term associative memories.

      Recommendations for the authors:

      Reviewer #1 (Recommendations For The Authors):

      (1) On the first view, the results shown here are different from studies published earlier, while in the same line with others (e.g. Sun et al, for appetitive 24h memories). For example, Berry et al showed that the loss of dop1R2 impairs immediate memory, while memory scores are enhanced 3h, 6h, and 24h after training. Further, they showed data that shock avoidance, at least for higher shock intensities, is reduced in mutant (damb) flies. All in all, this favors how important it is to improve the genetic tools for tissue-specific manipulation. Despite the authors nicely discussing their data with respect to the previous studies, I wondered whether it would be suitable to use the new tool and knock out dop1R2 panneuronally to see whether the obtained data match the results published by Berry et al.. Further, as stated in line 105ff: "As these studies used different learning assays - aversive and appetitive respectively as well as different methods, it is unclear if Dop1R2 has different functions for the different reinforcement stimulus" I wondered why the authors tested aversive and appetitive learning for STM and 2h memory, but only appetitive memory for 24h.

      Thank you for this comment. To that extent, as mentioned above in response to reviewer #2, we included in the results the aversive LTM experiment (Figure 4). Moreover, we performed experiments along the line of Berry et al. using our tool as shown in Figure 4 S1. Our results support that Dop1R2 is required for LTM, rather than to promote forgetting.

      (2) Line 165ff: I can´t find any of the supplementary data mentioned here. Please add the corresponding figures.

      Thank you for pointing this out. In that line we don’t refer to any supplementary data, but to the Figure 1F, showing the absence of the HA-tag in our MB knock-out line. We have clarified this in the text (lines 151-153)

      (3) I can't imagine that the scale bar in Figure 1D-F is correct. I would also like to suggest to show a more detailed analysis of the expression pattern. For example, both anterior and posterior views would be appropriate, perhaps including the VNC. This would allow the expression pattern obtained with this novel tool to be better compared with previously published results. Also, in relation to my comment above (1), it may help to understand the functional differences with previous studies, especially as the authors themselves state that the receptor is "mainly" expressed in the mushroom body (line 99). It would be interesting to see where else it is expressed (if so). This would also be interesting for the panneuronal knockdown experiment suggested under (1). If the receptor is indeed expressed outside the mushroom body, this may explain the differences to Berry et al.

      Thank you for noting this, there was indeed a mistake in the scale bar which we now fixed. Since with our HA-tag immunostaining we could not detect any noticeable signal outside of the MB, we decided to analyze previously existing single cell transcriptomics data that showed expression of the receptor in 7.99% of cells in the VNC and in 13.8% of cells outside the MB (lines 98-100) confirming its sparse expression in the nervous system. The lack of detection of these cells is likely due to the sparse and low expression of the protein. The HA-tag allows to detect the endogenous level of the locus (it is possible that a Gal4/UAS amplification of the signal might allow to detect these cells).

      Regarding the panneuronal knockout, we decided to try to replicate the experiment shown in Berry et al. in Figure 4 S1 and found that Dop1R2 is required for LTM.

      (4) Related to learning data shown in Figures 2-4, the authors should show statistical differences between all groups obtained in the ANOVA + PostHoc tests. Currently, only an asterisk is placed above the experimental group, which does not adequately reflect the statistical differences between the groups. In addition, I would like to suggest adding statistical tests to the chance level as it may be interesting to know whether, for example, scores of knockout flies in 3C and 3D are different from the chance level.

      Many thanks for this correction, we agree with the fact that the way significance scores were shown was not informative enough. We fixed the point by now showing significance between all the control groups and the experimental ones. We also inserted the chance level results in the figure legends.

      (5) Unfortunately, the manuscript has some typing errors, so I would like to ask the authors to check the manuscript again carefully.

      Some Examples:

      Line 31: the the

      Line 56: G-Protein

      Line 64: c-AMP

      Line 68: Dopamine

      Line 70: G-Protein (It alternates between G-protein and G-Protein)

      Line 76: References are formatted incorrectly

      Line 126: Ha-Tag (It alternates between Ha and HA)

      Line 248: missing space before the bracket...is often found

      Thank you for noticing these errors, we have now corrected the spelling throughout the manuscript.

      (6) In the figures the axes are labelled Preference Index (Pref"I"). In the methods, however, the calculation formula is defined as "PREF".

      We thank you for drawing attention to this. To avoid confusion, we changed the definition in the methods section so that it could be clear and coherent (“Memory tests” paragraph in the methods section).

      “PREF = ((N<sub>arm1</sub> - N<sub>arm2</sub>) 100) / N<sub>total</sub> the two preference indices were calculated from the two reciprocal experiments. The average of these two PREFs gives a learning index (LI). LI = (PREF<sub>1</sub> + PREF<sub>2</sub>) / 2.

      In case of all Long-term Aversive memory experiments, Y-Maze protocol was adapted to test flies 24 hours post training. Testing using the Y-Maze was done following the protocol as described in (Mohandasan et al., 2022) where flies were loaded at the bottom of 20-minutes odorized 3D-printed Y-Mazes from where they would climb up to a choice point and choose between the two odors. The learning index was then calculated after counting the flies in each odorized vial as follows: LI = ((N<sub>CS-</sub> - N<sub>CS+</sub>) 100) / N<sub>total</sub>. Where NCS- and NCS+ are the number of flies that were found trapped in the untrained and trained odor tube respectively.

      Reviewer #2 (Recommendations For The Authors):

      (1) In Figures 2 and 3, the legends running two different subfigures is confusing. Would be helpful to find a different way to present.

      Thank you for your suggestion. We modified how we present legends, placing them vertically so that it is clearer.

      (2) Use additional drivers to verify middle and long-term memory phenotypes.

      We agree that it would be interesting to see the role of Dop1R2 in other neurons. To that extent, we looked at long term aversive memory in flies where the receptor was panneuronaly flipped out, and did not find evidence that suggested involvement of Dop1R2 in memory processes outside the MB. (Figure 4 S1)

      (3) Additional discussion of genetic background for fly lines would be helpful.

      Thank you for your advice. We have mentioned the genetic background of flies in the key resources table of the methods sections. Additionally, we also included further explanation on how the lines were created and their genetic background (see “Fly Husbandry” paragraph in the methods section).

      “UAS-flp;;Dop1R2 cko flies and Gal4;Dop1R2<sup>cko</sup> flies were crossed back with ;;Dop<sup>cko</sup> flies to obtain appropriate genetic controls which were heterozygous for UAS and Gal4 but not Dop1R2<sup>cko</sup>.”

      Reviewer #3 (Recommendations For The Authors):

      Line 109 states that to resolve the problem a tool is developed to knock down Dop1R2 in s spatial and temporal specific manner- while I agree that this is within the potential of the tool, there is no temporal control of the flipase action in this study; at least I cannot find references to the use of target/gene switch to control stages of development or different memory phases. However the version available for download is missing supplementary information, so I did not have access to supplementary figures and tables.

      Thank you for the comment, as mentioned before it would be great to be able to dissect the memory phases. We show in lines 232 – 250 and Figure 4 S3 that the temporally restricted flip-out to the post-eclosion life stage gave us coherent results with the previous findings, ruling out potential developmental defects.

      In relation to my comment on the possible developmental effects of the loss of the gene, Figure 1F could showcase an underdeveloped g lobe when looking at the lobe profiles. I understand this is not within the scope of the figure, but maybe a different z projection can be provided to confirm there are no obvious anatomical alterations due to the loss of the receptor.

      We understand the doubt about the correct development of the MB and we thank you for your insightful comment. To that extent we decided to perform a FasII immunostaining that could show us the MB in the different lines (Figure 4 S2) and it appears that there are no notable differences in the lobes development in our knockout line.

      It seems that the obvious missing piece of the puzzle would be to address the effects of knocking out Dop1R2 in aversive LTM. The idea of systematically addressing different types of memory at different time points and in different KCs is the most attractive aspect of this study beyond the technical sophistication, and it feels that the aim of the study is not delivered without that component.

      We agree and we thank you for the clarification. As mentioned above in response to Reviewer #2, we decided to test aversive LTM as described in lines –208-228, Figure 4, Figure 4 S1.

      Some statements of the discussion seem too vague, and I think could benefit from editing:

      Line 284 "however other receptors could use Gq and mediate forgetting"- does this refer to other dopamine receptors? Other neuromodulators? Examples?

      Thank you for pointing this out. We Agree and therefore decided to omit this line.

      Line 289 "using a space training protocol and a Dop1R2 line" - this refers to RNAi lines, but it should be stated clearly.

      That is correct, we thank you for bringing attention to this and clarified it in the manuscript.

      –Lines 329-330

      “Interestingly, using a spaced training protocol and a Dop1R2 RNAi knockout line another study showed impaired LTM (Placais et al., 2017).”

      The paragraph starting in line 305 could be re-written to improve clarity and flow. Some statements seem disconnected and require specific citations. For example "In aversive memory formation, loss of Dop1R2 could lead to enhanced or impaired memory, depending on the activated signaling pathways and the internal state of the animal...". This is not accurate. Berry et al 2012 report enhanced LTM performance in dop1R2 mutants whereas Plaçais et al 2017 report LTM defects in Dop1R2 knock-downs, but these different findings do not seem to rely on different internal states or signaling pathways. Maybe further elaboration can help the reader understand this speculation.

      We agree and we thank you for this advice. We decided to add additional details and citations to validate our speculation

      Lines 350-353

      “In aversive memory formation, loss of Dop1R2 could lead to enhanced or impaired memory, depending on the activated signaling pathways. The signaling pathway that is activated further depends on the available pool of secondary messengers in the cell (Hermans, 2003) which may be regulated by the internal state of the animal.”

      "...for reward memory formation, loss of Dop1R2 seems to impair memory", this seems redundant at this point, as it has been discussed in detail, however, citations should be provided in any case (Musso 2015, Sun 2020)

      Thank you for noting this. We recognize the redundancy and decided to exclude the line.

      Finally, it would be useful to additionally refer to the anatomical terminology when introducing neuron names; for example MBON MVP2 (MBON-g1pedc>a/b), etc.

      Thank you for this suggestion. We understand the importance of anatomical terminologies for the neurons. Therefore, we included them when we introduce neurons in the paper.

      We thank you for your observations. We recognize their value, so we have made appropriate changes in the discussion to sound less vague and more comprehensive.

    1. Author response:

      The following is the authors’ response to the original reviews.

      Reviewer #1 (Public review):

      Summary:

      Using highly specific antibody reagents for biological research is of prime importance. In the past few years, novel approaches have been proposed to gain easier access to such reagents. This manuscript describes an important step forward toward the rapid and widespread isolation of antibody reagents. Via the refinement and improvement of previous approaches, the Perrimon lab describes a novel phage-displayed synthetic library for nanobody isolation. They used the library to isolate nanobodies targeting Drosophila secreted proteins. They used these nanobodies in immunostainings and immunoblottings, as well as in tissue immunostainings and live cell assays (by tethering the antigens on the cell surface).

      Since the library is made freely available, it will contribute to gaining access to better research reagents for non-profit use, an important step towards the democratisation of science.

      Strengths:

      (1) New design for a phage-displayed library of high content.

      (2) Isolation of valuble novel tools.

      (3) Detailed description of the methods such that they can be used by many other labs.

      We are grateful for these supportive comments.

      Weaknesses:

      My comments largely concentrate on the representation of the data in the different Figures.

      We have made adjustments according to the reviewer’s recommendations.

      Reviewer #2 (Public review):

      Summary:

      In this study, the authors propose an alternative platform for nanobody discovery using a phage-displayed synthetic library. The authors relied on DNA templates originally created by McMahon et al. (2018) to build the yeast-displayed synthetic library. To validate their platform, the authors screened for nanobodies against 8 Drosophila secreted proteins. Nanobody screening has been performed with phage-displayed nanobody libraries followed by an enzyme-linked immunosorbent assay (ELISA) to validate positive hits. Nanobodies with higher affinity have been tested for immunostaining and immunoblotting applications using Drosophila adult guts and hemolymph, respectively.

      Strengths:

      The authors presented a detailed protocol with various and complementary approaches to select nanobodies and test their application for immunostaining and immunoblotting experiments. Data are convincing and the manuscript is well-written, clear, and easy to read.

      We thank the reviewer for these supportive comments.

      Weaknesses:

      On the eight Drosophila secreted proteins selected to screen for nanobodies, the authors failed to identify nanobodies for three of them. While the authors mentioned potential improvements of the protocol in the discussion, none of them have been tested in this manuscript.

      We prepared all eight antigens by single-step IgG purification (see Materials and Methods) without additional biophysical quality control (e.g., size-exclusion chromatography). Consequently, we cannot definitively determine whether the three “no-binder” cases resulted from the aggregation or misfolding of the antigens, versus gaps in our naive library’s sequence space. While approaches such as additional purification steps or affinity maturation of weak binders would likely rescue these difficult targets, comprehensive pipeline optimization is beyond the scope of establishing and validating the phage-displayed nanobody platform. We have clarified this limitation and suggested these strategies in third paragraph of the Discussion.

      The same comment applies to the experiments using membrane-tethered forms of the antigens to test the affinity of nanobodies identified by ELISA. Many nanobodies fail to recognize the antigens. While authors suggested a low affinity of these nanobodies for their antigens, this hypothesis has not been tested in the manuscript.

      We observed that several nanobodies with strong ELISA signals showed reduced binding to membrane-displayed antigens. This discrepancy may result from low affinity of the nanobodies or differences in post-translational modifications (e.g., glycosylation) and antigen context between secreted IgG-fusion proteins (used for panning/ELISA) and GPI- or mCD8-anchored proteins. In an ongoing work, we have performed affinity maturation of the nanobodies and successfully increased the affinity toward the target antigen. These results will be reported separately.

      Improving the protocol at each step for nanobody selection would greatly increase the success rate for the discovery of nanobodies with high affinity.

      We fully agree that systematic optimization—from antigen preparation (e.g., additional purification steps) through screening conditions (e.g., buffer composition, additional affinity-maturation steps)—could substantially increase the success rate and nanobody affinity. These represent important directions for future work.

      Recommendations for the authors:

      Reviewer #1 (Recommendations for the authors):

      (1) Figure 3. The merge of two GFP channels does not make much sense. Can the authors not use artificial colours? And show the panels at higher resolution, such that a viewer can really see and judge what they are seeing? The same comments apply to all Supplementary Figures.

      We appreciate the reviewer’s comment. In the revised Figure 3, we have replaced the cyan/green overlay with red/green overlay and used enlarged pictures so that GFP-positive cells and corresponding nanobody staining are clearly visible. We applied the same layout to all relevant Supplementary Figures.

      (2) Figure 4. Also, in this Figure, it is not really possible to see what the authors say one should see. The resolution should be higher, and arrows or arrowheads should point to important structures.

      We appreciate the reviewer’s comment. In the revised Figure 4A, we have added arrows to point to the immunostaining signal in cells with smaller nuclei and added inset panels to show a closer view of representative NbMip-4G staining.

      Reviewer #2 (Recommendations for the authors):

      (1) Images are sometimes quite small and difficult to interpret. For example, Figures S2C-D.

      We thank the reviewer for this suggestion. In the revised figures, we have replaced the cyan/green overlay with red/green overlay and used enlarged pictures that clearly show GFP-positive cells alongside their corresponding nanobody staining.

      (2) Supplemental figures are not always cited in the text.

      Thank you for the comment. To eliminate this misunderstanding, we have updated the Nesfatin1 nanobody screen data as Supplementary Figure 1 and Mip nanobody screen data as Supplementary Figure 2. We have made the corresponding changes in the Results section.

    1. en mai 2023

      Je pense que je devrais préciser que mes observations portent en grande partie sur le paysage public Français. Par exemple : "... en voyant la couverture du Journal du Dimanche Magazine (JDD), publié en France en mai 2023"

    1. Ich werden mit dem Raspberry PI auf die MSA zugreifen und weitere befehle im Code hinzufügen. So kann ich dann verschiedene Farben sortieren. Die MSA hat verschiedene Sensoren die ich dafür bereits nutzen kann. Ich müsste nur eine Kamera mit anschließen und diese auch verbinden.

      Kannst du das bitte noch mehr ausführen? Wie willst du das erreichen? In der letzten Sitzung bist du diesem Ziel ja schon um einiges näher gekommen.

    1. Note de synthèse : Les expulsé.e.s, figures de la lutte contre les politiques migratoires ? par Clara Lecadet

      Cette note de synthèse s'appuie sur la conférence de Clara Lecadet, anthropologue et chargée de recherche au CNRS, présentant son livre "Les expulsés, sujets politiques".

      Elle explore la problématique des expulsions d'étrangers, leur évolution historique et géographique, et met en lumière l'émergence de mouvements d'auto-organisation des personnes expulsées dans leurs pays d'origine.

      Thèmes principaux et idées clés :

      • L'Expulsion : Une Question Ancienne et Actuelle, Nationale et Internationale :

      • Actualité et permanence : La question des expulsions est à la fois "très actuelle et très ancienne". Elle se manifeste dans les débats législatifs contemporains (ex: loi immigration en France) et dans les décisions gouvernementales (ex: expulsion de migrants afghans par le Pakistan).

      • Euphemisme du "retour" : Le terme "retour" est un euphémisme qui "sert d'euphémisme à la violence et à la brutalité des expulsions d'étrangers".
      • Prérogative étatique et évolution : Historiquement, les expulsions sont des prérogatives étatiques liées au contrôle du territoire. Cependant, elles ont évolué vers une dimension communautaire, notamment avec la directive "retour" de l'Union Européenne (2008), permettant des "vols conjoints" d'expulsion entre plusieurs pays européens.
      • Système international de police des étrangers : L'expulsion est devenue un "système international qui suppose la collaboration entre les États et certaines organisations internationales" comme l'OIM ou le HCR, qui promeuvent le "retour" comme garant de l'équilibre du système d'asile. William Walters parle de "police internationale des étrangers" pour qualifier ce système.
      • Angle Mort de la Recherche sur les Expulsions : Une Approche État-Centrée :
      • Domination de la perspective étatique : La majorité des travaux historiques et sociologiques sur les expulsions se sont concentrés sur "l'expulsion du point de vue des politiques instituées, de la construction historique des États", négligeant "le point de vue des personnes soumises à ces mesures".
      • Déséquilibre géographique : Il existe un "extrême rareté des travaux sur le devenir des étrangers une fois qu'ils ont été expulsés et sur l'impact de ces politiques sur les pays d'origine et de transit des migrants". Ce déséquilibre reflète les "fractures et les inégalités géopolitiques" du régime international de l'asile et des migrations, où le point de vue des "États entre guillemets forts" prévaut.
      • Nécessité d'une anthropologie du "removal" : Nathalie P. évoque la nécessité d'une "anthropologie capable de s'emparer de l'expulsion comme un continuum allant de la vie précaire des sans-papiers [...] au transport et à la phase du retour en passant par la phase de l'enfermement".
      • L'Émergence des Sujets Politiques Expulsés : Le Cas de l'Association Malienne des Expulsés (AME) :
      • Déclencheur de la recherche : La centralité de la figure de l'étranger dans le débat public français de 2007, contrastant avec leur "disparition réelle et symbolique" une fois expulsés, a motivé la recherche de Lecadet.
      • Découverte de l'AME : La découverte de l'Association Malienne des Expulsés (fondée en 1996 à Bamako) a révélé que "tout ne se finissait pas avec l'expulsion", et que les expulsions pouvaient être "le seuil d'initiatives nouvelles et de subjectivation politique tout à fait inédite".
      • Le geste fondateur de l'AME : L'accueil des expulsés à l'aéroport de Bamako par des membres de l'AME (dont Mahamadou Keita) symbolise "le geste même de l'organisation qui est au fondement de cette association", visant à "constituer une communauté de semblable" et à mettre en place une solidarité face à "l'indifférence et l'abandon total des pouvoirs publics de leur pays d'origine".
      • De l'expérience individuelle au politique : L'AME a œuvré à "sortir l'expulsion d'une expérience intime, individuelle, privée pour en faire une expérience collective" et ainsi "transformer la figure de l'expulsé en un sujet et en un acteur politique".
      • Double critique de l'État : L'AME a développé "une double critique de l'État" : celle des politiques migratoires des États qui expulsent et celle de "l'attentisme, voire de la complicité des gouvernements africains" dans la mise en œuvre de ces expulsions.
      • Champs d'intervention de l'AME :Social/Humanitaire : Accueil, hébergement, soins médicaux/psychologiques, recours juridiques (en cas de séparation familiale), formation et réinsertion professionnelle.
      • Médiatique : Diffusion de témoignages, interpellation des politiques, mise en lumière de questions comme la perte des biens, le gel des comptes bancaires, les salaires impayés. Organisation de forums publics pour permettre aux expulsés de prendre la parole.
      • Politique : Actions de protestation (ex: manifestations pour la libération de maliens emprisonnés après une expulsion), mobilisation contre les "accords de réadmission" qui font des expulsés une "monnaie d'échange" dans l'aide au développement.

      Diversité des Expériences d'Auto-Organisation :

      • Contexte politique national : La capacité des associations à se structurer et leurs modes d'action varient selon les "contextes politiques nationaux". L'AME a bénéficié de la fin de la dictature au Mali et de l'émergence du "mouvement des sans-voix" dans les années 1990.
      • Contraintes et adaptations : À l'inverse, l'Association Togolaise des Expulsés (créée en 2008) a rencontré des difficultés pour obtenir une reconnaissance légale en raison d'un "régime très autoritaire", l'obligeant à adopter des "revendications infiniment plus consensuelles".
      • Thèmes spécifiques : Au Sierra Leone, "The Network of Asylum Seekers in Sierra Leone" s'est concentrée sur la question du "stigma de la stigmatisation sociale", cherchant à sensibiliser la population sur les causes réelles des expulsions, souvent associées à tort à des délits individuels.
      • Positionnements antagonistes : Le principe d'auto-organisation peut mener à des "positionnements radicalement antagonistes". Si l'AME adopte une posture de "confrontation politique radicale", d'autres associations (notamment au Cameroun) peuvent "relayer finalement le message de dissuasion" de l'UE et de l'OIM sur les "dangers de la migration irrégulière".

      Conclusion : Dépasser les Biais de la Recherche et Politisation des Sujets :

      • Critique du champ de recherche : L'étude des expulsés vise à interroger les "biais du champ de la recherche sur l'émigration", qui s'est souvent construit sur "l'oubli de certaines subjectivités politiques".

      • Continuité de la politisation : Lecadet établit un parallèle entre la politisation des expulsés et la "micropolitique" des réfugiés au sein des camps, où ils développent également des formes d'auto-représentation pour "critiquer, contester le régime humanitaire".

      L'objectif est de montrer que les migrants ne sont pas des "objets passifs" des politiques migratoires, mais des "sujets de prise en main politique de leur situation".

    1. Document de Synthèse : "Genre et torts épistémiques" - Camille Zimmerman Introduction : Présentation de Camille Zimmerman et de ses recherches

      Camille Zimmerman est une doctorante dont les recherches se situent à l'intersection de la philosophie et des arts de la scène, co-dirigée par Amandine Catala (Université du Québec à Montréal - UQAM, Chaire de recherche du Canada sur l'injustice et l'agentivité épistémique) et Grégory Schiller (UGA, Laboratoire Litt&Arts, co-directeur du Performance Lab).

      Son travail vise à développer une "pédagogie des corps" pour mieux comprendre l'aspect incarné de l'agentivité épistémique, un concept initialement élaboré par Miranda Fricker en 2007 dans son ouvrage Epistemic Injustice: Power and the Ethics of Knowing.

      La question centrale qui l'anime est de savoir "en quoi et comment notre capacité à utiliser, générer et communiquer du savoir sollicite-t-elle notre corps, nos sensibilités, nos gestes, nos actions, et pas seulement, comme le défend la tradition dominante en philosophie, notre raison ?"

      Plus encore, elle s'interroge sur ce que cette incarnation de l'agentivité épistémique nous apprend sur "les mécanismes tacites de l'oppression, notamment de genre, c'est-à-dire sur leur fonctionnement comme sur les stratégies que nous pouvons développer pour résister à ces mécanismes."

      Son objectif est de donner aux corps un rôle émancipateur dans l'échange des savoirs, malgré ou grâce à leur vulnérabilité.

      Ses travaux s'inscrivent dans l'épistémologie sociale, reconnaissant que la connaissance n'est pas produite de manière isolée mais à travers des relations sociales où des "torts" peuvent se manifester.

      1. Biais Sexistes, Stéréotypes et Menaces du Stéréotype dans le Partage du Savoir

      Camille Zimmerman commence par clarifier les distinctions entre stéréotypes, préjugés et biais, soulignant leur impact sur la perception de soi et des autres dans le partage du savoir.

      Stéréotypes, Préjugés et Biais :

      • Un stéréotype est un raccourci cognitif qui simplifie le traitement de l'information quotidienne. Il peut être utile mais devient problématique lorsqu'il est "trop réducteur" et "négatif", menant à des préjugés.

      • Les préjugés sont des jugements ou des croyances négatives envers des groupes sociaux.

      • Les biais sont des associations néfastes qui accentuent les préjugés et affectent la perception des personnes.

      • Menace du Stéréotype : Introduit par Steele et Aronson (1995) pour comprendre l'échec scolaire des minorités ethniques, ce concept décrit comment, en tant que membre d'un groupe marginalisé, la conscience des stéréotypes négatifs à son égard génère un climat de stress ou d'anxiété.

      Cette anxiété peut paradoxalement "rejouer" et confirmer le stéréotype (ex: "les femmes sont trop émotionnelles", "pas bonnes en maths").

      La menace du stéréotype "impacte vraiment la manière dont on va nous-même agir dans la situation et rejouer et confirmer en fait les stéréotypes négatifs à notre égard."

      Application au Genre et à la Philosophie :

      • Une sous-représentation des femmes en philosophie (peu de philosophes femmes citées dans le canon, peu d'enseignantes) renforce la menace du stéréotype. Les étudiantes manquent de modèles et peuvent internaliser l'idée qu'elles "ne sont pas faites pour ça", ce qui accroît la peur de mal performer.

      • Les biais sexistes se manifestent par des réflexions associant les femmes à l'émotion (les rendant "pas crédibles"), par une attention portée à leur apparence plutôt qu'à leur propos, ou par une réduction de leur espace de parole, exacerbant le stress et la pression lors de l'expression.

      • Stratégies de Déconstruction : Pour contrer ces biais, il est proposé d'augmenter la représentation des femmes en philosophie (inviter des conférencières, afficher des portraits), et de diversifier le canon philosophique.

      L'intervenante cite des initiatives comme le groupe "Philo Situé" (anciennement "Philo-Sophia") et le Symposium de philosophie féministe au Québec, qui visent à créer des espaces de reconnaissance professionnelle pour les femmes en philosophie.

      2. Les Injustices Épistémiques : Cadre Théorique et Manifestations

      Les recherches de Camille Zimmerman s'appuient sur le concept d'injustice épistémique, issu de l'épistémologie sociale, qui étudie les "torts" commis dans les relations de partage du savoir.

      • Définition et Origines : L'injustice épistémique concerne les torts éthiques commis à l'égard de notre "agentivité épistémique", c'est-à-dire notre droit à développer notre capacité à utiliser, communiquer et transmettre du savoir.

      Ces torts minent la confiance en soi. Le concept a été formellement introduit par Miranda Fricker en 2007, mais ses racines se trouvent dans les théories du Black Feminism et du standpoint theory (années 60-70), soulignant d'emblée une dimension intersectionnelle des oppressions (genre, race, classe sociale).

      Les Deux Formes Majeures d'Injustice Épistémique (selon Fricker) :

      • L'Injustice Testimoniale : Concerne la crédibilité du témoignage. Lorsqu'une personne appartenant à un groupe social non dominant (basé sur le genre, la race, la classe, les capacités, l'orientation sexuelle, etc.) partage du savoir, on va "arbitrairement [lui] donner ou pas du crédit".

      Ce n'est pas lié à la véracité du propos, mais à l'identité de la personne.

      C'est une situation "systématique" et non accidentelle, qui "mine [la] confiance" de la personne.

      L'accent est mis sur le "contexte social" plutôt que sur un coupable individuel.

      • L'Injustice Herméneutique : Caractérisée par un "déficit d'intelligibilité" ou un "manque d'intelligibilité".

      Elle se produit lorsque les termes ou les concepts utilisés par une personne appartenant à un groupe non dominant ne sont pas compris ou reconnus par le groupe dominant, qui impose ses propres "ressources herméneutiques" (langage, concepts).

      Cela conduit à une "marginalisation" et une "exclusion" du partage du savoir.

      L'exemple emblématique est celui du harcèlement sexuel avant que le terme n'existe, où l'absence de mot pour nommer une expérience vécue empêche sa reconnaissance juridique et sociale (exemple de Suzanne Brer).

      L'exploitation herméneutique est "un vrai enjeu politique" car elle maintient les groupes marginalisés "en marge".

      3. La Conception Pluraliste de l'Agentivité Épistémique et la Place de l'Affect

      La critique de la définition traditionnelle (logocentrique et rationnelle) de l'agentivité épistémique est au cœur des recherches de Camille Zimmerman et de sa directrice, Amandine Catala.

      • Critique du Logocentrisme : La définition de Fricker, basée sur la rationalité, réduit l'intelligence et exclut ceux qui ne s'expriment pas verbalement ou rationnellement (ex: personnes en situation de handicap, neurodiverses).

      Cela pose problème car si une personne n'est pas considérée comme un agent épistémique, elle ne peut pas défendre le fait qu'elle subit des injustices épistémiques. * Les Cinq Caractéristiques de l'Agentivité Épistémique Pluraliste (selon Alexis Shotwell) : Cette nouvelle approche élargit la définition de la connaissance au-delà du "savoir propositionnel" (basé sur le langage et la vérifiabilité logique) pour inclure d'autres formes de savoir cruciales pour comprendre l'expérience humaine, notamment les expériences d'oppression.

      • Savoir Propositionnel : Formulation verbale, vérifiable (le "know that" en anglais).
      • Savoir-faire : Connaissance pratique acquise par l'expérience corporelle (ex: faire du vélo), irréductible à un manuel.
      • Savoir Incarné : Intégration des codes sociaux et adaptation corporelle aux normes (ex: posture, ton de voix, performance du genre). Non verbal, implicite, et pourtant crucial pour la crédibilité sociale.
      • Savoir Tacite : Ce qui n'a pas besoin d'être explicité par le langage (sens commun, stéréotypes), permettant les raccourcis dans l'interaction.
      • Savoir Affectif : La manière dont on vit, éprouve, ressent les choses. "Disent aussi quelque chose par rapport à mon identité." C'est une "forme de compréhension des choses, des sens."
      • L'Affect comme Ressource Épistémique : La conception pluraliste réhabilite l'affect, souvent dévalorisé et associé aux femmes, comme une source de connaissance.
      • Dans la Marginalisation Herméneutique : Le vécu corporel, émotionnel et sensible, même sans mots, "nous révèle une importance par rapport à ce qui se passe." Il peut catalyser la recherche de termes ou de reconnaissance (ex: Saraha Ahmed et la violence subie à vélo, dont le corps garde la mémoire).
      • Dans la Menace du Stéréotype : Le "climat de stress", l'anxiété et la fatigue ne sont pas neutres et affectent la performance épistémique. Reconnaître l'impact de l'environnement (ex: salles de conférence avec portraits d'hommes blancs) permet de comprendre comment l'affect mine l'agentivité.
      • L'Exploitation Épistémique (Nora Berenstein) : Ce concept, mis en lumière par des chercheur·es racisé·es, montre comment les groupes privilégiés, face aux explications des marginalisé·es sur leur oppression, "discréditent les ressources épistémiques qu'ils apportent et les force[nt] à produire un travail cognitif et émotionnel supplémentaire." La personne opprimée est contrainte de s'expliquer, malgré l'effort physique et émotionnel que cela représente, car son expérience n'est pas reconnue si elle n'est pas "adéquatement expliquée".

      L'ignorance active du privilégié est ainsi reproduite.

      Ce phénomène met clairement en évidence l'importance du corps et de l'affect dans les injustices épistémiques.

      4. Pédagogies de l'Inconfort et Vulnérabilité Épistémique

      Pour faire face à ces injustices et valoriser l'affect, Camille Zimmerman propose d'explorer les pédagogies de l'inconfort.

      • Bell Hooks et l'Intégrité en Éducation : Inspirée par Paulo Freire, Bell Hooks soutient que la salle de classe n'est pas un espace neutre politiquement.

      Les rapports de pouvoir et les identités sociales influencent l'expérience de l'enseignement et de l'apprentissage.

      Elle promeut l'enseignement avec "intégrité", en intégrant le corps et l'esprit, cherchant le "désir d'apprendre" des étudiant·es et la connexion avec leurs vécus.

      L'enseignant·e doit également considérer son "état émotionnel" et la place de l'affect dans son propre enseignement.

      • Megan Boler et le Sentiment d'Appartenance : Boler, spécialiste des pédagogies féministes, insiste sur l'importance de créer un "sentiment d'appartenance" en classe.

      Elle reconnaît que l'espace n'est pas intrinsèquement sécuritaire pour tou·tes et qu'il peut devenir insécuritaire. Il s'agit de travailler à partir du ressenti des étudiant·es pour améliorer l'espace et discuter ouvertement des rapports de pouvoir.

      Boler explore également comment les normes sociales (liées au genre, par exemple) influencent l'expression des émotions et peuvent desservir les individus dans certains contextes (ex: l'injonction à "combattre son idée" en philosophie).

      • La Vulnérabilité Épistémique (Erin Gilson) : Ce concept est proposé comme une "vertu" en opposition à l'ignorance active.

      Il s'agit d'accepter d'être vulnérable, de reconnaître que nos propres croyances ne sont pas les seules valides, et que l'écoute des croyances d'une personne issue d'une identité sociale différente peut "déconstruire ma propre croyance."

      Cette démarche, bien que "déstabilisante", est essentielle pour une "ouverture des esprits" et pour ne pas "résister à ne pas comprendre".

      Elle permet de reconnaître l'importance des affects dans la capacité à utiliser, partager et générer du savoir.

      Conclusion Générale

      La présentation de Camille Zimmerman propose une exploration approfondie des injustices épistémiques, en particulier celles liées au genre, en insistant sur le rôle central de l'incarnation et des affects.

      Le cheminement s'articule comme suit :

      • Identification des Problèmes : Les biais sexistes et la menace du stéréotype influencent négativement le partage du savoir.
      • Cadre Théorique : Les injustices épistémiques (testimoniale et herméneutique) décrivent les torts subis, souvent invisibles et liés à l'identité sociale.
      • Refonte Conceptuelle : La conception pluraliste de l'agentivité épistémique, intégrant le savoir incarné, tacite et affectif, déconstruit les limites du logocentrisme et valorise les affects comme sources de connaissance.
      • Stratégies Pédagogiques : Les pédagogies de l'inconfort (Bell Hooks, Megan Boler) et le développement de la vulnérabilité épistémique (Erin Gilson) sont des approches concrètes pour transformer les espaces d'apprentissage et de partage du savoir, en reconnaissant et en travaillant avec le vécu émotionnel et corporel.
      • L'objectif final est de créer des environnements où l'inconfort (lorsqu'il est géré constructivement) peut devenir "un indicateur dans ma propre éducation à accepter la croyance de l'autre ou à rentrer dans une collaboration plutôt que de maintenir ma propre croyance", ouvrant ainsi la voie à une compréhension plus riche et équitable du savoir.
    1. synthèse présente les idées principales et les faits marquants de la conférence de David Sander intitulée "Comprendre les émotions et leurs fonctions".

      Professeur de psychologie à l'Université de Genève et directeur du laboratoire "Émergence et expression de l'émotion" et du Centre Interfacultaire en sciences affectives, David Sander est un spécialiste des émotions et des mécanismes cognitifs qui leur sont liés.

      I. Définition et composantes des émotions

      David Sander souligne la difficulté de définir une émotion, citant Thomas Brown :

      "Chacun sait ce qu'est une émotion jusqu'à ce qu'on leur demande d'en donner une définition et à ce moment-là, il semble que plus personne ne sache."

      Il propose une définition contemporaine des émotions en s'appuyant sur l'histoire de la psychologie et des neurosciences.

      Perspective historique de l'étude des émotions :

      • Aristote : Les émotions sont "toutes ces choses à cause desquelles les gens changent et évoluent dans leur jugement" et sont "accompagnées de douleur et plaisir". L'idée de la valence (agréable/désagréable) est un élément central qui perdure.

      • Descartes : Dans son dernier ouvrage "Les Passions de l'âme" (1649), Descartes a une vision "assez positive des émotions", les considérant comme "utiles" et "fonctionnelles", si elles sont à la bonne intensité.

      • Charles Darwin : Avec son livre "L'expression des émotions chez l'homme et les animaux" (1872), Darwin a initié l'étude scientifique des émotions, mettant en lumière la "fonctionnalité des émotions" et leur "raison fonctionnelle évolutionnaire" (par exemple, les expressions faciales).

      • Behaviorisme : Au 20ème siècle, cette approche s'est intéressée aux comportements émotionnels et à l'acquisition des réactions émotionnelles.

      • Révolution Cognitive (années 1930-40) : L'accent est mis sur les "processus dans l'esprit qui peuvent être la cause des émotions" et qui se déroulent pendant une émotion, établissant un lien fondamental entre connaissances et réactions émotionnelles.

      • Sciences Affectives (années 1970-80) : Cette nouvelle discipline utilise les outils des sciences cognitives pour comprendre les phénomènes affectifs (émotions, humeurs, bien-être, stress). Elle intègre diverses disciplines comme la psychologie, les neurosciences, l'économie comportementale, l'histoire, la philosophie, la littérature, les arts et l'informatique (affective computing, IA émotionnelle).

      • L'Affectivisme : Proposé comme un courant où tout "modèle psychologique qui s'intéresse à une fonction cognitive... gagnera en valeur explicative à intégrer les émotions dans son modèle." Les émotions ne sont plus vues comme l'opposé de la cognition mais comme des éléments intégraux. "Les émotions ne sont pas du tout l'opposé de la cognition."

      • Neurosciences Affectives et la complexité cérébrale :

      • Il n'y a "pas un centre des émotions dans le cerveau" ni "un centre par catégorie d'émotion".

      • Un "très grand nombre de réseaux dans le cerveau sont importants pour différentes composantes des émotions", incluant des régions corticales comme le cortex préfrontal dorsolatéral (important pour la régulation) et l'amygdale.

      • Cette complexité suggère que les émotions partagent un "ensemble de mécanismes communs".

      La subjectivité des émotions et l'évaluation cognitive :

      • Les émotions ne sont pas des réflexes ; leur déclenchement passe par une "fenêtre temporelle qu'on appelle l'évaluation cognitive".

      • Cette évaluation explique "la subjectivité dans les émotions", pourquoi des individus réagissent différemment au même événement objectif (ex: un but au football).

      • La reconnaissance des émotions est souvent "en contexte" ; les expressions faciales seules ne suffisent pas.

      L'approche componentielle des émotions :

      • Déclenchement : Un événement est évalué en fonction des "motivations", "intérêts", "préoccupations" et "valeurs" de l'individu.

      Cinq composantes de la réponse émotionnelle :

      • Réaction corporelle physiologique : "un nœud dans l'estomac, de la sueur, la température de la peau qui peut changer, le cœur s'accélère, la respiration change".

      • Tendance à l'action : "s'approcher plus de ce qui est agréable et au contraire à éviter ce qui est désagréable." Les émotions sont "extrêmement liées à l'action".

      • Expression : Souvent associée à l'émotion, mais modulée par les stratégies de régulation et le contexte culturel.

      • Ressenti conscient : "je me sens heureux, je me sens triste, je me sens amoureux, je me sens en colère".

      • Objet de l'émotion : Une émotion est "toujours déclenchée par quelque chose" et "toujours focalisée sur un événement", contrairement aux humeurs. "L'émotion est toujours rattachée à un événement déclencheur."

      • Définition proposée : Une émotion est un "processus rapide qui va durer quelques secondes, peut-être quelques minutes... qui est toujours focalisé sur un événement... et puis qui est constitué de deux étapes : le premier étape c'est un mécanisme de déclenchement qui est basé sur la pertinence souvent motivationnel et puis qui va façonner une réponse qui est constituée des quatre composants de la réponse émotionnelle : la tendance à l'action, la réaction corporelle, l'expression, le ressenti."

      II. Fonctions cognitives des émotions

      Les émotions ne sont pas des phénomènes isolés, mais "vont beaucoup influencer un grand nombre de processus cognitifs", ce qui est central à la deuxième partie de la conférence.

      Modulation de l'attention :

      • L'attention est "automatiquement orientée vers ce qui est émotionnel".

      • Un "système particulier dans le cerveau, l'attention émotionnelle" (impliquant l'amygdale et d'autres régions) permet de s'orienter rapidement vers les stimuli importants. C'est une "première fonction très positive des émotions".

      • Modulation de la mémoire (mémoire émotionnelle) :

      • Les événements émotionnellement forts sont mieux mémorisés (ex: attentats du 11 septembre). L'amygdale interagit avec l'hippocampe pour faciliter cette mémorisation.
      • Ceci est vrai pour les épisodes négatifs comme positifs. L'émotion "d'intérêt" ou de "curiosité" peut faciliter la mémorisation de contenus.

      • Les émotions influencent les trois étapes de la mémoire épisodique :

      • Encodage : Traitement initial et mise en mémoire de l'information émotionnelle.

      • Consolidation : Maintien en mémoire de l'information (ex: pendant le sommeil), les informations émotionnelles ayant une caractéristique de "rester en mémoire".

      • Rappel : L'émotion ressentie au moment du rappel peut aider à retrouver le souvenir.

      • La curiosité épistémique : Des études utilisant le "paradigme trivia questions" montrent que plus le niveau de curiosité est élevé, plus la "réaction corporelle" est forte et meilleure est la "mémorisation de la réponse".

      • Application scolaire : L'étude PISA et les travaux de Pekrun montrent un lien clair entre l'état émotionnel de l'élève ("passionné par une matière") et ses "résultats scolaires".

      La joie et la fierté sont associées à de bonnes notes, tandis que d'autres émotions peuvent prédire de mauvaises notes.

      Rôle dans la prise de décision :

      • Les émotions peuvent être "très utiles pour nous guider dans nos décisions" ou non.

      • Émotions incidentes : "ne sont pas liées aux options directement", elles sont externes à la décision (ex: colère après une dispute).

      Elles peuvent biaiser la décision (ex: la colère favorise une prise de risque plus élevée en matière financière). Ces émotions sont "à négliger et presque toujours à réguler".

      • Émotions intégrales (intégrées) : "déclenchées par la valeur que vous attribuez aux différentes options" (ex: émotions liées aux valeurs politiques ou esthétiques). Elles sont "à considérer" car elles sont pertinentes pour la décision.

      • Émotions anticipées : Émotions imaginées concernant les conséquences d'une décision, qui influencent le choix (ex: ne pas choisir un film d'horreur si l'on ne veut pas avoir peur).

      • Fonctions sociales des émotions et prise de décision sous incertitude : L'expérience de la "falaise visuelle" (Visual Cliff experiment) de Joe Campos démontre comment les bébés d'un an utilisent le "référencement social" (social referencing) pour prendre des décisions.

      Ils interprètent les expressions émotionnelles des adultes (joie, peur) pour évaluer le danger d'une situation, montrant "à quel point est-ce que finalement les émotions des autres peuvent être des guides dans nos décisions."

      En conclusion, David Sander insiste sur l'importance de comprendre les émotions non pas comme de simples ressentis, mais comme des processus complexes et multifactoriels, indissociables de la cognition et du comportement, qui jouent un rôle crucial dans notre attention, notre mémoire et notre prise de décision.

    1. Mit meinen eigenen kreativen Änderungen der einzelnen Ausgaben zur Wiederverwendung als Eingaben. Aus didaktischer Perspektive ist dieser Prozess interessant, da er den Lernenden ermöglicht nicht kreativ sein zu müssen ohne eine begrnzte Zahl an Aufgaben vorzugeben, was wiederum keinen Platz für Kreativität lässt. Somit können Lernenden sicherlich sehr viel besseer mitgenommen werden.

      Das verstehe ich noch nicht. Kannst du das bitte noch einmal genauer ausführen?

    1. Note de synthèse : Rythmes et Temporalités du Numérique Territorial (Philippe Vidal)

      • Cette conférence de Philippe Vidal, professeur en géographie et aménagement à l'Université du Havre Normandie, explore les dynamiques complexes du numérique au sein des territoires, en se focalisant sur les concepts de rythme et de temporalité.

      Il propose une grille d'analyse articulée autour de trois idées clés : la concomitance, l'instantanéité et la temporisation, pour comprendre l'interaction entre le numérique mondialisé et le numérique territorial.

      Thèmes Principaux et Idées Clés :

      • Le Numérique : Infrastructures, Contenus et Usages – Une Approche Ternaire Faussement Séquentielle
      • Définition du numérique : Vidal décrit le numérique comme un ensemble d'infrastructures de télécommunication (connectivité, déploiement), de contenus et services dématérialisés (données, innovation) et d'usages/usagers (appropriation, validation de l'innovation).
      • Cycle Ternaire : Loin d'être séquentielle (infrastructure, puis contenus, puis usages), cette progression est "un rythme ternaire à faussement séquentiel fait de concomitance, d'hybridité et de glocal". L'usager, en particulier, est essentiel pour valider l'innovation et justifier le déploiement des infrastructures.
      • Cycles du numérique : L'auteur identifie plusieurs cycles :
      • Cycle infrastructurel : ADSL, fibre, 2G à 5G (environ 10 ans par génération).
      • Cycle de calcul : Algorithmes simples au machine learning, deep learning et IA (ex: application pour délibérations municipales).
      • Cycle de service/contenu : Web 1.0 (digitalisation de l'information), Web 2.0 (contenus interactifs, réseaux sociaux, mobile), Web 3.0 (plateformisation).
      • Cycle d'usage : Sensibilisation, acculturation, généralisation, expertise, vers le transhumanisme.
      • Concomitance : Le Numérique Mondialisé contre le Numérique Territorial
      • Hypothèse centrale : Le numérique mondialisé impose son rythme au numérique territorial, bien que ce dernier cherche à "rattraper et reprendre la main".
      • Numérique mondialisé : Représente une "modernité dominante", top-down, érigée en normes (ubérisation), considérant le monde comme un territoire sans frontières (call centers, Amazon, cloud).

      Il confère un "temps d'avance" grâce à sa vitesse d'innovation et son efficacité. "C'est quand même les États-Unis qui ont lancé cette histoire du numérique et de l'Internet notamment... les USA sont devenus des acteurs dominants du numérique mondialisé." * Numérique territorial : Perçu comme une "modernité émergente", bottom-up, moins marchandisé, axé sur les communs territoriaux et la souveraineté locale (France Tiers-Lieux, Data Lab). C'est une "proposition à l'adresse du territoire en provenance des acteurs territoriaux". * L'Entre-Deux Glocal : Existence d'un espace intermédiaire où le territoire est vu comme un "stock de ressources à exploiter" (ex: Blablacar, géocaching). * L'échec du Minitel : La France, malgré son avance avec le Minitel (première expérience télématique domestique généralisée, sans avance ni retard territorial), n'a pas su valoriser cette expérience à l'international face à l'Internet américain. * Rhétorique du retard/avance : Les politiques publiques post-Minitel ont été rythmées par cette rhétorique de la "performance numérique des territoires", se manifestant par : * La fracture numérique (Nord-Sud mondial, puis urbain/rural en France). * La Smart City (course à l'intelligence urbaine, classement des territoires). * La plateformisation (nécessité de développer des plateformes numériques). * Instantanéité : Le Risque du Délaissement Territorial face au Solutionnisme Numérique * L'efficacité à court terme : Les plateformes numériques offrent une "redoutable efficacité" face à des problèmes territoriaux, comme la désertification médicale ou les services pendant la COVID-19.

      "Cette efficacité à court terme des plateformes fait de mon point de vue courir le risque du délaissement territorial au motif que comme c'est efficace on a plus besoin d'investir le territoire." * Le solutionnisme numérique : Il y a un risque que les territoires se "satisfont" de cette efficacité, entraînant un désinvestissement public à long terme, notamment des services publics dans les territoires "peu rentables". * Évolution de la position des élus :1995 (Précurseurs) : Intérêt pour la citoyenneté numérique, web public territorial, internet citoyen. L'acteur public gardait le contrôle. * 2005 (Fracturés) : Prise de conscience de la fracture numérique, efforts pour réduire les inégalités d'accès (RIP). Les élus investissent dans l'infrastructure, mais délaissent l'innovation sociale. * 2010 (En déprise) : Perte de maîtrise des élus face aux applications géolocalisées privées et mondiales (ex: Airbnb, e-commerce impactant les petits commerces). "Pour la première fois l'élus perdait la maîtrise de ce qui se passait vraiment sur son propre territoire." * 2015 (En reconquête) : Mouvement FrenchTech, Smart City. Référentiel offensif, lié au "récit métropolitain". * 2020 (Responsables) : Intérêt pour la sobriété numérique, l'inclusion habitante, la souveraineté numérique locale. Recherche d'un "équilibre territorial" et maturité accrue des élus. * L'exemple de la téléconsultation : Face à la désertification médicale, la téléconsultation (particulièrement via bornes/cabines en pharmacie) est une solution palliative très efficace à court terme. Vidal s'interroge :

      "Est-ce qu'on va pas s'installer tranquillement dans cette espèce de confort numérique de plateforme parce que c'est de plus en plus efficace et cetera ? Est-ce que ça pose pas des problèmes sur le vivre ensemble, sur le bien-être territorial, sur le lien social et cetera ?" * Temporisation : Le Rôle de Régulation de l'Acteur Public * Un rôle de régulateur : Le rôle de l'acteur public aujourd'hui est "de réguler les spatialités numériques, les dynamiques territoriales à l'heure du numérique, les nouveaux rythmes urbains." * Conséquences du monde connecté :Régularité et progression incontestable de l'usage. * Le numérique comme "opérateur de lien social socio-territorial". * Génération d'incertitudes mais aussi capacité à les gérer. * Controverses territoriales et questions de justice spatiale (fractures générationnelles, littératie numérique). * Le numérique met à l'épreuve la capacité d'innovation des territoires et la nécessité de réguler les externalités négatives. * Un "défaut d'anticipation" : L'acteur public a un "temps de retard" face à l'accélération du changement induite par le numérique (ex: l'IA). La régulation est une "temporisation" face à l'urgence des problèmes, mais qui ne comble pas toujours ce retard. * Interprétation légitime : Le numérique est au cœur d'un "conflit quant à l'interprétation de ce qui est légitime et ce qui ne l'est pas". * L'épreuve de force et l'épreuve de grandeur : Face aux "épreuves de force" imposées par les externalités numériques, il est nécessaire d'organiser des "épreuves de grandeur" via les valeurs pour retrouver des "termes d'accord stables" (ex: régulation des trottinettes électriques).

      En conclusion, Philippe Vidal souligne la puissance du numérique mondialisé qui dicte le rythme, mais met en lumière les efforts du numérique territorial pour s'adapter et reprendre la main.

      Il alerte sur les risques du solutionnisme numérique à court terme qui pourrait mener à un délaissement des territoires et questionne le rôle des acteurs publics qui, après avoir été précurseurs, fracturés puis en déprise, cherchent aujourd'hui à reconquérir et réguler un monde numérique en constante accélération.

    1. Damien DELILLE – Théories Queer à l'Épreuve des Pratiques Artistiques et Vestimentaires

      Ce briefing document synthétise les thèmes principaux et les faits importants abordés par Damien Delille dans sa présentation sur les théories queer à l'épreuve des pratiques artistiques et vestimentaires.

      La conférence met en lumière une approche transdisciplinaire de l'histoire de l'art, de la culture visuelle, de la littérature, de la sociologie et de l'histoire du vêtement, avec un accent particulier sur la figure de l'androgyne et l'émergence des concepts liés à la sexualité et au genre.

      I. L'Androgynie comme Obsession Artistique et Sociale (Fin XIXe - Début XXe Siècle)

      Damien Delille débute sa présentation par une exploration de l'androgynie, thème central de ses recherches doctorales et de son livre "Genre, androgyne, art, culture visuelle et trouble de la masculinité (XVIIIe-XXe)".

      Il souligne que l'androgynie est devenue une véritable "obsession" dans les milieux symbolistes et idéalistes de la fin du XIXe siècle.

      • Une démarche transdisciplinaire : Contrairement à une approche traditionnelle d'historien de l'art, Delille ne part pas uniquement des images, mais intègre la "production littéraire, philosophique, sociologique" et même "médicale et scientifique" pour resituer la figure de l'androgyne dans un vaste champ social et politique. Cette démarche est justifiée par une citation de Schwar et Prideski : "la juxtaposition d'un texte littéraire avec un texte médical ou une image visuelle [permet] de clarifier les marges de ces textes et images, éclairant ainsi les particularités de chaque forme et révélant par la même occasion des attributions partagées à travers une culture donnée."
      • Généalogie de l'androgynie : La figure de l'androgyne est retracée depuis le mythe platonicien et ovidien (l'hermaphrodisme), en passant par sa reprise à la Renaissance, jusqu'à sa réinterprétation par les savants de la fin du XIXe siècle. Cette relecture des figures homoérotiques de la Renaissance a contribué à l'élaboration d'une "culture homosexuelle underground qui est en train de se constituer."
      • Androgynie et Symbolisme : Le mouvement idéaliste de la fin du XIXe siècle, en opposition au naturalisme et au réalisme, "va énormément rechercher des formes justement de dépassement en quelque sorte des représentations classiques, de dépassement aussi des identifications entre des figures masculines et féminines." Ce dépassement est intrinsèquement lié à l'idéal androgyne, qui se poursuit au début du XXe siècle avec les premières formes d'abstraction.
      • La menace sociale de l'androgynie : Les pratiques artistiques et littéraires explorant l'androgynie sont rapidement perçues comme une "forme de menace pour la société." Dans un contexte de promotion de la natalité et de méfiance envers les artistes et intellectuels "hors normes", l'androgynie est associée à l'efféminement et, de manière quasi homophobe, aux premières théories sur les "perversions sexuelles" et l'homosexualité naissante. Il y a "une sorte de convergence ou du moins d'amalgame entre efféminement considéré comme efféminement de la figure masculine, projet symboliste et puis donc première théorie des perversions sexuelles." Cette association est alimentée par la peur de la "dégénérescence morale [et] physique de l'homme."

      II. Le Rôle de la Caricature de Presse et l'Émergence d'une Culture Queer Populaire

      La présentation insiste sur l'importance de la caricature de presse comme reflet et acteur des perceptions sociales de l'androgynie et de l'homosexualité.

      • Péladan et la caricature homophobe : Joséphin Péladan, figure centrale du symbolisme et organisateur des Salons de la Rose-Croix, est un exemple frappant. Obsédé par l'androgyne, il publie le roman "L'Androgyne" en 1891. Sa personnalité et ses idées extravagantes sont la cible privilégiée des caricaturistes. Delille montre une caricature où Péladan est représenté "en tutu, en danseuse", une "féminisation très clairement en fait du corps et de l'apparence de Péladan." Cette féminisation est une manière de discréditer ses idées et de les lier à une "sexualité perverse" et un "désordre érotique."
      • Amalgame entre art et "perversion" : La caricature fait l'amalgame entre l'idéal androgyne et les "théories de perversion sexuelle" développées par des sexologues comme Richard von Krafft-Ebing. Des critiques comme Émile Zola et Octave Mirbeau fustigent les salons symbolistes, associant l'idéal androgyne à une forme de "détraqué homosexuel."
      • Le "troisième sexe" et l'identification de l'homosexualité : Des caricatures, comme celle de Jean-Louis Forain (1888) sur "Le Troisième Sexe", renvoient directement aux théories psychologiques de l'homosexualité de Karl Heinrich Ulrichs (1868-1869), qui invente le terme d'homosexuel. Ces images sont les "toutes premières images finalement d'homosexuels identifiables par la caricature de presse," souvent dans des contextes stéréotypés (parcs, figures efféminées) et associés à la "sodomie passive."
      • L'artiste androgyne/homosexuel : Après le procès d'Oscar Wilde (1895), l'homosexualité devient de plus en plus médiatisée. Une caricature du début du XXe siècle associe l'artiste directement à l'androgyne et au sphinx, avec des glissements "d'animalisation" et des rappels à des figures féminines progressistes, créant un lien fort entre l'androgyne "homosexuel" et l'artiste "féministe."

      III. Le Vêtement, le Collectionnisme et l'Esthétique du Placard

      La deuxième partie de la présentation explore la mode vestimentaire et le collectionnisme comme lieux d'expression et de négociation de l'identité et de la sexualité.

      • Le japonisme comme évasion : Le japonisme, apparu en France en 1874, offre une voie de "dépassement des identités normées." S'habiller en kimono est "précisément dépasser une apparence vestimentaire masculine ou féminine." Le Japon représente un "ailleurs" qui permet aux individus de "vivre mieux, différemment leur sexualité."
      • Robert de Montesquiou et l'esthétique du placard : Robert de Montesquiou, dandy et figure homosexuelle majeure de la fin du XIXe siècle, est présenté comme l'anti-Oscar Wilde, ne "jamais véritablement assum[ant] publiquement son homosexualité." Delille s'appuie sur des photographies inédites de son intérieur privé pour explorer ce qu'il nomme "l'esthétique du placard" (en référence à "Epistemology of the Closet" d'Eve Kosofsky Sedgwick). Cet espace intime, avec ses objets et ses vêtements, devient un lieu de "négociation avec soi-même et avec les autres" concernant sa sexualité.
      • Objets comme porteurs d'émotion : Les objets collectionnés par Montesquiou, notamment japonais, et les photographies d'hommes (comme un gymnaste de cirque, le comte de La Rochefoucauld) dissimulés dans ses albums, sont autant de "signes cachés, signes cryptés de l'homosexualité" que Delille décrypte.
      • Féminisation et Japon : Montesquiou associe le Japon à une "forme de grâce féminine" qu'il intègre dans sa gestuelle et son apparence, comme en témoigne son portrait par Antonio de la Gandara, où il porte un manteau ambigu et met en scène la "délicatesse" de ses mains, signe de sa "féminisation de son allure masculine."
      • Charles Appleton Longfellow et l'incarnation du Japon : Ce collectionneur américain, qui a beaucoup voyagé au Japon à la fin du XIXe siècle, incarne une appropriation encore plus profonde. Il rapporte de nombreux kimonos, les porte, et fait même tatouer une carpe sur son dos, motif retrouvé sur un kimono féminin. Longfellow, qui ne s'est jamais marié ni n'a eu de relations avec des femmes, est une figure "Outcast", un "marginal" dont le "recours au vêtement et surtout par ces sortes de parures corporelles témoigne véritablement d'enjeux complexes du rapport de l'Occident au Japon." Son histoire illustre une "véritable imprégnation, incarnation" des motifs et des codes japonais, allant jusqu'à la modification corporelle.

      IV. L'Historiographie Queer et les Persistances Historiques

      En conclusion, Damien Delille esquisse ses recherches futures sur l'historiographie queer en histoire de l'art, cherchant à identifier les origines et le développement du concept.

      • Aux sources des théories queer : Il se tourne vers les années 1950-1960 et l'émergence du "queer theater" à New York, avec des figures comme le cinéaste Jack Smith. Smith est considéré comme une "figure tutélaire des théories queer" des années 1990-2000, notamment par José Esteban Muñoz, pour sa remise en cause des "normes de genre, mais aussi les normes liées à la race, lié justement à la classe."
      • Jack Smith et l'Orient fantasmatique : Jack Smith, cinéaste, photographe, costumier et acteur, crée des "performances de réinvention de soi" avec des références "très complexes, très éclectiques" à un "Orient fantasmique." Ses photographies, ses costumes, et la présence d'acteurs et actrices transgenres (identifiés comme tels à l'époque) dans ses films, montrent une continuité de ces préoccupations sur le genre et l'apparence.
      • Continuité historique : Delille conclut en soulignant l'existence de "survivances", "d'effets d'écho", et de "parallèles" entre les époques, permettant de tracer un "continuum d'histoire qui se prolonge du XIXe au XXe et peut-être XXIe siècle" dans l'exploration des théories queer et de leurs manifestations artistiques et vestimentaires.
    1. Briefing sur la Cohérence Cardiaque : Gestion du Stress et Au-delà

      Ce document de briefing vise à synthétiser les concepts clés, les mécanismes physiologiques, les bénéfices et les applications pratiques de la cohérence cardiaque, tels que présentés par Caroline Sévoz-Couche, neuropharmacologue et chercheuse à l'Inserm, spécialiste du nerf vague.

      1. Qu'est-ce que la Cohérence Cardiaque ?

      La cohérence cardiaque est une technique de respiration contrôlée qui vise à harmoniser les variations de la fréquence cardiaque avec la fréquence respiratoire.

      Bien que popularisée en Occident plus récemment, ses principes sont connus et pratiqués depuis des millénaires dans les civilisations orientales, notamment à travers le Pranayama du yoga.

      • Définition et Historique : C'est une technique simple et rapide, souvent associée à une origine américaine récente. Cependant, la régulation de la fréquence respiratoire est connue depuis des milliers d'années dans les civilisations orientales.

      "L'expire produit la stabilité du mental", une phrase écrite il y a près de 2000 ans, souligne l'importance de l'expiration contrôlée.

      En Occident, elle est apparue au 18ème siècle et a été popularisée en France par le Dr. David Servan-Schreiber.

      • Non une Simple Relaxation : Il est crucial de comprendre que la cohérence cardiaque n'est pas une simple relaxation menant à l'endormissement. Au contraire, elle prépare l'esprit aux actes d'attention, augmentant la concentration et la rapidité de prise de décision.

      "Ce n'est pas une relaxation où on s'endort... c'est-à-dire qu'en fait quand on va faire la cohérence cardiaque on va être beaucoup plus sensible à tout ce qui va se passer autour à l'environnement on va être beaucoup plus concentré on va avoir des prises de décisions beaucoup plus rapide".

      Elle peut être pratiquée avant une compétition sportive ou une tâche nécessitant une grande vigilance.

      2. Le Mécanisme Physiologique Clé : La Variabilité Cardiaque et la Fréquence de Résonance

      Le cœur ne bat pas à une fréquence parfaitement régulière ; il présente une variabilité constante, essentielle pour s'adapter aux stimuli internes et externes.

      La cohérence cardiaque vise à optimiser cette variabilité.

      • Variabilité Cardiaque (VFC) : Un cœur en bonne santé présente des oscillations rapides de sa fréquence. Une faible variabilité est souvent associée à une pathologie. Lors d'une respiration spontanée (environ 15 cycles/minute), ces oscillations sont de faible amplitude.

      • Optimisation à 6 cycles/minute : La pratique de la cohérence cardiaque à 6 respirations par minute (soit un cycle respiratoire de 10 secondes) maximise l'amplitude des oscillations cardiaques.

      Cette fréquence est la plus efficace car elle entre en résonance avec les oscillations automatiques naturelles du corps, qui sont également de 6 par minute.

      "Ces amplitudes sont maximales avec une fréquence respiratoire spécifique de 6 par minute".

      • Analogie de la Balançoire : Le principe est similaire à celui d'une balançoire : si l'on pousse la balançoire à sa fréquence naturelle, l'amplitude de son mouvement augmente considérablement. De même, en synchronisant la respiration avec les fréquences oscillatoires naturelles du corps, on amplifie la variabilité cardiaque.

      • Cohérence des Oscillations, pas des Fréquences : Il est important de noter que ce ne sont pas les fréquences cardiaques (ex: 60-80 battements/minute) et respiratoires (6 cycles/minute) qui sont mises en cohérence, mais le nombre d'oscillations cardiaques par minute induites par la respiration et celles produites automatiquement par le corps, qui se synchronisent à 6 par minute.

      3. Aspects Techniques de la Respiration en Cohérence Cardiaque

      Pour maximiser les bénéfices, certaines pratiques respiratoires sont recommandées :

      • Ratio Inspiration/Expiration : Le ratio idéal est de 5 secondes d'inspiration et 5 secondes d'expiration pour un cycle de 10 secondes (6 cycles/minute).
      • Un léger allongement de l'expiration (ex: 4 sec inspiration / 6 sec expiration) est acceptable et conserve une bonne amplitude.
      • Un allongement excessif de l'expiration (ex: 3 sec inspiration / 7 sec expiration) ou une inspiration plus longue que l'expiration réduit significativement l'amplitude des oscillations et peut être contre-productif ("on perd la cohérence").
      • Volume Thoracique : Il est crucial d'augmenter le volume thoracique pour maintenir une bonne ventilation. "Il faut penser à avoir une grande amplitude thoracique quand on fait la cohérence cardiaque".
      • Respiration Nasale : L'inspiration par le nez est fortement recommandée car elle active davantage les ondes cérébrales bénéfiques (ondes thêta) et apporte d'autres avantages physiologiques (filtration de l'air, humidification, meilleure oxygénation, réduction des ronflements).

      "Si vous voulez avoir des effets au niveau central il faut penser à l'inspiration il faut respirer par le nez". L'expiration peut se faire par la bouche ou le nez.

      4. Le Rôle Central du Nerf Vague

      La cohérence cardiaque stimule de manière maximale le nerf vague, un nerf cranien crucial pour le système nerveux parasympathique.

      • Le Nerf Vague : Un "Vagabond" : Nommé d'après le latin "vagare" (errer, vagabonder), le nerf vague innerve de nombreux organes depuis le cerveau (cœur, poumons, tube digestif, etc.).
      • Effets sur les Organes Périphériques : Sa stimulation a des effets positifs variés :
      • Cardiaques : Amélioration de la variabilité cardiaque.
      • Digestifs : Amélioration des sensations de goût, augmentation de la sécrétion des sucs gastriques, amélioration de la motilité gastro-intestinale.
      • Anti-inflammatoires : Libération de neurotransmetteurs qui réduisent l'inflammation systémique et organique (ex: poumons chez les asthmatiques).
      • Boucle Vago-vagale et Effets Cérébraux : Seulement 20% des fibres du nerf vague descendent du cerveau vers les organes, tandis que 80% remontent. Cette boucle vagale permet une influence bidirectionnelle. La stimulation du nerf vague par la cohérence cardiaque active des structures cérébrales clés :
      • Cortex insulaire et cingulaire : Impliqués dans l'intéroception (perception des signaux internes du corps) et la prise de décision.
      • Amygdale : Régulation du stress.
      • Hippocampe : Mémoire et cognition.
      • Modulation du Système Limbique : Cette activation cérébrale conduit à une amélioration de :
      • La concentration, la mémoire de travail et l'apprentissage.
      • La prise de décision et le contrôle de l'impulsivité (réduction des comportements impulsifs liés à l'alimentation, l'alcool, la drogue, augmentant le temps d'abstinence).
      • Le seuil de la douleur (augmentation).
      • La gestion du stress et la diminution des symptômes anxieux et dépressifs.

      5. Bénéfices et Applications Prouvées Scientifiquement

      De nombreuses études scientifiques, incluant des groupes placebo, ont démontré l'efficacité de la cohérence cardiaque.

      • Réduction Immédiate du Stress et de l'Anxiété : Une session de 5 minutes chez des volontaires sains (musiciens avant un concert, sportifs avant une compétition) réduit significativement l'anxiété et le niveau de stress.

      Effets à Long Terme et Persistance :

      • Basketballeurs : 20 minutes/jour pendant 10 jours ont montré une diminution de l'anxiété qui persiste pendant au moins un mois après l'arrêt de la pratique, contrairement aux groupes contrôle.
      • Vétérans atteints de SSPT : 20 minutes/jour pendant 4 semaines ont significativement diminué la perception du stress, de la douleur et des émotions négatives.
      • Patients déprimés résistants aux traitements : Sessions hebdomadaires de 20 minutes pendant 10 semaines, combinées à 20 minutes quotidiennes non supervisées, ont entraîné une diminution "très importante" de la dépression et de l'anxiété, visible dès 4 semaines.
      • Pression Artérielle : Une étude a montré une diminution de la pression artérielle qui persistait 6 mois après l'arrêt de la pratique chez ceux qui l'avaient faite sur le long terme.
      • Adaptation à l'Âge et aux Pathologies :
      • Bien que l'amplitude des oscillations puisse être légèrement moindre après 40 ans ou chez des patients atteints de diabète, la cohérence cardiaque augmente toujours cette amplitude par rapport à la respiration spontanée, offrant des bénéfices à tous.

      "Quel que soit l'âge quel que soit la condition il tout le monde peut faire la cohérence cardiaque et avoir un effet bénéfique".

      • Gestion de la Douleur : Des sessions courtes (5 minutes) avant un événement douloureux (ex: prise de sang) peuvent réduire la sensation de douleur.
      • Sommeil : Améliore le temps d'endormissement (latence d'endormissement). Il est plus efficace de la pratiquer juste avant de se coucher.

      6. Protocoles de Pratique Recommandés

      La durée et la fréquence de la pratique varient en fonction des objectifs :

      • "Traitement Ponctuel" / Avant un Événement : 5 minutes (5 secondes inspiration, 5 secondes expiration, inspiration nasale).
      • "Traitement de Fond" Léger (Concentration, Mémoire, Stress ponctuel) : 10 minutes par jour pendant au moins 2-3 semaines.
      • "Traitement de Fond" Important (Anxiété, Dépression, Douleur Chronique) : 20 minutes par jour pendant 4 à 8 semaines et au-delà.
      • Il est préférable de faire des sessions de 10 minutes plutôt que de multiples sessions de 5 minutes pour un effet plus rémanent.
      • Les effets peuvent persister au moins un mois après l'arrêt pour une pratique prolongée.

      7. Outils et Aides à la Pratique

      De nombreuses ressources facilitent la pratique de la cohérence cardiaque :

      • Vidéos et Applications :
      • Sites web : vimeo.com, onedeepbreath.
      • Chaînes YouTube avec animations visuelles (ex: celle de Caroline Sévoz-Couche avec nuages ou flèches).
      • Applications mobiles (iOS/Android) : "Cardia", "Breathing App", "Breath+ (permet de visualiser la fréquence cardiaque en direct et la calque sur la respiration idéale)".
      • Montres Connectées : Certaines montres proposent des fonctionnalités de cohérence cardiaque.
      • Pratique sans Outil : Il est possible de la pratiquer n'importe où en comptant mentalement 5 secondes d'inspiration nasale et 5 secondes d'expiration.

      8. Questions et Remarques Importantes

      • Différence avec d'autres Techniques de Respiration : La respiration carrée (inspiration-pause-expiration-pause) peut être utilisée pour d'autres objectifs (relaxation), mais elle n'est pas optimale pour la cohérence cardiaque car les pauses interrompent la "cohérence" des oscillations et réduisent l'amplitude.

      Pour la cohérence cardiaque, l'absence de pause ou de très courtes pauses (0,5 sec) est préférable. * Complémentarité avec d'autres Thérapies : La cohérence cardiaque est reconnue par certains professionnels de la santé, notamment en psychiatrie et psychologie positive, comme un outil efficace et complémentaire à d'autres techniques (hypnose clinique, EMDR), car elle active des structures cérébrales similaires. * Contre-indications ou Effets Indésirables : Très rares. La seule prudence concerne les personnes sujettes aux malaises vagaux très prononcés. Certains moments de vie (ex: 3ème trimestre de grossesse) peuvent rendre la pratique plus difficile en raison de contraintes physiques. * Cohérence Cardiaque et Effort Sportif : Non indiquée pendant un effort sportif intense, car celui-ci active le système nerveux sympathique, qui s'oppose à l'action du nerf vague (parasympathique). * L'objectif et la concentration : Il ne faut pas trop se concentrer sur un objectif pendant la pratique elle-même, car cela peut augmenter la partie sympathique et réduire les effets bénéfiques. L'important est de se concentrer sur la technique respiratoire. * Processus d'Habituation à l'Anxiété : Bien que ce ne soit pas directement un processus d'habituation, la stimulation vagale par la cohérence cardiaque peut aider le cerveau des patients déprimés (et potentiellement anxieux) à mieux accepter les nouvelles informations et à sortir des ruminations, en réactivant les systèmes inhibiteurs de l'impulsivité.

      En conclusion, la cohérence cardiaque est une pratique basée sur des mécanismes physiologiques solides, facilement accessible et aux bénéfices avérés sur la gestion du stress, l'anxiété, la dépression, la douleur, la concentration, la mémoire et le sommeil, quel que soit l'âge ou la condition de santé.

      Sa simplicité et son efficacité en font un outil précieux pour le bien-être général.

    1. Synthèse de la Conférence : "A la recherche du temps perdu, les enfants face aux écrans" - Grégoire Borst

      Cette conférence de Grégoire Borst, professeur de psychologie du développement et chercheur en neurosciences cognitives, vise à démystifier et nuancer le débat public autour de l'impact des écrans sur les enfants et adolescents, en s'appuyant sur des données scientifiques.

      Il met en lumière les idées fausses véhiculées et propose une approche plus complexe et contextuelle de la problématique, notamment à travers le prisme du rapport "À la recherche du temps perdu" auquel il a contribué.

      1. Démystification des Idées Reçues sur les Écrans

      Grégoire Borst commence par interroger l'audience sur des affirmations courantes concernant les écrans, pour ensuite les déconstruire systématiquement :

      • Baisse de l'intelligence des nouvelles générations : "il y a aucune de ces informations qui n'est vraie qui est vraie en tout cas pas posé comme cela il y a nécessité d'avoir d'introduire un peu plus de complexité làdessus".
      • Troubles neurodéveloppementaux (troubles des apprentissages, TSA, TDAH) : Les écrans ne peuvent pas en être la cause. "par définition les troubles du neurodéveloppement ne peuvent pas avoir comme cause l'exposition aux écrans". Il insiste sur la fausse information concernant "l'autisme virtuel", qui est une "fake news" nuisible, surtout dans un pays ayant déjà une prise en charge déficitaire des TSA.
      • Symptômes dépressifs des adolescents : "il y a aucune donnée qui suggère ça la dépression c'est multifactoriel et les les réseaux sociaux en tant que tel ça peut pas être la cause de la dépression".
      • Dépendance/Addiction : La communauté médicale n'a pas reconnu d'addiction aux jeux vidéo, aux réseaux sociaux ou à l'usage des écrans en général, "pour l'instant en tout cas en l'état actuel de nos connaissances la communauté médicale a décidé que il n'y avait pas d'addiction ni au jeux vidéos ni aux réseaux sociaux ni à un ensemble d'usages qui peut être fait des des écrans".

      2. Statistiques Clés sur l'Équipement et le Temps d'Écran

      Borst souligne l'importance de s'appuyer sur des données fiables et met en garde contre les sondages peu rigoureux.

      • Difficulté d'évaluation : Il est intrinsèquement difficile d'évaluer le temps d'écran réel des enfants et adolescents.
      • Taux d'exposition : Augmente avec l'âge. La dernière cohorte consolidée pour l'ensemble des enfants et adolescents date de 2017, donc les chiffres actuels sont probablement plus élevés.
      • Équipement personnel (hors smartphone) :7-12 ans : environ 1,6 écran personnel (console, etc.).
      • 13-19 ans : 2,9 écrans personnels.
      • Smartphones :Seulement 35% des 7-12 ans ont un smartphone (contre une idée répandue de 90% ou 100% au collège).
      • L'âge moyen d'acquisition pour ceux qui en possèdent un est de 9 ans et 8 mois.
      • Il est crucial de comprendre que ce chiffre s'applique à une sous-population spécifique, pas à la moyenne générale.
      • Ordinateurs personnels :19% des 7-12 ans.
      • 60% des 13-19 ans.
      • Consoles de jeu :58% des 7-12 ans.
      • 63% des 13-19 ans.
      • Utilisation des smartphones (15-17 ans) : Sur 4h43 d'utilisation déclarée par jour, 2h43 sont consacrées à des activités liées à l'école. Cela "permet de relativiser considérablement je dirais la variable temps d'écran c'est évidemment ça dépend de ce que vous y faites".
      • Accès aux réseaux sociaux :63% des 7-10 ans déclarent être inscrits sur les réseaux sociaux (contre 49% déclaré par les parents), alors que l'âge légal est 13 ans.
      • 91% des 11-14 ans ont accès aux réseaux sociaux.

      3. La Complexité des Effets des Écrans : Corrélation vs. Causalité

      Grégoire Borst insiste sur la distinction fondamentale entre corrélation et causalité, illustrant son propos avec l'exemple humoristique de la consommation de margarine et des taux de divorce.

      • Piège de l'association : De nombreuses études montrent des associations entre le temps d'écran et des effets sur le développement, mais cela ne prouve pas un lien de causalité direct. "on a beaucoup plus de mal à mettre en évidence des liens de causalité".
      • Directionnalité : Une association peut signifier que le temps d'écran affecte le développement, ou que des vulnérabilités préexistantes (liées au développement cognitif et socio-émotionnel) conduisent à une plus grande consommation d'écrans. Seules les études longitudinales peuvent commencer à établir une directionnalité.
      • Variables tierces : L'importance cruciale de contrôler les variables comme le "milieu social d'origine des familles". "Toute étude pour faire simple prochaine étude que vous regardez sur cette questionl si dans le modèle statistique on a va pas contrôler pour le milieu social d'origine vous prenez l'étude vous l'achetez à la poubelle elle veut rien dire en soi".

      4. Effets Spécifiques Documentés et Nuances

      • Développement langagier :
      • Une étude française (coHorte Eden) montre qu'il n'y a pas d'effet du temps global d'exposition à 2 ans sur les compétences langagières à 5-6 ans.
      • Cependant, "quand on a la télé allumée pendant les repas on a des effets négatifs sur le développement langengagé de l'enfant à 5 ou 6 ans".
      • Méta-analyses : Confirment un effet négatif du temps d'écran sur le développement langagier (taille d'effet faible, 16% d'écart-type). Le "bruit de fond" de la télévision a un effet négatif similaire.
      • Co-visionnage et programmes ludo-éducatifs : Des effets positifs sont observés. "le simple covisionnage avec un enfant d'un contenu audiovisuel a un effet positif sur le développement Lang langagé de l'enfant qui est de la même taille que les effets négatifs observés pour le temps d'exposition global".
      • Qualité du contenu : L'enjeu est de sortir de la "question du temps d'écran et qu'on rentre dans quelque chose de beaucoup plus complexe qui est la question de la qualité du contenu et des interactions qui peuvent exister des interactions sociales autour du contenu audiovisuel". Éviter les contenus pauvres en langage oral (ex: Télétubbies).
      • Sommeil : C'est un domaine où "toutes les études sont concordantes globalement" sur l'impact négatif des écrans.
      • Adolescents : impact négatif si utilisé dans l'heure précédant le coucher.
      • Jeunes enfants : impact à tout moment de la journée.
      • Impact en cascade : Le sommeil étant crucial pour le développement cérébral et l'apprentissage, des perturbations peuvent affecter d'autres fonctions cognitives comme le langage.
      • Sensibilisation parentale : 49% des parents d'enfants de moins de 11 ans ignorent l'impact des écrans sur le sommeil de leurs enfants.
      • Facteurs multiples : Le déficit de sommeil des adolescents n'est pas uniquement dû aux écrans ; la structure du système éducatif (heures de cours tôt le matin) y contribue également.
      • Sédentarité : 33% des enfants de moins de 3 ans ne pratiquent aucune activité physique. La sédentarité est liée à l'obésité et aux risques de maladies cardiovasculaires. "C'est un vrai enjeu de santé publique".
      • Réseaux Sociaux et Bien-être Adolescent :
      • Il existe un lien statistique entre le temps passé sur les réseaux sociaux et le bien-être, mais la taille de l'effet est très faible (0,4% du bien-être).
      • Il existe des facteurs de vulnérabilité individuels où l'usage peut avoir des effets négatifs.
      • Effets positifs : Une étude (2016) suggère que le temps passé sur les réseaux sociaux à 10 ans peut avoir un effet positif sur le développement de l'empathie affective et cognitive.

      "les réseaux sociaux ça rend pas les adolescents moins empathiqu de façon générale ça peut même avoir des effets positifs y compris sur des domaines qui relèvent des compétences psychosociales ou socioémotionnelles".

      5. La Place du Numérique à l'École

      Faible équipement en France : Le taux d'équipement numérique des élèves français est "très très faible" comparé à d'autres pays comme la Suède. "on est très en retard sur le numérique éducatif".

      Effets positifs : La mise à disposition d'équipements mobiles individuels (tablettes) à l'école peut avoir "des effets positifs y compris sur les apprentissages scolaires fondamentaux que ce soit en 5e ouou en 4e on a des effets positifs sur les compétences mathématiques sur la compréhension de l'oral et sur la compréhension de l'écrit".

      6. Recommandations et Conclusion

      Le rapport de la commission sur les écrans (disponible sur le site de l'Élysée) propose un ensemble de recommandations, mettant l'accent sur la complexité des enjeux et la nécessité d'une action publique nuancée et informée par la science.

      La conférence souligne l'importance d'un discours mesuré, basé sur des preuves solides, pour éviter les alarmismes infondés et orienter efficacement les politiques publiques.

      L'accent doit être mis sur la qualité des interactions et des contenus, ainsi que sur l'environnement global de développement de l'enfant (sommeil, activité physique, milieu social), plutôt que sur une simple restriction du temps d'écran.

    1. Note de synthèse : Comprendre l'Adolescence à travers le Prisme des Neurosciences et de la Psychologie du Développement (Mathieu Cassotti)

      Cette synthèse est basée sur les extraits de la conférence "C'est pas moi, c'est mon cerveau" de Mathieu Cassotti, Professeur en psychologie du développement à l'Université Paris Cité.

      L'objectif principal de cette intervention est de déconstruire les perceptions souvent négatives et biaisées de l'adolescence pour proposer une compréhension plus nuancée, fondée sur les spécificités du développement cérébral et les interactions avec l'environnement social.

      1. La Perception Biaisée de l'Adolescence

      Traditionnellement, l'adolescence est perçue sous l'angle de la prise de risque, des difficultés et de la vulnérabilité. Les adultes ont du mal à comprendre le fonctionnement des adolescents, et cette incompréhension est réciproque.

      Les adolescents, malgré les cours de biologie, ont peu d'informations sur leur propre cerveau et ses spécificités. La psychologie a souvent abordé l'adolescence sous l'angle des psychopathologies.

      Cassotti et son collègue Grégoire Bord ont cherché à changer cette perspective, arguant que notre perception est souvent biaisée par un "biais de génération" : "on a tendance à considérer que les générations d'après les nôtres sont d'après la nôtre est toujours moins bien que la nôtre les générations d'après sont toujours moins bien ah bah de mon temps on était meilleur".

      Ce biais nous pousse à ne pas suffisamment explorer les aspects positifs de cette période. L'engagement des adolescents pour des causes comme la justice sociale ou le climat est souvent minimisé ou dévalorisé par les adultes.

      Le livre "C'est pas moi, c'est mon cerveau" vise à vulgariser le fonctionnement du cerveau adolescent pour les adolescents eux-mêmes, afin qu'ils "comprennent un petit peu mieux leur fonctionnement pour qu'ils puissent à partir de cette compréhension euh soit euh faire en sorte de changer un certain nombre de comportements soit au contraire de se sentir légitime de pouvoir essayer de de faire quelque chose et d'essayer de le changer".

      2. Le Cerveau Adolescent : Une Période de Développement et de Plasticité

      Le cerveau adolescent, bien que similaire en forme à celui de l'adulte, est encore en plein développement, une période qui peut s'étendre "jusqu'à 25 ans".

      Cette immaturité n'est pas uniquement biologique mais est fortement influencée par l'environnement.

      L'adolescence est une "fenêtre de plasticité particulière" avec des changements tardifs et d'importantes différences interindividuelles (par exemple, le début de la puberté).

      Une découverte clé des 20 dernières années en neurosciences, notamment grâce aux travaux de Bétio Ky, est la maturation progressive et hétérogène du cerveau :

      Les régions impliquées dans la réactivité émotionnelle (système limbique) maturent beaucoup plus rapidement. Les régions impliquées dans la régulation et le contrôle (cortex préfrontal) maturent plus tardivement.

      Ce décalage explique en partie la spécificité de l'adolescence : une "maturation fonctionnelle des systèmes de la réactivité émotionnelle mais pas encore c'est du contrôle".

      Cela conduit à une "hypersensibilité émotionnelle" observée dans de nombreuses recherches, notamment face aux stimuli positifs comme les visages exprimant la joie, qui activent fortement le réseau de la récompense.

      Cependant, cette immaturité n'est pas une "incapacité" mais plutôt une période "en cours d'apprentissage". L'environnement joue un rôle crucial dans le développement de l'autorégulation émotionnelle.

      L'apprentissage de la verbalisation, de l'identification et de la gestion des émotions est essentiel et "très peu enseigné de façon explicite aux adolescents".

      3. Émotions Complexes et Prise de Décision

      L'hypersensibilité émotionnelle des adolescents n'est pas uniforme pour toutes les émotions.

      Si elle est bien établie pour la joie et la peur, les émotions sociales comme la honte, la culpabilité ou la jalousie, ainsi que le regret et le soulagement, sont plus complexes.

      Le Regret : Les adolescents ressentent moins de regret que les adultes et l'anticipent moins.

      Le regret, défini comme la différence entre le résultat obtenu et ce qui aurait pu être obtenu avec un autre choix, est soutenu par le cortex préfrontal, qui est encore immature. Cela peut expliquer une moindre capacité à apprendre de leurs erreurs dans des situations où le regret est un signal d'apprentissage clé.

      Prise de Risque : Concernant la prise de décision et de risque, les adolescents sont "aussi bons que les adultes" à partir de 15 ans lorsqu'ils disposent de toutes les informations nécessaires.

      Cependant, leur capacité à apprendre des feedbacks de l'environnement (positifs ou négatifs) est plus difficile que chez les adultes, en particulier lorsque l'information sur le risque n'est pas explicite et doit être extraite de l'expérience.

      "ce n'est pas uniquement une question de contrôle c'est aussi parce que ils sont pas des preneurs de risque complètement fous c'est c'est aussi parfois une capacité à apprendre de des feedback qu'il vont avoir de leur environnement positif et négatif et donc là c'est plus difficile que chez les adultes".

      4. Influence Sociale et Conformisme

      Contrairement à l'idée répandue, les adolescents ne sont pas "davantage des moutons que nous le sommes nous en tant qu'adultes".

      Les adultes sont également très sensibles au conformisme social, même dans des situations où la bonne réponse est évidente.

      Les études montrent que le conformisme social est maximal chez les enfants et "minimal à l'adolescence à l'âge de 17 ans".

      Cependant, cette tendance s'inverse dans les situations d'incertitude et surtout en contexte social, où les adolescents peuvent montrer une "hypersensibilité au contexte social", particulièrement dans les situations de prise de risque.

      En présence de leurs pairs, ils sont enclins à prendre plus de risques.

      L'imagerie cérébrale révèle que cette influence sociale n'affecte pas le contrôle mais stimule le réseau de la récompense. Deux interprétations sont proposées :

      • Le contexte social stimule la sensibilité aux récompenses immédiates.

      • La "représentation qu'ils ont de la norme sociale de ce qui est valorisé par leur père" inclut la prise de risque, menant à une récompense sociale. Cette seconde interprétation est privilégiée par Cassotti, d'autant plus que l'effet est plus prononcé chez les garçons que chez les filles, reflétant des normes sociales différentes.

      • Lorsque l'observateur change (par exemple, la mère au lieu des pairs), l'activation du striatum ventral (récompense) diminue et les régions de contrôle s'activent, réduisant la prise de risque.

      Cela souligne l'importance des "normes sociales et l'impact en vérité de ces normes sociales sur les adolescents sont sont différentes".

      Il est crucial de travailler sur le conformisme social avec les adolescents, non pour le supprimer (ce qui est impossible), mais pour les aider à "comprendre cette dynamique avoir une vraie représentation explicite du fait qu'il existe ce conformisme social et détecter dans certaines situations où il faut pas se conformer".

      La peur de l'exclusion est un moteur puissant du conformisme, et il est important d'aider les adolescents à relativiser ce "coût affectif".

      5. Écouter et Soutenir les Adolescents : La Créativité comme Moteur

      Cassotti insiste sur l'importance d'écouter davantage les adolescents et de ne pas se contenter de leur dicter des solutions.

      Il propose un "changement de paradigme" où les adolescents deviennent "acteurs de la façon de résoudre les problèmes", en particulier pour des défis complexes comme la transition écologique, pour lesquels les adultes n'ont pas toujours les solutions.

      Le laboratoire de Cassotti s'engage dans la co-conception de recherche avec les adolescents, leur fournissant des "outils pour penser, les outils pour réfléchir par eux-mêmes et proposer les solutions par eux-mêmes".

      La Réactivité Émotionnelle comme Moteur d'Engagement : L'hypersensibilité émotionnelle des adolescents aux injustices sociales peut être un puissant moteur d'exploration et d'engagement.

      Cette réactivité émotionnelle est non seulement plus forte mais "dure plus longtemps dans le temps" que chez les adultes, qui ont tendance à diluer leurs émotions, à utiliser des mécanismes de coping pour réguler les affects négatifs, ou à ne pas savoir quoi faire.

      Cette "spécificité de l'adolescence qu'on peut documenter d'un point de vue neuro" peut être utilisée comme un élément de stimulation pour "une volonté d'agir et de changer les choses".

      Créativité : Les adultes ont souvent des "blocages cognitifs" qui les empêchent de proposer des solutions créatives, retombant au niveau d'enfants de CM1/CM2 pour des problèmes complexes.

      Le cerveau a tendance à rechercher des solutions par analogie, ce qui mène souvent à des réponses convenues et peu originales.

      Par exemple, pour le problème de l'œuf lâché de 10m, la plupart des solutions se regroupent en trois catégories : ralentir la chute, amortir la chute, ou protéger l'œuf.

      Il est essentiel de "sortir de ce cadre là" en explorant de nouvelles connaissances (par exemple, les propriétés naturelles de l'œuf, jouer sur le problème lui-même).

      Même les idées "farfelues" peuvent être précieuses car elles "déclenchent comme activation de connaissance pour pouvoir ensuite aller explorer des solutions nouvelles".

      Il y a un "vrai enjeu à travailler avec les adolescents pour les aider et les soutenir dans leur démarche plutôt que pour les enfermer".

      En somme, Mathieu Cassotti invite à reconsidérer l'adolescence non pas comme une période de problèmes à gérer, mais comme une phase de développement unique avec des spécificités neurologiques et psychologiques qui, si elles sont comprises et soutenues, peuvent devenir de puissants atouts pour l'innovation, l'engagement social et la résolution de problèmes complexes.

    1. Note de synthèse : "Le Gaslighting, outil de pensée et arme d’émancipation" - Hélène Frappat

      • Cette note de synthèse s'appuie sur une retranscription d'une conférence donnée par Hélène Frappat, philosophe, traductrice et écrivaine, autour de son essai "Le Gaslighting ou l'art de faire taire les femmes" (2023).

      L'intervention explore la notion de "gaslighting" non seulement comme concept psychologique, mais aussi comme outil philosophique et politique pour comprendre les mécanismes de manipulation, de déshumanisation et de destruction du langage.

      Thèmes principaux et idées clés :

      1. Le Gaslighting : Un concept philosophique et politique issu du cinéma

      • Origine du terme : Le terme "gaslighting" provient directement du film éponyme de George Cukor (1944), lui-même une adaptation d'une pièce de théâtre. Le film met en scène la manipulation d'une femme par son mari qui la convainc qu'elle est folle, notamment en abaissant l'intensité des lampes à gaz (d'où le nom) et en niant la réalité de ses perceptions.
      • Fonctionnement du gaslighting : Il s'agit d'une destruction du langage humain et du sens commun, une "déliaison" du langage. Le but est de "tuer l'autre dans le langage", de le faire douter de sa propre perception du réel, de le rendre fou ou docile. Frappat souligne que le gaslighting n'est pas tant une question d'intentionnalité psychologique que de mécanismes de pouvoir.
      • Dimension politique du gaslighting : Hélène Frappat étend le concept au-delà des relations interpersonnelles pour l'appliquer à la sphère politique. Elle cite des exemples contemporains comme le macronisme ("bienveillance" détournée de son sens) ou le négationnisme ("qui se souvient des Arméniens ?"), où des mots sont volés, des faits niés, et des réalités alternatives imposées. Elle affirme que le négationnisme est une forme de gaslighting.

      2. Le cinéma comme outil de pensée et de révélation

      • Le cinéma comme "thatrum" : Reprenant l'étymologie du mot "théâtre" (le lieu où l'on regarde), Frappat insiste sur le cinéma comme "lieu du regard", de la "convergence des regards", et donc comme lieu de la pensée et du désir. Elle critique l'utilisation réductrice du cinéma comme simple illustration d'idées.
      • "Les films nous regardent" : Le cinéma n'est pas passif ; il nous confronte, nous interroge et révèle des enjeux très contemporains. Elle analyse le film Gaslight de Cukor comme une réflexion sur le mariage traditionnel comme "maison de l'horreur" et un "manuel de déshumanisation" de la femme.
      • Révolutionner le regard : Le film Basic Instinct de Paul Verhoeven est présenté comme un contrepoint à Vertigo d'Hitchcock. Si dans Vertigo, l'héroïne est "regardée" (et tuée), dans Basic Instinct, l'héroïne "regarde" (et tue), incarnant l'émancipation par le regard et la voix. La "chatte" de Sharon Stone devient un "regard qui nous regarde", un lieu de subjectivité qui tue, une subversion de la prédation du regard masculin.

      3. Le lien entre violence conjugale et violence politique : La voix de la femme niée et réappropriée

      • La voix comme enjeu de pouvoir : L'étranglement de la voix est un thème central. Le film Gaslight montre comment la voix d'Ingrid Bergman est progressivement éteinte, du contenu de ses phrases à la tonalité de son son. Ce mécanisme d'étouffement de la voix féminine est historique.
      • La généalogie de la voix féminine répugnante : S'appuyant sur les travaux d'Anne Carson (The Gender of Sound), Frappat retrace la longue histoire de la dénégation de la voix féminine dans la philosophie grecque, notamment chez Aristote. Celui-ci, par une "pseudo-analogie" absurde entre la machine à tisser et les testicules, lie la voix grave (masculine) à la suprématie politique et la voix aiguë (féminine, homosexuelle, des "calamites") à l'absence d'autorité. La voix de la femme est perçue comme un "flux" lié au corps (utérus, menstruations, larmes), donc impur et répugnant, devant être verrouillé.
      • Le silence comme "cosmos" de la femme : Citant Sophocle ("le silence est le cosmos de la femme"), Frappat souligne que le silence a longtemps été la "loi" imposée aux femmes.
      • L'acte de "pleurer à la place de" : L'écrivaine se voit comme celle qui "pleure à la place de" (référence à Something's Got to Give de Cukor), non pas pour une écriture larmoyante, mais pour incarner un travail d'empathie, de se mettre à la place de l'autre, dévoyé par des discours politiques comme celui de Macron sur la "bienveillance".

      4. La méthode d'écriture : La "nonfiction" et l'analogie comme mode de pensée

      • La forme comme méthode : Pour Hélène Frappat, la méthode d'écriture est intrinsèquement liée à la forme. Elle se reconnaît dans le genre de la "nonfiction" (Rebecca Solnit, Anne Carson), qui transgresse les frontières des genres littéraires et mélange roman, essai, traduction, et critique cinématographique.
      • La démarche analogique : Sa pensée est profondément analogique, cherchant à "faire le lien" entre des domaines, des époques et des œuvres apparemment disparates (philosophie de Kant, tragédie grecque, films hollywoodiens, littérature enfantine comme Fantomette). Elle rejette les hiérarchies bourgeoises du "bon goût" et la chronologie linéaire.
      • L'écriture comme acte de résistance : L'écriture, en particulier le fait de "dire la vérité" et de "témoigner" (comme le journal dans 1984 d'Orwell), est une arme contre le gaslighting. La "suspension consentie de la croyance" (Coleridge), permise par l'ironie, est une manière de ne plus consentir aux récits qui nous nient.
      • L'incarnation et le présent de l'œuvre : Les œuvres, qu'elles soient antiques ou contemporaines, existent au présent pour le lecteur. L'écrivain donne corps aux personnages, les rendant plus réels que certaines personnes.

      Citations marquantes :

      • "Le gaslighting, c'est l'art de faire taire les femmes."
      • "Les films nous regardent."
      • "Le livre [Gaslighting] est autant une enquête qu'une méthode de combat contre les pratiques de gaslighting contemporaines."
      • "La question c'est pas Célan et ce poète grec, la question c'est le lien en fait." (Anne Carson)
      • "Est-ce que je peux pleurer pour toi ?" (Something's Got to Give) – l'épigraphe de Trois femmes disparaissent.
      • "La voix d'une femme est une partie intime." (Les talibans, écho à Aristote)
      • "Le silence est le cosmos de la femme." (Sophocle)
      • "Le plus grand film jamais réalisé sur le mariage, c'est un film d'horreur." (Sur Gaslight de Cukor)
      • "L'intentionnalité, ça nourrit des pensées du péché, c'est pas mon sujet. Et par ailleurs, je ne m'intéresse pas à la psychologie, et George Cukor non plus. Parce que la psychologie nous éloigne de la politique."
      • "Il faut être deux pour commencer à parler, sinon on est fou." (Wittgenstein)
      • "Écrire c'est pas mettre des mots les uns à côté des autres comme on tisse un collier de perles." (Henry James)
      • "La question c'est est-ce que ce qu'elle [Monique Wittig] va dire est intéressant ou pas." (Deleuze)

      En résumé, Hélène Frappat propose une exploration riche et transversale du gaslighting, en le dépeignant comme une violence fondamentale qui s'exerce sur le langage, la perception du réel et la subjectivité, particulièrement celle des femmes.

      Son approche, qui embrasse philosophie, cinéma, littérature et histoire, vise à déconstruire ces mécanismes pour mieux les combattre, en plaçant la forme, le lien, l'empathie et la résistance de la voix au cœur de sa démarche intellectuelle et créative.

    1. Briefing sur "La confiance en soi, un atout vital" - Frédéric Fanget

      • Frédéric Fanget, médecin psychiatre et psychothérapeute, spécialiste des thérapies comportementales et cognitives (TCC), met en lumière l'importance cruciale de la confiance en soi, non seulement pour le bien-être individuel mais aussi comme outil de prévention en santé mentale.

      Selon Fanget, le manque de confiance en soi est le premier motif de consultation en psychologie, 68% des Français doutant de leur intelligence.

      1. Concepts Fondamentaux : Confiance en Soi, Estime de Soi et Affirmation de Soi

      Fanget propose une pyramide de la confiance en soi, divisée en trois concepts interdépendants :

      • Affirmation de soi : Située au sommet de la pyramide, elle représente "comment je me comporte avec les autres". Il s'agit de prendre sa place sans écraser autrui, trouvant un équilibre entre soi et les autres, ni "paillasson" ni "hérisson".
      • Confiance en soi : Il s'agit d'un "sentiment de compétence", basé sur ce que l'on se sent capable de faire.

      C'est une notion contextuelle, on peut être confiant dans un domaine (ex: travail) et moins dans un autre (ex: relations sociales). La confiance en soi implique une "juste appréciation de nos forces et de nos faiblesses".

      • Estime de soi : C'est une "opinion globale que nous avons nous-mêmes et notre valeur", "l'image globale de ce que j'ai de moi".

      Fanget suggère de remplacer progressivement ce concept par celui d'acceptation de soi, car une bonne estime de soi ne doit être "ni trop haute... ni trop basse".

      Elle doit également être stable, avec des fluctuations acceptables en fonction des événements de vie, mais sans les extrêmes observés dans des pathologies comme le trouble bipolaire.

      • Fanget identifie trois formes d'estime de soi, souvent déséquilibrées chez ses patients : * Liée à la performance : "Je m'aime lorsque je suis performant".

      Le risque est l'addiction à la performance et l'effondrement en cas d'échec. * Liée à l'approbation des autres : "Je m'aime si les autres m'aiment".

      Le risque est l'addiction au besoin d'être aimé. * Inconditionnelle : "Je me respecte sans conditions", avec une valeur unique, ni meilleur ni moins bon que les autres, mais avec des points forts et des points faibles.

      C'est la forme d'estime de soi la plus saine, et elle est liée au concept d'acceptation de soi.

      2. Causes du Manque de Confiance en Soi : Un Modèle Bio-Psycho-Social

      Frédéric Fanget utilise un modèle à trois dimensions pour expliquer les causes du manque de confiance en soi :

      • Facteurs biologiques (Neurosciences) : Les études génétiques, notamment sur des jumeaux, suggèrent qu'"un tiers de facteur génétique et deux tiers de facteurs environnementaux" influencent le manque de confiance en soi.

      La métacognition – la capacité à évaluer sa propre fiabilité – est étroitement liée à la confiance en soi.

      Des études d'imagerie cérébrale ont montré que les personnes ayant une meilleure métacognition possèdent plus de matière grise dans le cortex préfrontal antérieur, indiquant une base neurologique à cette capacité.

      • Facteurs psychologiques : Fanget décrit sept "préjugés capitaux" qui minent la confiance en soi et qui se manifestent souvent en "cercles vicieux" entre comportements, émotions et cognitions (pensées) :

      • "Je ne suis pas capable de"

      • "J'ai besoin qu'on m'aime" (besoin d'approbation)
      • "Je me trouve nul"
      • "Je dois faire toujours mieux" (perfectionnisme)
      • "Je n'arrive pas à me décider" (indécision)
      • "Je dois toujours me faire des soucis"
      • "Je dois me méfier des autres" (souvent lié à un traumatisme)

      • Ces préjugés entraînent des boucles de pensées négatives qui renforcent le schéma initial, par exemple, le perfectionnisme qui, à la longue, fait baisser l'estime de soi.

      • Facteurs sociaux : L'environnement social (vie professionnelle, amicale, etc.) joue un rôle crucial.

      Fanget souligne l'importance de prendre en compte le contexte social dans l'évaluation et le traitement des problèmes de confiance en soi.

      3. Thérapie de la Confiance en Soi : Comprendre, Agir, Accepter

      La psychothérapie, selon Fanget, ne vise pas seulement à résoudre les problèmes, mais surtout à "aider ceux qui se comprennent mieux eux-mêmes". Elle se déroule en deux phases :

      • Phase de compréhension : Il s'agit d'aider le patient à cerner ses problèmes ("tout ce qui va pas"), mais aussi et surtout à "lui montrer qu'il a un potentiel, qu'il peut faire plein de choses, qu'il a plein de ressources en lui".

      Le thérapeute doit aider le patient à découvrir ses compétences souvent inaperçues.

      • Phase d'action et de solution : Cela implique de "changer mes comportements, changer mes cognitions, changer mes émotions", mais aussi, et c'est un point essentiel, "de s'accepter".

      Certaines choses ne peuvent pas être changées, et l'acceptation de l'inconfort ou des différences est fondamentale pour éviter le "syndrome du perfectionnisme thérapeutique".

      La thérapie de la confiance en soi se décline en trois piliers :

      • Savoir s'affirmer : Améliorer la relation avec les autres en adoptant un comportement affirmé, équilibré, respectueux, sans être passif, agressif ou manipulateur. Fanget présente la méthode "DES" (Décrire la situation,

      Exprimer ses émotions, Suggérer une solution positive et ses conséquences positives) comme un moyen de "critiquer calmement et constructivement".

      Ce comportement affirmé est "libérateur" et "protecteur" face aux agressions et aux demandes excessives (comme celles menant au burn-out).

      L'affirmation de soi passe aussi par le travail sur la "voix intérieure" ou "voix critique intérieure" (VCI), souvent héritée du passé (voix parentale).

      Il s'agit de "répondre à notre voix intérieure issue du passé" pour modifier les pensées automatiques qui inhibent l'affirmation.

      Apprendre la "bienveillance envers soi-même", en se parlant comme on parlerait à "notre meilleure amie", est une technique clé.

      • Savoir agir : L'action est l'ennemi de la procrastination et un pilier de la confiance en soi. Il faut "s'engager dans l'action mais en acceptant l'échec, l'erreur ou le résultat imparfait".

      La méthode de l'action se déroule en trois temps :

      • Avant l'action : Se préparer, prendre des décisions, "braver l'appel de l'échec".
      • Pendant l'action : Être conscient des exigences trop élevées, ne pas hésiter à demander de l'aide.

      • Après l'action : S'encourager soi-même, se renforcer sur l'effort (être content d'avoir essayé), sur l'émotion positive (fierté), et sur le courage.

      • Savoir se connaître, s'accepter, se respecter : Cela implique de travailler sur l'estime de soi et l'acceptation de soi. Les thérapies cognitives aident à distinguer les auto-jugements négatifs des faits.

      La thérapie des schémas permet de comprendre et de modifier les schémas infantiles.

      L'ACT (Acceptation and Commitment Therapy) est un mouvement thérapeutique majeur qui vise à "mieux s'accepter" et à vivre en accord avec ses valeurs, même en présence d'anxiété.

      En conclusion, Frédéric Fanget insiste sur l'importance d'une vision objective du patient, en identifiant non seulement ses difficultés, mais aussi et surtout son "potentiel".

      La thérapie de la confiance en soi est un chemin vers une meilleure compréhension de soi, l'action courageuse et l'acceptation de qui l'on est, dans ses forces et ses faiblesses.

    1. Document de Synthèse : Sociologie de la Défiance et de l'Adhésion aux Croyances dans le Domaine Scientifique

      Ce document explore la sociologie de la défiance et de l'adhésion aux croyances scientifiques, en se concentrant sur l'affaire Wakefield et ses répercussions sur la confiance vaccinale.

      L'analyse met en lumière le rôle des médias, les normes scientifiques, le contexte social et la diffusion des informations sur internet.

      1. Cadre Sociologique et Point de Vue de l'Auteure

      • Romy Sauvayre, l'auteure, se positionne dans une approche sociologique qui étudie "les raisons pour lesquelles les acteurs sociaux vont faire ce qu'ils font, croire ce qu'ils croient".

      Elle ne cherche pas à déterminer ce qui est "vrai" ou "faux" en soi, mais plutôt ce que les scientifiques considèrent comme tel à un moment donné, reconnaissant que cette perception peut évoluer.

      Son analyse se concentre sur "la relation entre empirique et perception qu'on a de recherche scientifique". * 2. L'Affaire Wakefield : Une Chronologie et ses Effets

      L'affaire Wakefield est un cas d'étude central pour comprendre la défiance vaccinale.

      • Origine (1998) : Le Dr. Andrew Wakefield, gastro-entérologue, publie un article dans la revue The Lancet suggérant un lien entre le vaccin ROR (rougeole, oreillons, rubéole) et l'inflammation intestinale, et potentiellement l'autisme. Il est important de noter que l'article était publié sous l'étiquette "article de prévention", indiquant qu'il s'agissait d'une recherche préliminaire et non d'une preuve définitive. Les co-auteurs eux-mêmes n'ont pas établi de lien direct entre l'autisme et les vaccins, seulement entre le vaccin et la maladie intestinale.
      • Contexte Préexistant à la Publication :
      • Crise de la Vache Folle (ESB) : De 1985 à 2000, la crise de la vache folle a fortement érodé la confiance du public britannique envers les scientifiques et le gouvernement. "La science elle dit soyez sûrs c'est un cas de déviation britannique qui est appelé chance dans la science". Cela a créé un terrain fertile pour la méfiance envers les déclarations scientifiques officielles.
      • Retrait de Vaccins ROR (1992) : Deux vaccins ROR avaient déjà été retirés du marché six ans plus tôt en raison d'effets secondaires, renforçant les craintes préexistantes.
      • Rôle des Médias (1998-2004) :
      • Soutien Initiale : Les médias britanniques, en particulier le Sunday Times et le Panorama de la BBC (émission "MMR: What The Doctors Won't Tell You" en 2002), ont "promptement soutenu la thèse de Wakefield". Ils ont accordé une grande visibilité à Wakefield, en partie parce qu'il était un expert reconnu et avait un statut académique important (76 publications, senior researcher).
      • Biais de Diffusion : Les journalistes ont "davantage diffusé la thème de Wakefield que toute autre thèse", en privilégiant les études qui abondaient dans son sens et en "ne médiatisant pas" les études remettant en cause son hypothèse. Le pic de médiatisation a eu lieu en 2002, suite au documentaire de la BBC.
      • Conséquence Directe : Cette médiatisation a eu un "impact énorme sur la vaccination des génies". On observe une "chute conséquente du taux de vaccination" après la publication de l'article de Wakefield en février 1998, et pendant toute la période de médiatisation. Le taux de vaccination ROR est passé de 92% à 83% dans certaines régions du Royaume-Uni.

      3. Point de Vue des Scientifiques et Contestations

      Bien que les médias aient initialement soutenu Wakefield, la communauté scientifique n'était "pas unanime" et des contestations ont rapidement émergé.

      • Critiques Méthodologiques (Dès 1998) :
      • Taille de l'Échantillon : L'étude de Wakefield portait sur seulement 12 enfants, un nombre jugé insuffisant pour tirer des conclusions générales. "12 c'est quand même pas bon".
      • Manque de Groupe Témoin et de Double Aveugle : La méthodologie ne comprenait pas de groupe de contrôle ni de protocole en double aveugle, des normes aujourd'hui "très valorisée" en recherche médicale.
      • Biais de Sélection et Conflits d'Intérêts : Le recrutement des enfants s'est fait via un "réseau d'association de personnes plaignantes qui pensaient que le vaccin contre la rougeole posait l'autisme", suggérant un biais de sélection. Il a été révélé plus tard que Wakefield avait des "conflits d'intérêt" et des "fins pour pouvoir apporter des preuves en faveur de son hypothèse".
      • Données Partielles et Antécédents : Les données rapportées étaient partielles, et les travaux précédents de Wakefield, bien que reçus, contenaient déjà des "problèmes méthodologiques" qui rendaient difficile la détection d'un virus dans l'intestin.
      • Réponse des Institutions Scientifiques :
      • Académie des Sciences : L'Académie des Sciences a initialement déclaré ne pas avoir "les moyens de falsifier l'hypothèse de Wakefield", ce qui, selon l'auteure, n'aurait pas dû être interprété comme une validation. En sciences médicales, on ne se prononce qu'avec des preuves suffisantes.
      • Institute of Medicine (2004) : En 2004, l'Institute of Medicine a publié un rapport concluant qu'il n'y avait "pas de danger à inoculer le vaccin ROR", marquant un tournant.

      4. Le Rôle de l'Investigation Journalistique et la Rétractation

      Le changement de perception médiatique est dû à une enquête journalistique approfondie.

      • Enquête du Sunday Times (2004) : Brian Deer, un journaliste d'investigation du Sunday Times, a mené une enquête minutieuse, rencontrant tous les acteurs et consultant les dossiers d'éthique. Il a "constaté qu'il y a des examens invasifs sur les enfants" (colonoscopies, fonctions d'anglais) qui n'étaient "pas possibles" ou "inacceptables" d'un point de vue éthique. Cette révélation a alerté le conseil de l'ordre.
      • Arrêt du Soutien Médiatique : Suite à ces révélations, "les médias arrêtent de soutenir" Wakefield.
      • Radiation de Wakefield (2010) : Le Conseil Général Médical (General Medical Council) a mené une longue enquête (2004-2010), culminant par le "retrait le droit d'exercer" à Wakefield en 2010. L'article original a été "retiré en 2010" par The Lancet. Les motifs incluaient des "conflits d'intérêt" et la réalisation d'"examens organisés pour les fonds et sur le peuple sans collectivité".

      5. L'Ère d'Internet et la Persistance de la Défiance

      Malgré la radiation de Wakefield et le retrait de son article, la défiance vaccinale a persisté, amplifiée par les plateformes numériques.

      • Diffusion de Théories Conspirationnistes : Wakefield a "publié un qui s'appelle conspirationnisme" après sa radiation. Il a affirmé que ses découvertes étaient si importantes que l'industrie pharmaceutique tentait de le "faire taire". "Bref il était donc sur le groupe d'une machination pour le feu terre".
      • Documentaire "Vaxxed" (2016) : En 2016, Wakefield a publié un documentaire "Vaxxed" sur les réseaux sociaux, qui "tient pour consiste le conspirationnisme de santé CDC", affirmant que le CDC (Centers for Disease Control and Prevention) aurait "caché des dans son et il continue à diffuser ça".
      • Rôle des Réseaux Sociaux : Les réseaux sociaux ont permis une "division très massive de ces antivaccinisme". La défiance vaccinale a été "d'abord puis sur les différentes réseaux sociaux". L'auteure souligne que le manque de validation scientifique ne freine pas la diffusion : "On est tous des cobages, c'est un maxin expérimental voilà ce qui se sur les réseaux sociaux".
      • Influence sur la Perception : La persistance de l'antivaccinisme est également liée à des mécanismes psychologiques : "si quelqu'un est gentil avec vous curieusement vous lui faites" confiance. La diffusion de ces idées est alimentée par des "personnes" qui "disent des choses comme ça affirmative", tandis que les scientifiques, dans leur rôle, "doivent toujours parler avec précaution" car les preuves sont "toujours sous une" incertitude jusqu'à confirmation par de multiples études.
      • Conséquences Durables : Malgré les efforts pour rétablir la confiance, "la défiance qu'il n'y avait à monde se sur les réseaux sociaux se retrouve avec une plus grande population de défis qui n'ont pas". En France, une partie de la population (environ 35%) "continue à marquer vacc".

      6. Leçons Apprises et Précautions

      Nécessité de la Précaution Scientifique : "Il est nécessaire d'être près que pressionner avec des études". La science exige une multiplicité de preuves et des méta-analyses pour valider les conclusions. Critique des Sources : L'auteure conseille de se méfier des informations sur les réseaux sociaux et de privilégier les sources fiables comme Google Scholar pour les questions médicales, qui "font des analyses sur plein de sujets libres" et permettent d'"assurer d'avoir une information juste".

      Responsabilité des Journalistes : Les journalistes ont une "part de responsabilité" dans la diffusion d'études minoritaires et contestées. Ils devraient "diffuser davantage l'information que la précaution" quand ils se basent sur un consensus scientifique majoritaire.

      En conclusion, l'affaire Wakefield illustre la complexité de la diffusion des croyances scientifiques, l'impact majeur du contexte socio-historique, le rôle ambivalent des médias (initialement facilitateurs de la désinformation, puis correcteurs par l'investigation), et la capacité d'internet à perpétuer et amplifier la défiance, même face à un consensus scientifique établi.

    1. Compte-rendu détaillé : Labels et marques - leviers de différenciation

      • Contexte du Webinaire : Ce webinaire, animé par Débora Récher de Logitourisme, s'inscrit dans le parcours "Expérience client" pour Moselle Académie.

      L'objectif est d'éclairer les professionnels du tourisme, de la culture et de la gastronomie sur la distinction et les bénéfices des labels et marques comme outils de différenciation dans un marché concurrentiel.

      1. Distinction entre Labels et Marques

      Il est crucial de bien différencier un label d'une marque, car ils remplissent des fonctions distinctes :

      • Label : Un label est un "signe officiel ou privé... reconnaissant une qualité ou un engagement selon un cahier des charges bien précis." (Débora Récher). Il certifie le respect de critères spécifiques.
      • Exemples cités : Gîtes de France, Clé Vacances (hébergement), Qualité Tourisme (qui deviendra Destination d'Excellence), Accueil Vélo, Tourisme et Handicap.
      • Caractéristique clé : Basé sur une grille de critères, il permet ou non d'être labellisé.
      • Marque : Une marque est "une identité d'une organisation, c'est d'un territoire, c'est porteuse de valeur et d'image. Très souvent la marque c'est du marketing, c'est ce qui permet d'être d'être clairement identifié." (Débora Récher). Elle représente une identité forte, souvent déposée auprès de l'INPI pour se protéger de la concurrence.
      • Exemples cités : Nike (marque de consommation courante), Esprit Parc National, Moselle (marque territoriale), Normandie Impressionniste.
      • Caractéristique clé : Axée sur le marketing et la communication de valeurs et d'une image.

      2. Pourquoi choisir un Label ou une Marque ?

      Le choix d'un label ou d'une marque est volontaire et vise à :

      • Se différencier dans un marché concurrentiel : Le tourisme en France est un secteur "extrêmement concurrentiel" (Débora Récher), avec une offre pléthorique. Labels et marques permettent de se distinguer.
      • Garantir le sérieux et la qualité : Ils offrent "une gage de sérieux et de qualité" pour le consommateur, qui doit "avoir compris ce qu'il y avait derrière ce label et que ce label a du sens." (Débora Récher).
      • Bénéficier d'une reconnaissance :Officielle/Institutionnelle : Comme l'aide à la création d'hébergements conditionnée à l'affiliation à un label.
      • Territoriale : Une marque territoriale partagée et connue, pouvant être "prescripteur, ambassadeur et fasse vivre une marque" (Débora Récher).
      • Valoriser des engagements spécifiques : Qualité, durabilité, accueil spécifique (ex: Accueil Vélo pour la clientèle cycliste, Tourisme et Handicap pour l'inclusivité). Cela "rassure" le client.
      • Profiter d'un réseau et d'une promotion collective : Travailler en réseau est "beaucoup plus simple que travailler tout seul dans son dans son coin" (Débora Récher), offrant une dynamique collective, promotion et parfois formations.
      • Renforcer la confiance des clientèles : C'est un objectif primordial.

      3. Pièges à éviter et Précautions

      • Ne pas accumuler les labels : "Plus c'est pas parce que plus vous en avez que plus vous serez visible, parfois ça brouille complètement la lisibilité on ne sait plus qui vous êtes et ce que vous êtes." (Débora Récher).
      • Cohérence avec les valeurs et la clientèle cible : Un label doit être "cohérent avec vos valeurs et votre clientèle cible" (Débora Récher). Une communication "qui va pour tout le monde à tout va... vous communiquez dans le vide." (Débora Récher).
      • Engagement sincère : Au-delà de l'opportunisme, il doit y avoir un "engagement sincère". Si les clients ne retrouvent pas les engagements du label (ex: écolabels), cela sera "contreproductif" et entraînera insatisfaction, notamment via les réseaux sociaux.

      4. Comment choisir son Label ou sa Marque ?

      • Le choix doit être stratégique et réfléchi :
      • Définir les objectifs : Qualité, visibilité, accompagnement.
      • Identifier les valeurs à mettre en avant : "Les valeurs que vous voulez vous mettre en avant on en a parlé ça c'est très important" (Débora Récher).
      • Cibler la clientèle : À qui s'adresse le produit ou le service ?
      • Évaluer la notoriété et le dynamisme du label/marque : Est-il reconnu par la clientèle ? Quelles sont les actions menées par les porteurs du label ?
      • Estimer l'effort et l'engagement requis : Êtes-vous prêt à modifier des pratiques ou des équipements ?
      • Le coût de la cotisation : Ne doit pas être le facteur de choix principal, car "le prix est une notion relative pour peu que derrière vous ayez le service attendu." (Débora Récher). L'important est la stratégie et le bénéfice escompté.

      5. Exemples Inspirants par Secteur

      Débora Récher a présenté de nombreux exemples de labels et marques, illustrant leur diversité et leur pertinence :

      • Tourisme :Qualité d'accueil : Qualité Tourisme, Gîtes de France, Clé Vacances.
      • Thématiques : Accueil Vélo, Tourisme et Handicap (inclusif, pour différents types de handicaps, personnes âgées, familles avec poussettes).
      • Marques de territoire/destination : OnlyLyon, Esprit Parc, Valeurs Parc, Alsace (avec son logo en forme de bretzel).
      • Spécifiques : Famille Plus (destinations adaptées aux familles), Pavillon Bleu (plages et ports propres), Jardin Remarquable (jardins d'exception), Entreprise du Patrimoine Vivant (savoir-faire artisanaux et industriels d'excellence).
      • Culture et Patrimoine :Généralistes : Ville et Pays d'Art et d'Histoire (valorise politique culturelle ambitieuse), UNESCO (sites culturels/naturels d'exception).
      • Spécifiques : Patrimoine du 20e Siècle (architectures modernes/post-industrielles), Maison des Illustres (lieux liés à personnages célèbres).
      • Équipements culturels : Scène Nationale, Musées de France (garantissent conservation, valorisation, expertise scientifique), France Muséum (exportation savoir-faire muséal français).
      • Événements : Festivals de musique labellisés, événements éco-engagés (réduction déchets, etc.).
      • Itinéraires : Itinéraires culturels européens (ex: Route des Abbayes Cisterciennes).
      • Artisanat (compléments) : Qualités Artisan Métier d'Art, MOF, Maître Artisan, France Terre Textile (pour les Vosges).
      • Gastronomie et Terroir :Produits : AOP, AOC, IGP (ex: Mirabelle de Lorraine, Vin de Moselle, Quiche Lorraine), Label Rouge (produits de qualité supérieure), Agriculture Biologique.
      • Tourisme œnologique et circuits gourmands : Vignobles et Découvertes, Route des Vins de Moselle, Vallée de la Gastronomie.
      • Accueil à la ferme : Bienvenue à la Ferme (favorise vente directe et accueil touristique, répond à la demande de "circuit court" et consommation locale).
      • Restauration : Collège Culinaire de France, Tables Distinguées, Bistrot de Pays, Écotable (restauration durable et responsable).

      6. Le Cas Spécifique de la Moselle

      La Moselle offre un exemple intéressant d'imbrication entre marque et label :

      • La marque "Moselle" (Moselle Sans Limite) : Lancée par le département en 2017, c'est une "marque territoriale" qui vise à "valoriser l'attractivité globale du territoire" (Débora Récher), incluant le tourisme, l'économie, la gastronomie, l'artisanat et la culture. C'est une bannière pour tous.
      • Le label "Qualité Moselle" : Attribué aux produits, savoir-faire, hébergements, artisans et restaurateurs qui respectent un cahier des charges de qualité et ont un "ancrage local fort." (Débora Récher).
      • L'un soutient l'autre : on peut utiliser le logo de la marque Moselle sur son site pour communiquer l'identité globale, et aller plus loin en obtenant le label Qualité Moselle pour valoriser un savoir-faire précis et gagner en visibilité commerciale. Cette synergie locale est essentielle : "Plus elle est partagée par tous, c'est-à-dire les prestataires, les professionnels, plus elle va être visible." (Débora Récher). Cela garantit "qualité et identité locale", rassure le client sur l'authenticité et la provenance locale des produits et services.

      7. Bilan et Recommandations Clés

      • Choisir 1 à 3 labels/marques maximum : Pour maintenir une stratégie "lisible".
      • Intégrer la stratégie de labellisation : Le choix doit être intégré à l'offre, la communication et l'équipe. "Travaillez votre marque et travaillez votre label pour en tirer le meilleur profit." (Débora Récher).
      • Utiliser les labels/marques dans la communication : Les intégrer dans les supports de communication et la stratégie marketing.
      • Suivre les résultats : Ne pas se limiter au retour sur investissement direct. Surveiller l'image améliorée, la notoriété accrue, la visibilité, l'acquisition de nouvelles clientèles et la satisfaction client. Les avis clients en ligne sont des indicateurs "très forts" (Débora Récher), et un label reconnu peut "impacter directement l'image de votre établissement d'un point de vue positif".
      • Un label est un outil, pas une fin en soi : "Le label doit servir votre stratégie marketing, votre stratégie de communication." (Débora Récher). Ne pas être déçu si un label n'est pas obtenu, d'autres options peuvent être plus adaptées.
      • Nécessité d'une présence en ligne : Un site internet est "rigoureusement nécessaire pour démarrer" (Débora Récher). 80% des touristes préparent leur séjour en ligne et près de la moitié réservent directement. Les clients croisent les informations (ex: Airbnb et site internet propre) pour se rassurer.

      Conseils supplémentaires :

      Demander les cahiers des charges des labels pertinents. Contacter les institutions (Moselle Attractivité, labels nationaux) pour des renseignements et un accompagnement.

      Évaluer les services d'accompagnement individuels souvent proposés par les labels.

      Faire du benchmarking : consulter les expériences d'autres professionnels labellisés.

    1. ote de synthèse : L'affectivité, les émotions et les relations à l'école selon Gaëlle Espinosa

      Cette présentation de Gaëlle Espinosa, professeure en sciences de l'éducation à l'Université de Lorraine, s'inscrit dans le cycle de conférences Filgout.

      Elle explore l'importance de l'affectivité, des émotions et des relations à l'école, tant entre enseignants et élèves qu'entre pairs.

      S'appuyant sur 25 ans de recherche, elle met en lumière les enjeux et les liens entre ces concepts et le bien-être et la réussite des élèves.

      I. Parcours et objets de recherche de Gaëlle Espinosa

      Gaëlle Espinosa est chercheuse au Lisec (Laboratoire Interuniversitaire des Sciences de l'Éducation et de la Communication) depuis 2005 et collaboratrice internationale du réseau québécois Réverbire (réseau de recherche et de valorisation de la recherche sur le bien-être et la réussite).

      Elle participe également à l'Observatoire du Bien-être à l'École.

      Ses travaux, menés depuis 25 ans, se concentrent sur l'expérience scolaire de l'élève, son rapport à l'école, au savoir et à l'enseignant, en interrogeant ce qu'il ressent et les émotions vécues.

      Elle ne s'intéresse pas prioritairement aux notes et au cognitif, mais plutôt à "ce que l'expérience scolaire fait émotionnellement affectivement à l'enfant".

      Progressivement, elle a intégré les concepts de bien-être et de réussite dans ses recherches, ainsi que les compétences psychosociales (CPS), choix de l'Éducation nationale pour aborder l'affectivité et les émotions.

      II. Premiers travaux et constatations (Ouvrage de 2003)

      Son premier ouvrage, issu de son doctorat (2001), s'intitule "Rapport au savoir, rapport au maître et affectivité : contribution à une analyse du chemin scolaire de l'élève".

      Il a été particulièrement bien accueilli au Québec, influençant le ministère de l'Éducation québécois.

      L'étude, menée auprès de 32 élèves de CE2 et de Seconde, en difficulté ou en réussite scolaire, a mis en évidence des résultats importants concernant la relation enseignant-élève :

      • L'enseignant, figure clé : Tous les élèves interrogés accordent une place importante à l'enseignant dans leurs apprentissages, le considérant comme un "personnage clé de leur expérience scolaire".

      Différences entre élèves en réussite et en difficulté :

      • Élèves en réussite : Attendent un "échange professionnel", c'est-à-dire un apport de contenu pour l'obtention du baccalauréat ou l'orientation.

      • Élèves en difficulté : Outre l'exigence professionnelle, ils ont une "exigence plus humaine" dans la relation. Ils souhaitent que l'enseignant les reconnaisse en tant qu'individus et se préoccupe d'eux au-delà de leurs difficultés scolaires.

      • Centralité de l'enseignant pour les élèves en difficulté : Ce sont "plutôt les élèves en difficulté scolaire, tout compte fait, qui avaient accordé une place centrale à l'enseignant dans leur expérience scolaire et dans leur scolarité".

      • Les plus jeunes (CE2) ont tendance à "confondre leur année (...) avec l'enseignant".

      • Les plus âgés (Seconde) pensent que "carrément sans tel ou tel enseignant, on ne pouvait pas réussir".

      • L'affectivité, pas seulement pour les plus petits : Les élèves en difficulté, notamment les plus âgés, sont "en forte demande affective humaine à l'égard des enseignants".

      Les recherches futures, notamment au Québec, ont confirmé que même les adultes en formation sont "en demande affective, en demande de relation humaine avec les enseignants pour réussir par exemple ou pour persévérer".

      III. Évolution des recherches et ouvrage à paraître (2025)

      Après avoir exploré d'autres objets de recherche (liaison CM2-6ème, activités périscolaires), Gaëlle Espinosa est revenue à ses "premiers amours de recherche", constatant que l'affectivité et les émotions étaient toujours au cœur de l'expérience scolaire.

      Son prochain ouvrage, issu de son Habilitation à Diriger des Recherches (2021), s'intitule "De l'affectivité et des émotions de l'élève dans son expérience scolaire : perspective de développement global de l'enfant pour son bien-être et sa réussite".

      L'objectif est de "rendre explicite des liens implicites qui existent" entre les différents concepts et de montrer qu'à l'international, la littérature existe sur l'intérêt de combiner les aspects affectifs et cognitifs pour le développement global de l'enfant.

      Le livre, structuré en quatre chapitres, définit les notions de bien-être, d'affectivité, d'émotions, de satisfaction et leurs liens. Il aborde plus particulièrement les émotions, l'affectivité, et les relations de l'élève à l'école.

      IV. Idées fondamentales du nouvel ouvrage

      Gaëlle Espinosa propose de "considérer que l'affectivité, les émotions sont des éléments d'importance équivalente à la cognition dans l'école".

      Elle estime qu'en France, "on a un petit peu de mal (...) à considérer que les éléments affectifs et émotionnels devraient être pris en compte travailler autant que les aspects cognitifs et intellectuels à l'école." Mettre à égalité ces sphères permettrait d'aller vers le bien-être et la réussite de l'enfant.

      Elle explicite plusieurs liens cruciaux :

      • Affectivité, émotions et bien-être : Les émotions sont une composante de l'affectivité, et les affects positifs et négatifs sont deux des trois composantes du bien-être subjectif (avec la satisfaction à l'égard de la vie).

      Une personne satisfaite de la vie ressentira fréquemment des émotions positives et rarement des émotions négatives.

      • Bien-être et relations positives : Le bien-être eudémonique, notamment le bien-être psychologique, comprend des composantes liées aux "relations positives avec les autres". Ces relations de qualité renvoient à l'aspect humain et affectif.

      V. Relations de qualité à l'école : enseignants-élèves et entre pairs

      La littérature scientifique, depuis la fin des années 90, démontre qu'une "relation enseignant-élève positive ou en tout cas une relation affective" est bénéfique à la fois pour l'individu dans et hors de l'établissement scolaire.

      Bénéfices internes : persévérance, réussite, comportements scolaires adaptés. Bénéfices externes : baisse de la dépression, de l'anxiété, de la délinquance.

      La dimension affective de la relation enseignant-élève inclut la "confiance, l'intimité, la proximité, la communication, le partage, l'affect positif", le "soutien émotionnel, la chaleur émotionnelle, l'acceptation".

      • Les relations entre enfants de qualité ou positives impliquent également la "confiance, l'intimité, se partager des secrets", le "soutien émotionnel", la "chaleur émotionnelle, l'acceptation", ainsi que "l'amitié, les liens électifs".

      Ces liens "sont importants à l'école et tout compte fait, je me dis que pour développer des relations de qualité (...) ce qui est aussi intéressant, c'est de développer des relations qui pourraient être qualifiées avec tous ces qualificatifs."

      VI. Complémentarité des recherches : psychologie et sociologie

      • Gaëlle Espinosa souligne la complémentarité des travaux menés en psychologie (facteurs de risque/protection des relations entre enfants à l'école, psychologie de l'amitié) et en sociologie (climat scolaire, harcèlement, violence).

      Ces approches, bien que distinctes, s'enrichissent mutuellement pour comprendre et agir sur le climat scolaire et les relations interindividuelles.

      Le climat scolaire, dimension collective, vise la sécurité et la progression des apprentissages.

      La "finalité commune" de ces travaux est d'avoir "une connaissance assez fine de l'ensemble des dimensions qui existent et sur lesquelles on peut travailler en établissement scolaire pour permettre tout simplement l'installation de un climat scolaire serein ou de relations apaisées à l'école qui serait au bénéfice à la fois des élèves dans leur expérience scolaire mais aussi des enseignants dans leur pratique professionnelle."

      Elle intègre également les notions de bienveillance et d'empathie dans ce cadre.

      La bienveillance, souvent mentionnée dans les textes de loi, est une "posture éthique" dans la relation enseignant-élève, tandis que l'empathie est plus pertinente pour les relations entre enfants.

      VII. Intérêt de travailler les émotions et les relations à l'école

      • Compréhension de soi et des autres : La capacité d'un élève à comprendre "ce qu'il ressent", ses "affectivités, ses émotions", et celles des autres, est "déterminant de sa réussite scolaire" et a des "conséquences plutôt positives sur la qualité de ses comportements sociaux".

      • Disponibilité pour les apprentissages : Comprendre et réguler ses émotions permet de "se rendre plus disponible pour les apprentissages" et d'être "plus apaisé dans ces relations sociales". Comme le résume une citation,

      "Les capacités à exprimer, discriminer, identifier et réguler ses émotions font partie de ce que les chercheurs appellent les compétences émotionnelles. (...)

      Le développement de ces compétences chez l'enfant est un aspect important du développement cognitif qui est relié à de nombreux facteurs tels que les comportements sociaux, les performances, la santé.

      Le développement de ces compétences est donc d'une importance capitale. Il est possible de les entraîner dès le plus jeune âge et (...) tout au long de la vie."

      • Développement socio-émotionnel et bien-être : Apprendre à exprimer ses émotions est un "élément clé de son développement socio-émotionnel pour l'enfant" et de sa santé, favorisant sa réussite et son bien-être scolaire.

      VIII. Pistes pour développer des relations de qualité

      • S'en occuper au quotidien : Les émotions et les relations doivent être une préoccupation quotidienne, tant pour les élèves que pour les professionnels, et non seulement en cas de problème. Cela représente également un élément de protection pour soi-même.

      • Formation des enseignants : Il est crucial d'intégrer la formation sur l'affectivité, les émotions et les relations dans la formation initiale et continue des enseignants. Au Québec, ces notions sont déjà plus ancrées.

      • Construction de la posture enseignante : Permettre à l'enseignant de "construire sa posture qui sera aussi évolutive", être indulgent avec soi-même dans cette construction, apprendre par "tâtonnement, les essais et les erreurs".

      • Réflexion sur la relation enseignant-élève : Qu'est-ce qu'une relation de qualité ? Qu'est-ce qu'un élève attend ? Quelles sont les limites à ne pas dépasser ?

      • Questionner son propre rapport aux élèves : Éviter de "ne plus prendre plaisir à être dans une salle de classe" ou de ne pas "tisser des liens présent avec beaucoup d'envie ou à beaucoup de plaisir avec des élèves".

      • Travailler ses propres compétences psychosociales (CPS) : Elles sont essentielles pour la réflexivité, pour soi et pour les autres, et constituent un "élément de protection".

      IX. Conclusion : Un projet de société éducatif

      Gaëlle Espinosa conclut en proposant un "projet de société éducatif" basé sur trois "clés de voûte" :

      La régulation émotionnelle

      La maturité relationnelle La disponibilité intellectuelle (qui découlerait des deux premières).

      Ces objectifs permettraient à l'élève de devenir autonome et mature relationnellement, de parvenir à son autorégulation émotionnelle, et d'être plus disponible pour les apprentissages, menant ainsi à son bien-être et sa réussite.

      Elle insiste sur le fait qu'un tel projet "demande du temps" et une constance politique, sans "changer de cap", pour que l'affectivité et les émotions soient positionnées** "au même niveau que la cognition".

      X. Précisions terminologiques

      • Affectivité vs Émotions : L'affectivité est un concept plus large, incluant les émotions, les sentiments, les humeurs, la motivation et la confiance en soi.

      Les émotions sont une composante plus précise de l'affectivité.

      • Confiance en soi : Liée aux pratiques, construite par le tâtonnement, les essais et les erreurs, et par l'expérience de la réussite ou des difficultés.

      Elle peut être rapprochée du sentiment d'efficacité personnelle.

      • Justice scolaire : Se réfère à "l'impression de pouvoir être traité comme les autres", à l'équité perçue des sanctions ou des remarques. Une injustice perçue peut générer "de la rancœur, de la colère".

      • Réflexivité : Pas d'échelle connue pour la mesurer, mais elle se construit et évolue, notamment par la formation et l'expérience.

      • La présentation souligne enfin que les études quantitatives tentent d'analyser la contribution de chaque dimension (famille, relation enseignant-élève, etc.) sur le bien-être de l'élève, tout en reconnaissant qu'il n'y a rien d'automatique et que de multiples facteurs interdépendants sont en jeu.

    1. Reviewer #1 (Public review):

      Summary:

      This study provides new insight into the non-canonicial voltage-gating mechanism of BK channels through prolonged (10 us) MD simulations of the Slo1 transmembrane domain conformation and K+ conduction in response to high imposed voltages (300, 750 mV). The results support previous conclusions based on functional and structural data and MD simulations that the voltage-sensor domain (VSD) of Slo1 undergoes limited conformational changes compared to Kv channels, and predicts gating charge movement comparable in magnitude to experimental results. The gating charge calculations further indicate that R213 and R210 in S4 are the main contributors owing to their large side chain movements and the presence of a locally focused electric field, consistent with recent experimental and MD simulation results by Carrasquel-Ursulaez et al.,2022. Most interestingly, changes in pore conformation and K+ conduction driven by VSD activation are resolved, providing information regarding changes in VSD/pore interaction through S4/S5/S6 segments proposed to underly electromechanical coupling.

      Strengths:

      Include that the prolonged timescale and high voltage of the simulation allow apparent equilibration in the voltage-sensor domain (VSD) conformational changes and at least partial opening of the pore. The study extends the results of previous MD simulations of VSD activation by providing quantitative estimates of gating charge movement, showing how the electric field distribution across the VSD is altered in resting and activated states, and testing the hypothesis that R213 and R210 are the primary gating charges by steered MD simulations. The ability to estimate gating charge contributions of individual residues in the WT channel is useful as a comparison to experimental studies based on mutagenesis which have yielded conflicting results that could reflect perturbations in structure. Use of dynamic community analysis to identify coupling pathways and information flow for VSD-pore (electromechanical) coupling as well as analysis of state-dependent S4/S5/S6 interactions that could mediate coupling provide useful predictions extending beyond what has been experimentally tested.

      Weaknesses:

      Weaknesses include that a truncated channel (lacking the C-terminal gating ring) was used for simulations, which is known to have reduced single channel conductance and electromechanical coupling compared to the full-length channel. In addition, as VSD activation in BK channels is much faster than opening, the timescale of simulations was likely insufficient to achieve a fully open state as supported by differences in the degree of pore expansion in replicate simulations, which are also smaller than observed in Ca-bound open structures of the full-length channel. Taken together, these limitations suggest that inferences regarding coupling pathways and interactions in the fully open voltage-activated channel may be only partially supported and therefore incomplete. That said, adequate discussion regarding these limitations are provided together with dynamic community analysis based on the Ca-bound open structure. The latter supports the main conclusions based on simulations, while providing an indication of potential interaction differences between simulated and fully open conformations. Another limitation is that while the simulations convincingly demonstrate voltage-dependent channel opening as evidenced by pore expansion and conduction of K+ and water through the pore, single channel conductance is underestimated by at least an order of magnitude, as in previous studies of other K+ channels. These quantitative discrepancies suggest that MD simulations may not yet be sufficiently advanced to provide insight into mechanisms underlying the extraordinarily large conductance of BK channels.

      Comments on revisions:

      My previous questions and concerns have been adequately addressed.

      My only new comment is that the numbering of residues in Fig. S8 does not match the standard convention for hSlo and needs to be doublechecked. For the residues I checked, the numbers appear to be shifted 3 compared hSlo (e.g. Y315, P317, E318, G324 should be Y318, P320, E321, G327).

    2. Reviewer #2 (Public review):

      Summary:

      The manuscript by Jia and Chen addresses the structural basis of voltage-activation of BK channels using computational approaches. Although a number of experimental studies using gating current and patch-clamp recording have analyzed voltage-activation in terms of observed charge movements and the apparent energetic coupling between voltage-sensor movement and channel opening, the structural changes that underlie this phenomenon have been unclear. The present studies use a reduced molecular system comprising the transmembrane portion of the BK channel (i.e. the cytosolic domain was deleted), embedded in a POPC membrane, with either 0 or 750 mV applied across the membrane. This system enabled acquisition of long simulations of 10 microseconds, to permit tracking of conformational changes of the channel. The authors principal findings were that the side chains of R210 and R213 rapidly moved toward the extracellular side of the membrane (by 8 - 10 Å), with greater displacements than any of the other charged transmembrane residues. These movements appeared tightly coupled to movement of the pore-lining helix, pore hydration, and ion permeation. The authors estimate that R210 and R213 contribute 0.25 and 0.19 elementary charges per residue to the gating current, which is roughly consistent with estimates based on electrophysiological measurements that used the full-length channel.

      Strengths:

      The methodologies used in this work are sound, and these studies certainly contribute to our understanding of voltage-gating of BK channels. An intriguing observation is the strongly coupled movement of the S4, S5, and S6 helices that appear to underlie voltage-dependent opening. Based on Fig 2a-d, the substantial movements of the R210 and R213 side chains occur nearly simultaneously to the S6 movement (between 4 - 5 usec of simulation time). This seems to provide support for a "helix-packing" mechanism of voltage gating in the so-called "non-domain-swapped" voltage-gated K channels.

      Weaknesses:

      The main limitation is that these studies used a truncated version of the BK channel, and there are likely to be differences in VSD-pore coupling in the context of the full-length channels that will not be resolved in the present work. Nonetheless, the authors provide a strong rationale for their use of the truncated channel, and the results presented will provide a good starting point for future computational studies of this channel.

    3. Author response:

      The following is the authors’ response to the original reviews.

      Recommendations for the authors:

      Reviewing Editor Comments:

      The resubmitted version of the manuscript adequately addressed several initial comments made by reviewing editors, including a more detailed analysis of the results (such as those of bilayer thickness). This version was seen by 2 reviewers. Both reviewers recognize this work as being an important contribution to the field of BK and voltage-dependent ion channels in general. The long trajectories and the rigorous/novel analyses have revealed important insights into the mechanisms of voltage-sensing and electromechanical coupling in the context of a truncated variant of the BK channel. Many of these observations are consistent with structural and functional measurements of the channel, available thus far. The authors also identify a novel partially expanded state of the channel pore that is accessed after gating-charge displacement, which informs the sequence of structural events accompanying voltage-dependent opening of BK.

      However, there are key concerns regarding the use of the truncated channel in the simulations. While many gating features of BK are preserved in the truncated variant, studies have suggested that opening of the channel pore to voltage-sensing domain rearrangement is impaired upon gating-ring deletion. So the inferences made here might only represent a partial view of the mechanism of electromechanical coupling.

      It is also not entirely clear whether the partially expanded pore represents a functionally open, sub-conductance, or another closed state. Although the authors provide evidence that the inner pore is hydrated in this partially open state, in the absence of additional structural/functional restraints, a confident assignment of a functional state to this structure state is difficult. Functional measurements of the truncated channel seem to suggest that not only is their single channel conductance lower than full-length channels, but they also appear to have a voltage-independent step that causes the gates to open. It is unclear whether it is this voltage-independent step that remains to be captured in these MD trajectories. A clean cut resolution of this conundrum might not be feasible at this time, but it could help present the various possibilities to the readers.

      We appreciate the positive comments and agree that there will likely be important differences between the mechanistic details of voltage activation between the Core-MT and full-length constructs of BK channels. We also agree that the dilated pore observed in the simulation may not be the fully open state of Core-MT.

      Nonetheless, the notion that the simulation may not have captured the full pore opening transition or the contribution of the CTD should not render the current work “incomplete”, because a complete understanding of BK activation would be an unrealistic goal beyond the scope of this work. We respectfully emphasize that the main insights of the current simulations are the mechanisms of voltage sensing (e.g., the nature of VSD movements, contributions of various charged residues, how small charge movements allow voltage sensing, etc.) as well as the role of the S4-S5-S6 interface in VSD-pore coupling. As noted by the Editor and reviewers, these insights represent important steps towards establishing a more complete understanding of BK activation.

      Below are the specific comments of the two experts who have assessed the work and made specific suggestions to improve the manuscript.

      Reviewer #1 (Recommendations for the authors):

      (1) Although the successful simulation of V-dependent K+ conduction through the BK channel pore and analysis of associated state dependent VSD/pore interactions and coupling analysis is significant, there are two related questions that are relevant to the conclusions and of interest to the BK channel community which I think should be addressed or discussed.

      One key feature of BK channels is their extraordinarily large conductance compared to other K+ selective channels. Do the simulations of K+ conductance provide any insight into this difference? Is the predicted conductance of BK larger than that of other K+ channels studied by similar methods? Is there any difference in the conductance mechanism (e.g., the hard and soft knock-on effects mentioned for BK)?

      The molecular basis of the large conductance of BK channels is indeed an interesting and fundamental question. Unfortunately, this is beyond the scope of this work and the current simulation does not appear to provide any insight into the basis of large conductance. It is interesting to note, though, the conductance is apparently related to the level of pore dilation and the pore hydration level, as increasing hydration level from ~30 to ~40 waters in the pore increases the simulated conductance from ~1.5 to 6 pS (page 8). This is consistent with previous atomistic simulations (Gu and de Groot, Nature Communications 2023; ref. 33) showing that the pore hydration level is strongly correlated with observed conductance. As noted in the manuscript, the conductance mechanism through the filter appears highly similar to previous simulations of other K+ channels (Page 8). Given the limit conductance events observed in the current simulations, we will refrain from discussing possible basis of the large conductance in BK channels except commenting on the role of pore hydration (page 8; also see below in response to #5).

      The pore in the MD simulations does not open as wide as the Ca-bound open structure, which (as the authors note) may mean that full opening requires longer than 10 us. I think that is highly likely given that the two 750 mV simulations yielded different degrees of opening and that in BK channels opening is generally much slower than charge movement. Therefore, a question is - do any of the conclusions illustrated in Figures 6, S5, S6 differ if the Ca-bound structure is used as the open state? For example, I expect the interactions between S5 and S6 might at least change to some extent as S6 moves to its final position. In this case, would conclusions about which residues interact, and get stronger or weaker, be the same as in Figures S6 b,c? Providing a comparison may help indicate to what extent the conclusions are dependent on achieving a fully open conformation.

      We appreciate the reviewer’s suggestion and have further analyzed the information flow and coupling pathways using the simulation trajectory initiated from the Ca2+-bound cryo-EM structure (sim 7, Table S1). The new results are shown in two new SI Figures S7 and S8, and new discussion has been added to pages 14-15. Comparing Figures 5 and S7, we find that dynamic community, coupling pathways, and information flow are highly similar between simulation of the open and closed states, even though there are significant differences in S5 contacts in the simulated open state vs Ca2+-bound open state (Figure S8). Interestingly, there are significant differences in S4-S5 packing in the simulated and Ca2+-bound open states (Figure S8 top panel), which likely reflect important difference in VSD/pore interactions during voltage vs Ca2+ activation.

      (2) P4 Significance -"first, successful direct simulation of voltage-activation"

      This statement may need rewording. As noted above Carrasquel-Ursulaez et al.,2022 (reference 39) simulated voltage sensor activation under comparable conditions to the current manuscript (3.9 us simulation at +400 mV), and made some similar conclusions regarding R210, R213 movement, and electric field focusing within the VSD. However, they did not report what happens to the pore or simulate K+ movement. So do the authors here mean something like "first, successful direct simulation of voltage-dependent channel opening"?

      We agree with the reviewer and have revised the statement to “ … the first successful direct simulation of voltage-dependent activation of the big potassium (BK) channel, ..”

      (3) P5 "We compare the membrane thickness at 300 and 750 mV and the results reveal no significant difference in the membrane thickness (Figure S2)" The figure also shows membrane thickness at 0 mV and indicates it is 1.4 Angstroms less than that at 300 or 750 mV. Whether or not this difference is significant should be stated, as the question being addressed is whether the structure is perturbed owing to the use of non-physiological voltages (which would include both 300 and 750 mV).

      We have revised the Figure S2 caption to clarify that one-way ANOVA suggest the difference is not significant.

      (4) P7 "It should be noted that the full-length BK channel in the Ca2+ bound state has an even larger intracellular opening (Figure 2f, green trace), suggesting that additional dilation of the pore may occur at longer timescales."

      As noted above, I agree it is likely that additional pore dilation may occur at longer timescales. However, for completeness, I suppose an alternative hypothesis should be noted, e.g. "...suggesting that additional dilation of the pore may occur at longer timescales, or in response to Ca-binding to the full length channel."

      This is a great suggestion. Revised as suggested.

      (5) Since the authors raise the possibility that they are simulating a subconductance state, some more discussion on this point would be helpful, especially in relation to the hydrophobic gate concept. Although the Magleby group concluded that the cytoplasmic mouth of the (fully open) pore has little impact on single channel conductance, that doesn't rule out that it becomes limiting in a partially open conformation. The simulation in Figure 3A shows an initial hydration of the pore with ~15 waters with little conductance events, suggesting that hydration per se may not suffice to define a fully open state. Indeed, the authors indicate that the simulated open state (w/ ~30-40 waters) has 1/4th the simulated conductance of the open structure (w/ ~60 waters). So is it the degree of hydration that limits conductance? Or is there a threshold of hydration that permits conductance and then other factors that limit conductance until the pore widens further? Addressing these issues might also be relevant to understanding the extraordinarily large conductance of fully open BK compared to other K channels.

      We agree with the reviewer’s proposal that pore hydration seems to be a major factor that can affect conductance. This is also well in-line with the previous computational study by Gu and de Groot (2023). We have now added a brief discussion on page 8, stating “Besides the limitation of the current fixed charge force fields in quantitively predicting channel conductance, we note that the molecular basis for the large conductance of BK channels is actually poorly understood (78). It is noteworthy that the pore hydration level appears to be an important factor in determining the apparent conductance in the simulation, which has also been proposed in a previous atomistic simulation study of the Aplysia BK channel (33).”

      Minor points

      (1) P5 "the fully relaxed pore profile (red trace in Figure S1d, top row) shows substantial differences compared to that of the Ca2+-free Cryo-EM structure of the full-length channel." For clarity, I suggest indicating which is the Ca-free profile - "... Ca2+-free Cryo-EM structure of the full-length channel (black trace)."

      We greatly appreciate the thoughtful suggestion. Revised as suggested.

      (2) P8 "Consistent with previous simulations (78-80), the conductance follows a multi-ion mechanism, where there are at least two K+ ions inside the filter" For clarity, I suggest indicating these are not previous simulations of BK channels (e.g., "previous simulations of other K+ channels ...").

      Revised as suggested. Thank you.

      (3) Figure 2, S1 - grey traces representing individual subunits are very difficult to see (especially if printed). I wonder if they should be made slightly darker. Similar traces in Figure 3 are easier to see.

      The traces in Figure S1 are actually the same thickness in Figure 3 and they appear lighter due to the size of the figure. Figure 2 panels a-c have been updated to improve the resolution.

      (4) Figure 2 - suggest labeling S6 as "S6 313-324" (similar to S4 notation) to indicate it is not the entire segment.

      Figure 2 panel d) has been updated as suggested.

      (5) Figure 2 legend - "Voltage activation of Core-MT BK channels. a-d)..."

      It would be easier to find details corresponding to individual panels if they were referenced individually. For example:

      "a-d) results from a 10-μs simulation under 750 mV (sim2b in Table S1). Each data point represents the average of four subunits for a given snapshot (thin grey lines), and the colored thick lines plot the running average. a) z-displacement of key side chain charged groups from initial positions. The locations of charged groups were taken as those of guanidinium CZ atoms (for Arg) and sidechain carboxyl carbons (for Asp/Glu) b) z-displacement of centers-of-mass of VSD helices from initial positions, c) backbone RMSD of the pore-lining S6 (F307-L325) to the open state, and d) tilt angles of all TM helices. Only residues 313-324 of S6 were included inthe tilt angle calculation, and the values in the open and closed Cryo-EM structures are marked using purple dashed lines. "

      We appreciate the thoughtful suggestion and have revised the caption as suggested.

      (6) Figure S1 - column labels a,b,c, and d should be referenced in the legend.

      The references to column labels have been added to Figure S1 caption.

      (7) References need to be double-checked for duplicates and formatting.

      a) I noticed several duplicate references, but did not do a complete search: Budelli et al 2013 (#68, 100), Horrigan Aldrich 2002 (#22,97), Sun Horrigan 2022 (#40, 86), Jensen et al 2012 (#56,81).

      b) Reference #38 is incorrectly cited with the first name spelled out and the last name abbreviated.

      We appreciate the careful proofreading of the reviewer. The duplicated references were introduced by mistake due to the use of multiple reference libraries. We have gone through the manuscript and removed a total of 5 duplicated references.

      Reviewer #2 (Recommendations for the authors):

      This manuscript has been through a previous level of review. The authors have provided their responses to the previous reviewers, which appear to be satisfactory, and I have no additional comments, beyond the caveats concerning interpretations based on the truncated channel, which are noted above.

      We greatly appreciate the constructive comments and insightful advice. Please see above response to the Reviewing Editor’s comments for response and changes regarding the caveats concerning interpretations of the current simulations.

    1. Reviewer #2 (Public review):

      This study aims to elucidate the role of fibroblasts in regulating myocardium and vascular development through signaling to cardiomyocytes and endothelial cells. This focus is significant, given that fibroblasts, cardiomyocytes, and vascular endothelial cells are the three primary cell types in the heart. The authors employed a Pdgfra-CreER-controlled diphtheria toxin A (DTA) system to ablate fibroblasts at various embryonic and postnatal stages, characterizing the resulting cardiac defects, particularly in myocardium and vasculature development. Single-cell RNA sequencing (scRNA-seq) analysis of the ablated hearts identified collagen as a crucial signaling molecule from fibroblasts that influences the development of cardiomyocytes and vascular endothelial cells.

      This is an interesting manuscript; however, there are several major issues, including an over-reliance on the scRNA-seq data, which shows inconsistencies between replicates.

      Some of the major issues are described below.

      (1) The CD31 immunostaining data (Figure 3B-G) indicate a reduction in endothelial cell numbers following fibroblast deletion using PdgfraCreER+/-; RosaDTA+/- mice. However, the scRNA-seq data show no percentage change in the endothelial cell population (Figure 4D). Furthermore, while the percentage of Vas_ECs decreased in ablated samples at E16.5, the results at E18.5 were inconsistent, showing an increase in one replicate and a decrease in another, raising concerns about the reliability of the RNA-seq findings.

      (2) Similarly, while the percentage of Ven_CMs increased at E18.5, it exhibited differing trends at E16.5 (Fig. 4E), further highlighting the inconsistency of the scRNA-seq analysis with the other data.

      (3) Furthermore, the authors noted that the ablated samples had slightly higher percentages of cardiomyocytes in the G1 phase compared to controls (Fig. 4H, S11D), which aligns with the enrichment of pathways related to heart development, sarcomere organization, heart tube morphogenesis, and cell proliferation. However, it is unclear how this correlates with heart development, given that the hearts of ablated mice are significantly smaller than those of controls (Figure 3E). Additionally, the heart sections from ablated samples used for CD31/DAPI staining in Figure 3F appear much larger than those of the controls, raising further inconsistencies in the manuscript.

      (4) The manuscript relies heavily on the scRNA-seq dataset, which shows inconsistencies between the two replicates. Furthermore, the morphological and histological analyses do not align with the scRNA-seq findings.

      (5) There is a lack of mechanistic insight into how collagen, as a key signaling molecule from fibroblasts, affects the development of cardiomyocytes and vascular endothelial cells.

      (6) In Figure 1B, Col1a1 expression is observed in the epicardial cells (Figure 1A, E11.5), but this is not represented in the accompanying cartoon.

      (7) Do the PdgfraCreER+/-; RosaDTA+/- mice survive after birth when induced at E15.5, and do they exhibit any cardiac defects?

      Comments on Revised Version (from BRE):

      The manuscript has greatly improved following the revision, and I have no additional comments to offer.

    2. Reviewer #3 (Public review):

      Summary:

      The authors investigated fibroblasts' communication with key cell types in developing and neonatal hearts, with focus on critical roles of fibroblast-cardiomyocyte and fibroblast-endothelial cells network in cardiac morphogenesis. They tried to map the spatial distribution of these cell types and reported the major pathways and signaling molecules driving the communication. They also used Cre-DTA system to ablate Pdgfra labeled cells and observed myocardial and endothelial cell defects at development. They screened the pathways and genes using sequencing data of ablated heart. Lastly they reported a compensatory collagen expression in long term ablated neonate heart. Overall, this study provides us with important insight on fibroblasts' roles in cardiac development and will be a powerful resource for collagens and ECM focused research.

      Strengths:

      The authors utilized good analyzing tools to investigate on multiple database of single cell sequencing and Multi-seq. They identified significant pathways, cellular and molecular interactions of fibroblasts. Additionally, they compared some of their analytic findings with human database, and identified several groups of ECM genes with varying roles in mice.

      Weaknesses:

      This study is majorly based on sequencing data analysis. At the bench, they used very strident technique to study fibroblast functions by ablating one of the major cell population of heart. Also, experimental validation of their analyzed downstream pathways will be required eventually.

      Comments on Revised Version (from BRE):

      The authors did a good job addressing the questions asked at first review. However, I have some minor concerns.

      (1) The paper notes that collagen signaling is observed in FB-VasEC in humans, but not in FB-VenCM, unlike mice. Did the authors analyze predictive ligand receptor interaction as they did with control and ablated mice heart? This could add valuable new insights that how FB regulate ventricular CM in human heart.

      (2) The authors provided data on Defect in CD31 expression in several models. Did they observe any other phenotypes associated with defective endothelial or vascular system? Such as, blood accumulation in pericardium, larger/smaller capillaries? Did they also examine percentage of Cdh5+ cells?

      (3) Please mention the sample age of Figure 2A-C.

      (4) Please follow the same style to describe X axis in graphs in Figure 3D (and all similar graphs in the manuscript) as followed in 3G.

      (5) It is important to provide echocardiographic M mode images with a comparable number of cardiac cycles in control and ablated (Fig. 6H).

      (6) In the long-term neonatal ablation experiments, collagen expressions return to normal. The manuscript attributes this to possible "compensatory expression," Do they have any thoughts how this is regulated? Are other cell types stepping in, or are surviving FBs proliferating?

      (7) While collagen is shown to be a dominant signaling molecule, its centrality is inferred primarily from scRNA-seq and ligand-receptor predictions. Did authors try any functional rescue experiment (e.g., exogenous collagen supplementation or receptor blockade) to directly validate this pathway's role in vivo?

    3. Author response:

      The following is the authors’ response to the previous reviews.

      Public Reviews:

      Reviewer #1 (Public review):

      Summary:

      The study by Deng et al reports single cell expression analysis of developing mouse hearts and examines the requirements for cardiac fibroblasts in heart maturation. The work includes extensive gene expression profiling and bioinformatic analysis. The prenatal fibroblast ablation studies show new information on the requirement of these cells on heart maturation before birth.

      The strengths of the manuscript are the new single cell datasets and comprehensive approach to ablating cardiac fibroblasts in pre and postnatal development in mice. Extensive data are presented on mouse embryo fibroblast diversity and morphology in response to fibroblast ablation. Histological data support localization of major cardiac cell types and effects of fibroblast ablation on cardiac gene expression at different times of development.

      A weakness of the study is that the major conclusions regarding collagen signaling and heart maturation are based on gene expression patterns and are not functionally validated.

      Reviewer #2 (Public review):

      This study aims to elucidate the role of fibroblasts in regulating myocardium and vascular development through signaling to cardiomyocytes and endothelial cells. This focus is significant, given that fibroblasts, cardiomyocytes, and vascular endothelial cells are the three primary cell types in the heart. The authors employed a Pdgfra-CreER-controlled diphtheria toxin A (DTA) system to ablate fibroblasts at various embryonic and postnatal stages, characterizing the resulting cardiac defects, particularly in myocardium and vasculature development. Single-cell RNA sequencing (scRNA-seq) analysis of the ablated hearts identified collagen as a crucial signaling molecule from fibroblasts that influences the development of cardiomyocytes and vascular endothelial cells.

      This is an interesting manuscript; however, there are several major issues, including an over-reliance on the scRNA-seq data, which shows inconsistencies between replicates.

      We thank the reviewer for carefully reading our revised manuscript. All of the questions listed below were raised in the previous round and have been addressed in the current revision. As noted in the “Recommendations for the Authors” section, the reviewer has no additional comments at this time.

      Some of the major issues are described below.

      (1) The CD31 immunostaining data (Figure 3B-G) indicate a reduction in endothelial cell numbers following fibroblast deletion using PdgfraCreER+/-; RosaDTA+/- mice. However, the scRNA-seq data show no percentage change in the endothelial cell population (Figure 4D). Furthermore, while the percentage of Vas_ECs decreased in ablated samples at E16.5, the results at E18.5 were inconsistent, showing an increase in one replicate and a decrease in another, raising concerns about the reliability of the RNA-seq findings.

      (2) Similarly, while the percentage of Ven_CMs increased at E18.5, it exhibited differing trends at E16.5 (Fig. 4E), further highlighting the inconsistency of the scRNA-seq analysis with the other data.

      (3) Furthermore, the authors noted that the ablated samples had slightly higher percentages of cardiomyocytes in the G1 phase compared to controls (Fig. 4H, S11D), which aligns with the enrichment of pathways related to heart development, sarcomere organization, heart tube morphogenesis, and cell proliferation. However, it is unclear how this correlates with heart development, given that the hearts of ablated mice are significantly smaller than those of controls (Figure 3E). Additionally, the heart sections from ablated samples used for CD31/DAPI staining in Figure 3F appear much larger than those of the controls, raising further inconsistencies in the manuscript.

      (4) The manuscript relies heavily on the scRNA-seq dataset, which shows inconsistencies between the two replicates. Furthermore, the morphological and histological analyses do not align with the scRNA-seq findings.

      (5) There is a lack of mechanistic insight into how collagen, as a key signaling molecule from fibroblasts, affects the development of cardiomyocytes and vascular endothelial cells.

      (6) In Figure 1B, Col1a1 expression is observed in the epicardial cells (Figure 1A, E11.5), but this is not represented in the accompanying cartoon.

      (7) Do the PdgfraCreER+/-; RosaDTA+/- mice survive after birth when induced at E15.5, and do they exhibit any cardiac defects?

      Reviewer #3 (Public review):

      Summary:

      The authors investigated fibroblasts' communication with key cell types in developing and neonatal hearts, with focus on critical roles of fibroblast-cardiomyocyte and fibroblast-endothelial cells network in cardiac morphogenesis. They tried to map the spatial distribution of these cell types and reported the major pathways and signaling molecules driving the communication. They also used Cre-DTA system to ablate Pdgfra labeled cells and observed myocardial and endothelial cell defects at development. They screened the pathways and genes using sequencing data of ablated heart. Lastly they reported a compensatory collagen expression in long term ablated neonate heart. Overall, this study provides us with important insight on fibroblasts' roles in cardiac development and will be a powerful resource for collagens and ECM focused research.

      Strengths:

      The authors utilized good analyzing tools to investigate on multiple database of single cell sequencing and Multi-seq. They identified significant pathways, cellular and molecular interactions of fibroblasts. Additionally, they compared some of their analytic findings with human database, and identified several groups of ECM genes with varying roles in mice.

      Weaknesses:

      This study is majorly based on sequencing data analysis. At the bench, they used very strident technique to study fibroblast functions by ablating one of the major cell population of heart. Also, experimental validation of their analyzed downstream pathways will be required eventually.

      Recommendations for the authors:

      Reviewer #1 (Recommendations for the authors):

      Most of my comments have been adequately addressed. Additional comments on new data in the revised manuscript are below.

      (1) In the new figure S11, it is not really possible to draw major conclusions on mitral valve morphology and maturation since the planes of sections to not seem comparable. Observations regarding attachment to the papillary muscle might be dependent on the particular section being evaluated. However, it is useful to see that the valves are not severely affected in the ablated animals.

      We appreciate the reviewer’s comment and agree with the reviewer’s observation. Accordingly, we have updated the manuscript by removing the original conclusion-related statement and instead highlighting that the valves were not severely affected in the ablated animals (page 6).

      (2) In the last supplemental figure S19, it is not possible to determine if results are or are not statistically significant for n=2 as shown for FS and EF for the ablated animals and controls. The text says that there is a trend of improved heart function, but evaluation of additional animals is needed to support this conclusion.

      We thank the reviewer for the comment and agree that a sample size of n = 2 is too small to draw meaningful conclusions. As previously suggested by the reviewer, we have removed this result from the manuscript (page 10).

      Reviewer #2 (Recommendations for the authors):

      The manuscript has greatly improved following the revision, and I have no additional comments to offer.

      Thanks!

      Reviewer #3 (Recommendations for the authors):

      Authors did a good job addressing questions asked at first review. However, I have some minor concerns.

      (1) The paper notes that collagen signaling is observed in FB-VasEC in humans, but not in FB-VenCM, unlike mice. Did authors analyze predictive ligand receptor interaction as they did with control and ablated mice heart? This could add valuable new insights that how FB regulate ventricular CM in human heart.

      Thank you. We have analyzed the predicted ligand-receptor interactions between Fb and Ven_CM, as well as between Fb and Vas_EC, using human scRNA-seq data. The results are provided as a supplemental figure (Fig. S8C).

      (2) The authors provided data on Defect in CD31 expression in several models. Did they observed any other phenotypes associated with defective endothelial or vascular system? Such as, blood accumulation in pericardium, larger/smaller capillaries? Did they also examined percentage of Cdh5+ cells?

      We thank the reviewer for the questions. We did not observe clear evidence of blood accumulation in the pericardium of the ablated hearts, as shown in figure 3B, 3E, 6B, and 6F. Additionally, we did not perform Cdh5 staining in either the control or ablated hearts.

      (3) Please mention the sample age of Figure 2A-C.

      These are single-cell mRNA sequencing data from CD1 mice across 18 developmental stages, ranging from E9.5 to P9. We have added this information to the manuscript (page 4).

      (4) Please follow the same style to describe X axis in graphs in Figure 3D (and all similar graphs in manuscript) as followed in 3G.

      Thank you. We assume the reviewer was referring to the descriptions in the relevant figure legends. We have updated the legend for Figure 3D to ensure consistency with the description provided for Figure 3G (page 15).

      (5) It is important to provide echocardiographic M mode images with a comparable number of cardiac cycles in control and ablated (Fig. 6H).

      We thank the reviewer for the comment. As explained in our previous response, the echocardiographic data for both control and mutant mice were collected in conscious animals. The differences in their cardiac cycles reflect variations in heart rate, which represent a disease phenotype and cannot be altered. Therefore, we are unable to provide M-mode images with a similar number of cardiac cycles for control and ablated mice.

      (6) In the long-term neonatal ablation experiments, collagen expressions return to normal. The manuscript attributes this to possible "compensatory expression," Do they have any thoughts how this is regulated? Are other cell types stepping in, or are surviving FBs proliferating?

      We thank the reviewer for the question. As suggested, the compensatory collagen expression could be driven by surviving fibroblasts or other cell types. Since we currently lack evidence to exclude either possibility, we believe both could be contributing factors.

      (7) While collagen is shown to be a dominant signaling molecule, its centrality is inferred primarily from scRNAseq and ligand-receptor predictions. Did authors try any functional rescue experiment (e.g., exogenous collagen supplementation or receptor blockade) to directly validate this pathway's role in vivo?

      We thank the reviewer for the comment. As noted in our previous revision in response to similar questions from the other two reviewers, we agree that these rescue experiments are of interest but are beyond the scope of the current study. We plan to pursue these investigations in future work and share our findings when available.

    1. Author response:

      The following is the authors’ response to the original reviews.

      Public Reviews:

      Reviewer #1 (Public review):

      Summary:

      The manuscript "Rho-ROCK liberates sequestered claudin for rapid de novo tight junction formation" by Cho and colleagues investigates de novo tight junction formation during the differentiation of immortalized human HaCaT keratinocytes to granular-like cells, as well as during epithelial remodeling that occurs upon the apoptotic of individual cells in confluent monolayers of the representative epithelial cell line EpH4. The authors demonstrate the involvement of Rho-ROCK with well-conducted experiments and convincing images. Moreover, they unravel the underlying molecular mechanism, with Rho-ROCK activity activating the transmembrane serine protease Matriptase, which in turn leads to the cleavage of EpCAM and TROP2, respectively, releasing Claudins from EpCAM/TROP2/Claudin complexes at the cell membrane to become available for polymerization and de novo tight junction formation. These functional studies in the two different cell culture systems are complemented by localization studies of the according proteins in the stratified mouse epidermis in vivo.

      In total, these are new and very intriguing and interesting findings that add important new insights into the molecular mechanisms of tight junction formation, identifying Matriptase as the "missing link" in the cascade of formerly described regulators. The involvement of TROP2/EpCAM/Claudin has been reported recently (Szabo et al., Biol. Open 2022; Bugge lab), and Matriptase had been formerly described to be required for in tight junction formation as well, again from the Bugge lab. Yet, the functional correlation/epistasis between them, and their relation to Rho signaling, had not been known thus far.

      However, experiments addressing the role of Matriptase require a little more work.

      Strengths:

      Convincing functional studies in two different cell culture systems, complemented by supporting protein localization studies in vivo. The manuscript is clearly written and most data are convincingly demonstrated, with beautiful images and movies.

      Weaknesses:

      The central finding that Rho signaling leads to increased Matriptase activity needs to be more rigorously demonstrated (e.g. western blot specifically detecting the activated version or distinguishing between the full-length/inactive and processed/active version).

      First, we thank the reviewer for their fair evaluation of our manuscript and for providing constructive feedback. Regarding the detection of matriptase activation—which Reviewer 1 identified as a weakness—we fully agree that direct validation is crucial. Therefore, in this revision we have carried out additional experiments using the M69 antibody, which specifically recognizes the activated form of matriptase. Details of these new experiments are provided in our point-by-point responses below.

      Reviewer #2 (Public review):

      Summary:

      In this manuscript, the authors investigate how epithelia maintain intercellular barrier function despite and during cellular rearrangements upon e.g. apoptotic extrusion in simple epithelia or regenerative turnover in stratified epithelia like this epidermis. A fundamental question in epithelial biology. Previous literature has shown that Rho-mediated local regulation of actomyosin is essential not only for cellular rearrangement itself but also for directly controlling tight junction barrier function. The molecular mechanics however remained unclear. Here the authors use extensive fluorescent imaging of fixed and live cells together with genetic and drug-mediated interference to show that Rho activation is required and sufficient to form novo tight junctional strands at intercellular contacts in epidermal keratinocytes (HaCat) and mammary epithelial cells. After having confirmed previous literature they then show that Rho activation activates the transmembrane protease Matriptase which cleaves EpCAM and TROP2, two claudin-binding transmembrane proteins, to release claudins and enable claudin strand formation and therefore tight junction barrier function.

      Strengths:

      The presented mechanism is shown to be relevant for epithelial barriers being conserved in simple and stratifying epithelial cells and mainly differs due to tissue-specific expression of EpCAM and TROP2. The authors present careful state-of-the-art imaging and logical experiments that convincingly support the statements and conclusion. The manuscript is well-written and easy to follow.

      Weaknesses:

      Whereas the in vitro evidence of the presented mechanism is strongly supported by the data, the in vivo confirmation is mostly based on the predicted distribution of TROP2. Whereas the causality of Rho-mediated Matriptase activation has been nicely demonstrated it remains unclear how Rho activates Matriptase.

      Thank you for your valuable feedback on our manuscript. As Reviewer 2 points out, the precise mechanism by which the Rho/ROCK pathway activates matriptase remains unclear. We have discussed the possible molecular mechanisms in the Discussion section. Elucidating the detailed mechanism of matriptase activation will be the focus of our future work.

      Recommendations for the authors:

      Reviewer #1 (Recommendations for the authors):

      Comment 1-1 - Matriptase activation by Rho: The authors show activation of Matriptase in western blots by the simple reduction of (full-length?) protein level in Figures 5 and 7. Most publications however show activated Matriptase either by antibodies detecting specifically the active form (including the publication referenced in this manuscript), or the appearance of the activated form next to the inactive form (based on different molecular weights). Therefore, it is not completely clear whether the treatment with Rho activators (Figure 5) results in an overall decrease of Matriptase, or really in an increase in the activated form. Therefore, the authors should show the actual increase of the active form. As a control, the impact of camostat treatment and overexpression of Hai1 on the active form of Matriptase could be included. It also should be indicated in the figure legend how long cells had been treated with the drugs before being subjected to lysis. Moreover, the western blots need to be quantified.

      We performed a more rigorous analysis using the M69 antibody, which specifically recognizes the activated form of matriptase and has been widely used in previous studies(e.g. Benaud et al., 2001; Hung et al., 2004; Wang et al., 2009). We likewise confirmed a significant increase in M69 signals by both western blotting and immunostaining from samples in which matriptase was activated by acid medium treatment (Figure 5A). Crucially, we also observed matriptase activation with the M69 antibody both in Rho/ROCK activator-treated cells (Figure 5A) and in differentiated granular-layer-like cells (Figures 7A and 7D). These findings strongly support the conclusion that matriptase is activated downstream of the Rho/ROCK pathway.

      Comment 1-2 - Based on their results, the authors conclude that Matriptase cleaves TROP2 in the SG2 layer of the epidermis, which is a little contradictory to former studies, which have shown Matriptase to be most prominently expressed and active in the basal layer and only little in the spinous layer (e.g Chen et al., Matriptase regulates proliferation and early, but not terminal, differentiation of human keratinocytes. J Invest Dermatol.2013). In this light, one could also argue that inhibiting Matriptase "simply" reduces epidermal differentiation. Can other differentiation markers be tested to rule that the effects on tight junctions are secondary consequences of interferences with earlier / more global steps of keratinocyte differentiation?

      As the reviewer noted, previous studies have demonstrated that matriptase is essential for keratinocyte differentiation, and that it cleaves substrates beyond EpCAM and TROP2—any of which could potentially influence the differentiation process. To test this possibility, we chose to monitor maturation of adherens junction (AJ) as an indicator of keratinocyte differentiation into granular-layer cells. Prior work has shown that during differentiation into granular-layer cells, AJs develop and experience increased intercellular mechanical tension, and that this rise in mechanical tension at AJs is critical for subsequent TJ formation (Rübsam et al., 2017). To assess AJ tension, we stained with the α-18 monoclonal antibody, which specifically recognizes the tension-dependent conformational change of α-catenin, a core AJ component. In control cells, differentiation into granular-layer like cells led to a marked increase in α-18 signal at cell–cell adhesion sites. Importantly, when HaCaT cells were treated with Camostat to inhibit matriptase and then induced to differentiate, we observed an equivalent increase in α-18 signal at AJs (Figure 7F). However, we did not detect claudin enrichment at cell-cell contacts under these conditions (Figures 7F and 7H). These results suggest that matriptase inhibition does not impair AJ maturation during granular-layer differentiation, but does profoundly disrupt TJ formation. While we cannot rule out the possibility that matriptase acts more broadly from these results, we judged that a comprehensive substrate survey lies outside the scope of the present manuscript.

      Comment 1-3 - In addition, as in Figure 5, full-length levels of Matriptase in Figure 7A need to be complemented by the active version to demonstrate more convincingly that TROP2 processing coincides with (and is most likely caused by) increased Matriptase activation. In the quantification in 7B, levels actually go up again after 2 and 4 hours. How is that explained, and what would this mean with respect to tight junction formation seen at 24 h of differentiation? The TROP2 cleavage shown in Figure 7A should be quantified.

      This comment is related to Comment 1-1. Using the M69 antibody, which specifically recognizes the activated matriptase, we directly demonstrated that matriptase activation occurs during the differentiation of granular layer-like cells (Figures 7A and 7D). Furthermore, we performed quantitative analysis of TROP2 cleavage and found that, compared with undifferentiated cells, differentiation into granular-layer like cells was accompanied by an increase in the cleaved TROP2 fragments (Figures 7A and 7B).

      Minor points:

      Comment 1-4 - Figure 1B and C: Including orthogonal views would be a nice add-on to appreciate the findings.

      In the revised version, we have added the corresponding orthogonal views to Figure 1B and Figure 1C.

      Comment 1-5 - Figure 2D: last row: indication of orthogonal view.

      We stated that the bottom panels are orthogonal views in the figure legend of Figure 2D.

      Comment 1-6 - Figure 3A: quantification is missing. GST-Rhotekin assay is missing in methods.

      In the revised manuscript, we have added quantitative analysis for Figure 3A. We have also supplemented the Materials and Methods section with detailed information on the GST–Rhotekin assay used to quantify levels of active RhoA.

      Comment 1-7 - Figure 4H: quantification of the Western blot is missing.

      In the revised manuscript, we have added quantitative analysis for Figure 4H as Figure 4I.

      Comment 1-8 - Figure 5 and 6: Quantifications of Western blots are missing.

      In the revised manuscript, we have added quantitative analyses for Figure 5D as Figure 5F and for Figure 6A as Figure 6B.

      Comment 1-9 - Figure 7C: quantification of the Western blot is missing.

      Figure 7C does not present western blotting data. For the other western blotting results, we have added quantitative analyses as suggested by Reviewer 1.

      Comment 1-10 - Figure 8I: Including Hai1 overexpression would be good for a complete picture.

      Following Reviewer 1’s suggestion, we have added staining data for Hai1-overexpressing cells to Figure 8J.

      Comment 1-11 - Line 377: The authors say they found Matriptase always present in lateral membranes. I did not find evidence for this in the manuscript.

      Previous studies have demonstrated that in polarized epithelial cells, matriptase is localized to the basolateral membrane below TJs (Buzza et al., 2010; Wang et al., 2009). We also found that matriptase consistently localizes to the basolateral membrane but more crucially that it becomes activated there during differentiation into granular layer cells. We added these new data as Figures 7C-7E in the revised manuscript. These findings suggest that matriptase activation occurs without a change in its subcellular localization.

      Comment 1-12 - Line 381: should most likely say: and ADAM17 but it is not known whether...

      We corrected the sentence in the revised manuscript.

      Reviewer #2 (Recommendations for the authors):

      The authors have added a significant number of quantifications verifying their observations, which was a major comment in a previous version of the manuscript and thus I have only a few minor comments which should be addressed.

      Comment 2-1 - It is not required to have scale bars in every image of a panel if the same scale is used.

      Unnecessary scale bars were removed. Specifically, scale bars were removed from Figure 1B, 1C, 1F, 8F, 8G, and 8H.

      Comment 2-2 - Throughout all figures: Please state for non-quantified images whether this is a representative example and for how many technical or biological repeats this is representative. Also for "N" number, state what the N stands for and if this is what the dots in the graph represent. Are these the number of junctions or technical, experimental or biological repeats?

      In the revised manuscript, we have added the number of independent experiments and corresponding “N” values to the Quantification and Statistical Analysis subsection of the Materials and Methods.

      Comment 2-3 - Some Zooms have a scale bar (6d), and some do not (e.g. 5b).

      The scale bar was removed from the magnified image in Figure 6D.

    1. Se connecter Message Plus Envoyer le profil dans un message Enregistrer au format PDF Signaler/Bloquer À propos de ce profil À propos de ce profil InfosInfos Transformation of companies towards operational excellence (Lea/Six Sima, strategies, organisations, ERP, ..)Dealing with ITSM and embedded S/W Development. Main goal: small and smart low cost medical devices engineering and production for north Africa.Specialties: Quality-based Project Management (Six Sigma, CMMI)S/W design and integrationIT soltution (BI, CRM, Workflow)Open source solutions (collaboration, CRM, Quality)Transformation of companies towards operational excellence (Lea/Six Sima, strategies, organisations, ERP, ..) Dealing with ITSM and embedded S/W Development. Main goal: small and smart low cost medical devices engineering and production for north Africa. Specialties: Quality-based Project Management (Six Sigma, CMMI) S/W design and integration IT soltution (BI, CRM, Workflow) Open source solutions (collaboration, CRM, Quality) …voir plus Services

      Bouchra il m'a rappeler il ma demander d 'envoyer un mail et il va me faire par de ses disponibilités

    1. Author response:

      The following is the authors’ response to the original reviews.

      Public Reviews:

      Reviewer #1 (Public Review):

      Summary:

      The study by Wu et al presents interesting data on bacterial cell organization, a field that is progressing now, mainly due to the advances in microscopy. Based mainly on fluorescence microscopy images, the authors aim to demonstrate that the two structures that account for bacterial motility, the chemotaxis complex and the flagella, colocalize to the same pole in Pseudomonas aeruginosa cells and to expose the regulation underlying their spatial organization and functioning.

      Strengths:

      The subject is of importance.

      Weaknesses:

      The conclusions are too strong for the presented data. The lack of statistical analysis makes this paper incomplete. The novelty of the findings is not clear.

      We have strengthened the data analysis by including appropriate statistical tests to support our conclusions more convincingly. Additionally, we have refined the description of the research background to better emphasize the novelty and significance of our findings. Please see the detailed responses below for further information.

      Major issues:

      (1) The novelty is in question since in the Abstract the authors highlight their main finding, which is that both the chemotaxis complex and the flagella localize to the same pole, as surprising. However, in the Introduction they state that "pathway-related receptors that mediate chemotaxis, as well as the flagellum are localized at the same cell pole17,18". I am not a pseudomonas researcher and from my short glance at these references, I could not tell whether they report colocalization of the two structures to the same pole. However, I trust the authors that they know the literature on the localization of the chemotaxis complex and flagella in their organism. See also major issue number 5 on the novelty regarding the involvement of c-di-GMP.

      We thank the reviewer for this valuable comment and appreciate the opportunity to clarify our statements.

      Kazunobu et al. (ref. 18) used scanning electron microscopy to preliminarily characterize the flagellation pattern of Pseudomonas aeruginosa during cell division, showing that existing flagella are located at the old pole. Zehra et al. (ref. 17), through fluorescence microscopy, observed that CheA and CheY proteins in dividing cells are typically also present at the old pole. Based on these observations, we inferred in the Introduction that the chemotaxis complex and flagellum may localize to the same cell pole.

      However, this inference is indirect and lacks direct live-cell evidence of colocalization, leaving its validity to be confirmed. This uncertainty was indeed the starting point and motivation for our study.

      In our work, we simultaneously visualized flagellar filaments and core chemoreceptor proteins at the single-cell level in P. aeruginosa. We characterized the assembly and spatial coordination of the chemotaxis network and flagellar motor throughout the cell cycle, providing direct evidence of their colocalization and coordinated assembly. This represents a significant advance beyond prior indirect observations and supports the novelty of our study.

      Accordingly, we have revised the relevant statements in lines 71-75 of the manuscript to better reflect the current state of the literature and emphasize the novelty of our direct observations.

      (2) Statistics for the microscopy images, on which most conclusions in this manuscript are based, are completely missing. Given that most micrographs present one or very few cells, together with the fact that almost all conclusions depend on whether certain macromolecules are at one or two poles and whether different complexes are in the same pole, proper statistics, based on hundreds of cells in several fields, are absolutely required. Without this information, the results are anecdotal and do not support the conclusions. Due to the importance of statistics for this manuscript, strict statistical tests should be used and reported. Moreover, representative large fields with many cells should be added as supportive information.

      We thank the reviewer for this important comment, which significantly improves the rigor and persuasiveness of our manuscript.

      For the colocalization analyses presented in Fig. 1D and Fig. 2B, we quantified 145 and 101 cells with fluorescently labeled flagella, respectively, and observed consistent colocalization of the chemoreceptor complexes and flagella in all examined cells (now added in the figure legends). Regarding the distribution patterns of chemoreceptors shown in Fig. 3A, we have now included comprehensive statistical analyses for both wild-type and mutant strains. For each strain, more than 300 cells were analyzed across at least three independent microscopic fields, providing robust statistical power (detailed data are presented in Fig. 3C).

      To further strengthen the evidence, statistical tests were applied to confirm the significance and reproducibility of our findings (Fig. 3C). In addition, representative large-field fluorescence images containing numerous cells have been added to the supplementary materials (Fig. S1 and Fig. S3).

      The problem is more pronounced when the authors make strong statements, as in lines 157-158: "The results revealed that the chemoreceptor arrays no longer grow robustly at the cell pole (Figure 2A)". Looking at the seven cells shown in Figure 2A, five of them show polar localization of the chemoreceptors. The question is then: what is the percentage of cells that show precise polar, near-polar, or mid cell localization (the three patterns shown here) in the mutant and in the wild type? Since I know that these three patterns can also be observed in WT cells, what counts is the difference, and whether it is statistically significant.

      We thank the reviewer for raising this important point. Following the reviewer's suggestion, we have now analyzed and categorized the distribution of the chemotaxis complex in both wild-type and flhF mutant strains into three patterns: precise-polar, near-polar, and mid-cell localization. For each strain, more than 200 cells across three independent fields of view were quantified.

      Our statistical analysis shows that in the wild-type strain, approximately 98% of cells exhibit precise polar localization of the chemotaxis complex. In contrast, the ΔflhF mutant displays a clear shift in distribution, with about 5% of cells showing mid-cell localization and 9.5% showing near-polar localization. These differences demonstrate a significant alteration in the spatial pattern upon flhF deletion.

      We have revised the relevant text in lines 166-170 accordingly and included the detailed statistical data in the newly added Fig. S4.

      Even for the graphs shown in Figures 3C and 3D, where the proportion of cells with obvious chemoreceptor arrays and absolute fluorescence brightness of the chemosensory array are shown, respectively, the questions that arise are: for how many individual cells these values hold and what is the significance of the difference between each two strains?

      The number of cells analyzed for each strain is indicated in the original manuscript: 372 wild-type cells (line 123), 221 ΔflhF cells (line 172), 234 ΔfliG cells (line 197), 323 ΔfliF cells (line 200), 672 ΔflhFΔfliF cells (line 202), and 242 ΔmotAΔmotCD cells (line 207). For each strain, data were collected from three independent fields of view. We have now also provided the number of cells in Fig. 3 legend.

      We have now performed statistical comparisons using t-tests between strains. Notably, the measured values in Fig. 3C exhibit a clear, monotonic decrease with successive gene knockouts, supporting the robustness of the observed trend.

      Regarding the absolute fluorescence intensity shown in the original Fig. 3D, the mutants did not display consistent directional changes compared to the wild type. Reliable comparison of absolute fluorescence intensity requires consistent fluorescent protein maturation levels across strains. Given the likely variability in maturation levels between strains, we concluded that this data may not accurately reflect true differences in protein concentrations. Therefore, we have removed the fluorescence intensity graph from the revised manuscript to avoid potential misinterpretation.

      (3) The authors conclude that "Motor structural integrity is a prerequisite for chemoreceptor self-assembly" based on the reduction in cells with chemoreceptor clusters in mutants deleted for flagellar genes, despite the proper polar localization of the chemotaxis protein CheY. They show that the level of CheY in the WT and the mutant strains is similar, based on Western blot, which in my opinion is over-exposed. "To ascertain whether it is motor integrity rather than functionality that influences the efficiency of chemosensory array assembly", they constructed a mutant deleted for the flagella stator and found that the motor is stalled while CheY behaves like in WT cells. The authors further "quantified the proportion of cells with receptor clusters and the absolute fluorescence intensity of individual clusters (Figures 3C-D)". While Figure 3DC suggests that, indeed, the flagella mutants show fewer cells with a chemotaxis complex, Figure 3D suggests that the differences in fluorescence intensity are not statistically significant. Since it is obvious that the regulation of both structures' production and localization is codependent, I think that it takes more than a Western blot to make such a decision.

      We thank the reviewer for the suggestions. To further clarify that the assembly of flagellar motors and chemoreceptor clusters occurs in an orderly manner rather than being merely codependent, we performed additional experiments. Specifically, we constructed a ΔcheA mutant strain, in which chemoreceptor clusters fail to assemble. Using in vivo fluorescent labeling of flagellar filaments, we observed that the proportion of cells with flagellar filaments in the ΔcheA strain was comparable to that of the wild type (Fig. S5).

      In contrast, mutants lacking complete motor structures, such as ΔfliF and ΔfliG, showed a significant reduction in the proportion of cells with obvious receptor clusters (Fig. 3C). Based on these results, we conclude that the structural integrity of the flagellar motor is, to a certain extent, a prerequisite for the self-assembly of chemoreceptor clusters.

      Accordingly, we have revised the relevant statement in lines 213-217 of the manuscript to reflect this clarification.

      (4) I wonder why the authors chose to label CheY, which is the only component of the chemotaxis complex that shuttles back and forth to the base of the flagella. In any case, I think that they should strengthen their results by repeating some key experiments with labeled CheW or CheA.

      We thank the reviewer for this valuable suggestion. In our study, we initially focused on the positional relationship between chemoreceptor clusters and flagella, then investigated factors influencing cluster distribution and assembly efficiency. The physiological significance of motor and cluster co-localization was ultimately proposed with CheY as the starting point.

      Previous work by Harwood's group demonstrated that both CheY-YFP and CheA-GFP localize to the old poles of dividing Pseudomonas aeruginosa cells. Since our physiological hypothesis centers on CheY, we chose to label CheY-EYFP in our experiments.

      To further strengthen our conclusions, we constructed a plasmid expressing CheA-CFP and introduced it into the cheY-eyfp strain via electroporation. Fluorescence imaging revealed a high degree of spatial overlap between CheA-CFP and CheY-EYFP (Fig. S2), confirming that CheY-EYFP accurately marks the location of the chemoreceptor complex.

      We have revised the manuscript accordingly (lines 119-123) and added these data as Fig. S2.

      (5) The last section of the results is very problematic, regarding the rationale, the conclusions, and the novelty. As far as the rationale is concerned, I do not understand why the authors assume that "a spatial separation between the chemoreceptors and flagellar motors should not significantly impact the temporal comparison in bacterial chemotaxis". Is there any proof for that?

      We apologize for the lack of clarity in our original explanation. The rationale behind the statement was initially supported by comparing the timescales of CheY-P diffusion and temporal comparison in chemotaxis. Specifically, the diffusion time for CheY-P to traverse the entire length of a bacterial cell is approximately 100 ms (refs 39&40), whereas the timescale for bacterial chemotaxis temporal comparison is on the order of seconds (ref 41).

      To clarify and strengthen this argument, we have expanded the discussion as follows:

      The diffusion coefficient of CheY in bacterial cells is about 10 µm2/s, which corresponds to an estimated end-to-end diffusion time on the order of 100 ms (refs 40&41). If the chemotaxis complexes were randomly distributed rather than localized, diffusion times would be even shorter. In contrast, the timescale for the chemotaxis temporal comparison is on the order of seconds (ref. 42). Additionally, a study by Fukuoka and colleagues reported that intracellular chemotaxis signal transduction requires approximately 240 ms beyond CheY or CheY-P diffusion time (ref. 41). Moreover, the intervals of counterclockwise (CCW) and clockwise (CW) rotation of the P. aeruginosa flagellar motor under normal conditions are 1-2 seconds, as determined by tethered cell or bead assays (refs. 30&43).

      Taken together, these indicate that for P. aeruginosa, which moves via a run-reverse mode, the potential 100 ms reduction in response time due to co-localization of the chemotaxis complex and motor has a limited effect on overall chemotaxis timing.

      We have revised the corresponding text accordingly (lines 238-245) to better explain this rationale.

      More surprising for me was to read that "The signal transduction pathways in E. coli are relatively simple, and the chemotaxis response regulator CheY-P affects only the regulation of motor switching". There are degrees of complexity among signal transduction pathways in E. coli, but the chemotaxis seems to be ranked at the top. CheY is part of the adaptation. Perfect adaptation, as many other issues related to the chemotaxis pathway, which include the wide dynamic range, the robustness, the sensitivity, and the signal amplification (gain), are still largely unexplained. Hence, such assumptions are not justified.

      We apologize for the confusion and imprecision in our original statements. Our intention was to convey that the chemotaxis pathway in E. coli is relatively simple compared to the more complex chemosensory systems in P. aeruginosa. We did not mean to generalize this simplicity to all signal transduction pathways in E. coli.

      We acknowledge that E. coli chemotaxis is a highly sophisticated system, involving processes such as perfect adaptation, wide dynamic range, robustness, sensitivity, and signal amplification, many aspects of which remain incompletely understood. CheY indeed plays a crucial role in adaptation and motor switching regulation.

      Accordingly, we have revised the original text (lines 249-255) to avoid any misunderstanding.

      More perplexing is the novelty of the authors' documentation of the effect of the chemotaxis proteins on the c-di-GMP level. In 2013, Kulasekara et al. published a paper in eLife entitled "c-di-GMP heterogeneity is generated by the chemotaxis machinery to regulate flagellar motility". In the same year, Kulasekara published a paper entitled "Insight into a Mechanism Generating Cyclic di-GMP Heterogeneity in Pseudomonas aeruginosa". The authors did not cite these works and I wonder why.

      We apologize for having been unaware of these important references and thank the reviewer for bringing them to our attention. We have now cited the eLife paper and the PhD thesis titled "Insight into a Mechanism Generating Cyclic di-GMP Heterogeneity in Pseudomonas aeruginosa" by Kulasekara et al.

      Regarding novelty, there are key differences between our findings and those reported by Kulasekara et al. While they proposed that CheA influences c-di-GMP heterogeneity through interaction with a specific phosphodiesterase (PDE), our results demonstrate that overexpression of CheY leads to an increase in intracellular c-di-GMP levels.

      We have revised the original text accordingly (lines 358-362) to clarify these distinctions.

      (6) Throughout the manuscript, the authors refer to foci of fluorescent CheY as "chemoreceptor arrays". If anything, these foci signify the chemotaxis complex, not the membrane-traversing chemoreceptors.

      We thank the reviewer for this clarification. We have revised the manuscript accordingly to refer to the fluorescent CheY foci as representing the chemotaxis complex rather than the chemoreceptor arrays.

      Conclusions:

      The manuscript addresses an interesting subject and contains interesting, but incomplete, data.

      Reviewer #2 (Public Review):

      Summary:

      Here, the authors studied the molecular mechanisms by which the chemoreceptor cluster and flagella motor of Pseudomonas aeruginosa (PA) are spatially organized in the cell. They argue that FlhF is involved in localizing the receptors-motor to the cell pole, and even without FlhF, the two are colocalized. FlhF is known to cause the motor to localize to the pole in a different bacterial species, Vibrio cholera, but it is not involved in receptor localization in that bacterium. Finally, the authors argue that the functional reason for this colocalization is to insulate chemotactic signaling from other signaling pathways, such as cyclic-di-GMP signaling.

      Strengths:

      The experiments and data look to be high-quality.

      Weaknesses:

      However, the interpretations and conclusions drawn from the experimental observations are not fully justified in my opinion.

      I see two main issues with the evidence provided for the authors' claims.

      (1) Assumptions about receptor localization:

      The authors rely on YFP-tagged CheY to identify the location of the receptor cluster, but CheY is a diffusible cytoplasmic protein. In E. coli, CheY has been shown to localize at the receptor cluster, but the evidence for this in PA is less strong. The authors refer to a paper by Guvener et al 2006, which showed that CheY localizes to a cell pole, and CheA (a receptor cluster protein) also localizes to a pole, but my understanding is that colocalization of CheY and CheA was not shown. My concern is that CheY could instead localize to the motor in PA, say by binding FliM. This "null model" would explain the authors' observations, without colocalization of the receptors and motor. Verifying that CheY and CheA are colocalized in PA would be a very helpful experiment to address this weakness.

      We thank the reviewer for this valuable suggestion. We agree that verifying the colocalization of CheY and CheA would strengthen our conclusions. To address this, we constructed a plasmid expressing CheA-CFP and introduced it into the CheY-EYFP strain by electroporation. Fluorescence imaging revealed a high degree of spatial overlap between CheA-CFP and CheY-EYFP signals, indicating that CheY-EYFP indeed marks the location of the chemoreceptor complex rather than the flagellar motor.

      We have revised the manuscript accordingly (lines 118-123) and included these results in the new Fig. S2.

      (2) Argument for the functional importance of receptor-motor colocalization at the pole:

      The authors argue that colocalization of the receptors and motors at the pole is important because it could keep phosphorylated CheY, CheY-p, restricted to a small region of the cell, preventing crosstalk with other signaling pathways. Their evidence for this is that overexpressing CheY leads to higher intracellular cdG levels and cell aggregation. Say that the receptors and motors are colocalized at the pole. In E. coli, CheY-p rapidly diffuses through the cell. What would prevent this from occurring in PA, even with colocalization?

      We appreciate the reviewer's insightful question. The colocalization of both the signaling source (the kinase) and sink (the phosphatase) at the chemoreceptor complex at the cell pole results in a rapid decay of CheY-P concentration within approximately 0.2 µm from the cell pole, leading to a nearly uniform distribution elsewhere in the cell, as demonstrated by Vaknin and Berg (ref. 46). This spatial arrangement effectively confines high CheY-P levels to the pole region. When the motor is also localized at the cell pole, this reduces the need for elevated CheY-P concentrations throughout the cytoplasm, thereby minimizing potential crosstalk with other signaling pathways.

      We have revised the manuscript accordingly (lines 280-286) to clarify this point.

      Elevating CheY concentration may increase the concentration of CheY-p in the cell, but might also stress the cells in other unexpected ways. It is not so clear from this experiment that elevated CheY-p throughout the cell is the reason that they aggregate, or that this outcome is avoided by colocalizing the receptors and motor at the same pole. If localization of the receptor array and motor at one pole were important for keeping CheY-p levels low at the opposite pole, then we should expect cells in which the receptors and motor are not at the pole to have higher CheY-p at the opposite pole. According to the authors' argument, it seems like this should cause elevated cdG levels and aggregation in the delta flhF mutants with wild-type levels of CheY. But it does not look like this happened. Instead of varying CheY expression, the authors could test their hypothesis that receptor-motor colocalization at the pole is important for preventing crosstalk by measuring cdG levels in the flhF mutant, in which the motor (and maybe the receptor cluster) are no longer localized in the cell pole.

      We thank the reviewer for raising the important point regarding potential cellular stress caused by elevated CheY concentrations, as well as for the suggestion to test the hypothesis using ΔflhF mutants.

      First, as noted above, CheY-P concentration rapidly decreases away from the receptor complex. While deletion of flhF alters the position of the receptor complex, thereby shifting the region of high CheY-P concentration, it does not increase CheY-P levels elsewhere in the cell. Importantly, in the ΔflhF strain, the receptor complex and the motor still colocalize, so this mutant may not effectively test the role of receptor-motor colocalization in preventing crosstalk as suggested.

      Regarding the possibility that elevated CheY levels stress the cells independently of CheY-P signaling, prior work in <i.E. coli by Cluzel et al. (ref. 11) showed that overexpressing CheY several-fold did not cause phenotypic changes, indicating that simple CheY overexpression alone may not be generally stressful. Furthermore, our data indicate that the increase in c-di-GMP levels and subsequent cell aggregation upon CheY overexpression is not an all-or-none switch but occurs progressively as CheY concentration rises.

      To further confirm that CheY overexpression promotes aggregation through increased c-di-GMP levels, we performed additional experiments co-overexpressing CheY and a phosphodiesterase (PDE) from E. coli to reduce intracellular c-di-GMP. These experiments showed that PDE expression mitigates cell aggregation caused by CheY overexpression (Fig. S8).

      We have revised the manuscript accordingly (lines 290-294) and added these new results in Fig. S8.

      Reviewer #3 (Public Review):

      Summary:

      The authors investigated the assembly and polar localization of the chemosensory cluster in P. aeruginosa. They discovered that a certain protein (FlhF) is required for the polar localization of the chemosensory cluster while a fully-assembled motor is necessary for the assembly of the cluster. They found that flagella and chemosensory clusters always co-localize in the cell; either at the cell pole in wild-type cells or randomly-located in the cell in FlhF mutant cells. They hypothesize that this co-localization is required to keep the level of another protein (CheY-P), which controls motor switching, at low levels as the presence of high levels of this protein (if the flagella and chemosensory clusters were not co-localized) is associated with high-levels of c-di-GMP and cell aggregations.

      Strengths:

      The manuscript is clearly written and straightforward. The authors applied multiple techniques to study the bacterial motility system including fluorescence light microscopy and gene editing. In general, the work enhances our understanding of the subtlety of interaction between the chemosensory cluster and the flagellar motor to regulate cell motility.

      Weaknesses:

      The major weakness in this paper is that the authors never discussed how the flagellar gene expression is controlled in P. aeruginosa. For example, in E. coli there is a transcriptional hierarchy for the flagellar genes (early, middle, and late genes, see Chilcott and Hughes, 2000). Similarly, Campylobacter and Helicobacter have a different regulatory cascade for their flagellar genes (See Lertsethtakarn, Ottemann, and Hendrixson, 2011). How does the expression of flagellar genes in P. aeruginosa compare to other species? How many classes are there for these genes? Is there a hierarchy in their expression and how does this affect the results of the FliF and FliG mutants? In other words, if FliF and FliG are in class I (as in E. coli) then their absence might affect the expression of other later flagellar genes in subsequent classes (i.e., chemosensory genes). Also, in both FliF and FliG mutants no assembly intermediates of the flagellar motor are present in the cell as FliG is required for the assembly of FliF (see Hiroyuki Terashima et al. 2020, Kaplan et al. 2019, Kaplan et al. 2022). It could be argued that when the motor is not assembled then this will affect the expression of the other genes (e.g., those of the chemosensory cluster) which might play a role in the decreased level of chemosensory clusters the authors find in these mutants.

      We thank the reviewer for the insightful comments. P. aeruginosa possesses a four-tiered transcriptional regulatory hierarchy controlling flagellar biogenesis. Within this system, fliF and fliG belong to class II genes and are regulated by the master regulator FleQ. In contrast, chemotaxis-related genes such as cheA and cheW are regulated by intracellular free FliA, and currently, there is no evidence that FliA activity is influenced by proteins like FliG.

      To verify that the expression of core chemotaxis proteins was not affected by deletion of fliG, we performed Western blot analyses to compare CheY levels in wild-type, ΔfliF, and ΔfliG strains. We observed no significant differences, indicating that the reduced presence of receptor clusters in these mutants is not due to altered expression of chemotaxis proteins.

      Accordingly, we have revised the manuscript (lines 341-348) and updated Fig. 3B to reflect these findings.

      Recommendations for the authors:

      Reviewing Editor (Recommendations For The Authors):

      The reviewers comment on several important aspects that should be addressed, namely: the lack of statistical analysis; the need for clarifications regarding assumptions made regarding receptor localization; the functional importance of receptor-motor colocalization; and the need for an elaborate discussion of flagellar gene expression. Also, two reviewers pointed out the need to prove the co-localization of CheY and CheA; This is important since CheY is dynamic, shuttling back and forth from the chemotaxis complex to the base of the flagella, whereas CheA (or cheW or, even better, the receptors) is considered less dynamic and an integral part of the chemotaxis complex.

      Reviewer #1 (Recommendations For The Authors):

      Minor points:

      Line 43: "ubiquitous" - I would choose another word.

      We changed "ubiquitous" to "widespread".

      Line 49: "order" - change to organize.

      We changed "order" to "organize".

      Line 52: "To grow and colonize within the host, bacteria have evolved a mechanism for migrating...". Motility "towards more favorable environments" is an important survival strategy of bacteria in various ecological niches, not only within the host.

      We revised it to "grow and colonize in various ecological niches".

      Line 72: Define F6 in "F6 pathway-related receptors".

      The proteins encoded by chemotaxis-related genes collectively constitute the F6 pathway, which we have now explained in the manuscript text.

      Line 72-73: Do references 17 &18 really report colocalization of the chemotaxis receptor and flagella to the same pole? If these or other reports document such colocalization, then the sentence in the Abstract "Surprisingly, we found that both are located at the same cell pole..." is not correct.

      Kazunobu et al. (ref. 18) used scanning electron microscopy to preliminarily characterize the flagellation pattern of Pseudomonas aeruginosa during cell division, showing that existing flagella are located at the old pole. Zehra et al. (ref. 17), through fluorescence microscopy, observed that CheA and CheY proteins in dividing cells are typically also present at the old pole. Based on these observations, we inferred in the Introduction that the chemotaxis complex and flagellum may localize to the same cell pole.

      However, this inference is indirect and lacks direct live-cell evidence of colocalization, leaving its validity to be confirmed. This uncertainty was indeed the starting point and motivation for our study.

      In our work, we simultaneously visualized flagellar filaments and core chemoreceptor proteins at the single-cell level in P. aeruginosa. We characterized the assembly and spatial coordination of the chemotaxis network and flagellar motor throughout the cell cycle, providing direct evidence of their colocalization and coordinated assembly. This represents a significant advance beyond prior indirect observations and supports the novelty of our study.

      Accordingly, we have revised the relevant statements in lines 71-75 of the manuscript to better reflect the current state of the literature and emphasize the novelty of our direct observations.

      Line 108: "CheY has been shown to colocalize with chemoreceptors". The authors rely here (reference 29) and in other places on findings in E. coli. However, in the Introduction, they describe the many differences between the motility systems of P. aeruginosa and E. coli, e.g., the number of chemosensory systems and their spatial distribution (E. coli is a peritrichous bacterium, as opposed to the monotrichous bacterium P. aeruginosa). There seem to be proofs for colocalization of the Che and MCP proteins in P. aeruginosa, which should be cited here.

      Thank you for pointing this out. Harwood's group reported that a cheY-YFP fusion strain exhibited bright fluorescent spots at the cell pole, which disappeared upon knockout of cheA or cheW-genes encoding structural proteins of the chemotaxis complex. This strongly suggests colocalization of CheY with MCP proteins in P. aeruginosa. We have now cited this study as reference 17 in the manuscript.

      Figure 1B: Please replace the order of the schematic presentations, so that the cheY-egfp fusion, which is described first in the text, is at the top.

      We have modified the order of related images in Fig. 1B.

      Line 127: "by introducing cysteine mutations". Replace either by "by introducing cysteines" or by "by substituting several residues with cysteines".

      We changed the relevant statement to "by introducing cysteines".

      Line 144-145: "Given that the physiological and physical environments of both cell poles are nearly identical.". I think that also the physical, but certainly the physiological environment of the two poles is not identical. First, one is an old pole, and the other a new pole. Second, many proteins and RNAs were detected mainly or only in one of the poles of rod-shaped Gram-negative bacteria that are regarded as symmetrically dividing. Although my intuition is that the authors are correct in assuming that "it is unlikely that the unipolar distribution of the chemoreceptor array can be attributed to passive regulatory factors", relating it to the (false) identity between the poles is incorrect.

      We thank the reviewer for this important correction. We agree that the physiological environments of the two poles are not identical, given that one is the old pole and the other the new pole, and that many proteins and RNAs show polar localization in rod-shaped Gram-negative bacteria. Accordingly, we have revised the original text (lines 150-152) to read:

      “Despite potential differences in the physical and especially physiological environments at the two cell poles, it is unlikely that the unipolar distribution of the chemotaxis complex can be attributed to passive regulatory factors.”

      Lines 151-154: "Considering the consistent colocalization pattern between chemosensory arrays and flagellar motors in P. aeruginosa". Does the word consistent relate to different reports on such colocalization or to the results in Figure 1D? In case it is the latter, then what is the word consistent based on? All together only 7 cells are presented in the 5 micrographs that compose Figure 1D (back to statistics...).

      We thank the reviewer for raising this point. To clarify, the word "consistent" refers to the observation of colocalization shown in Figure 1D & Figure S3. As noted in the revised figure legend for Figure 1D, a total of 145 cells with labeled flagella were analyzed, all exhibiting consistent colocalization between flagella and chemosensory arrays. Additionally, we have included a new image showing a large field of co-localization in the wild-type strain as Figure S3 to better illustrate this consistency.

      Figure 2A: Omit "Subcellular localization of" from the beginning of the caption.

      We removed the relevant expression from the caption.

      Reviewer #2 (Recommendations For The Authors):

      I strongly recommend checking that CheY localizes to the receptor cluster in PA. This could be done by tagging cheA with a different fluorophore and demonstrating their colocalization. It would also be helpful to check that they are colocalized in the delta flhF mutant.

      We thank the reviewer for this valuable suggestion. We constructed a plasmid expressing CheA-CFP and introduced it into the CheY-EYFP strain by electroporation. Fluorescence imaging revealed a high degree of spatial overlap between CheA-CFP and CheY-EYFP signals, indicating that CheY-EYFP indeed marks the location of the chemoreceptor complex.

      We have revised the manuscript accordingly (lines 118-123) and included these results in the new Fig. S2.

      The experiments under- and over-expressing CheY part seemed too unrelated to receptor-motor colocalization. I think the authors should think about a more direct way of testing whether colocalization of the motor and receptors is important for preventing signaling crosstalk. One way would be to measure cdG levels in WT and in delta flhF mutants and see if there is a significant difference.

      We thank the reviewer for raising the important point regarding potential cellular stress caused by elevated CheY concentrations, as well as for the suggestion to test the hypothesis using flhF mutants.

      First, as noted in the response to your 2nd comment in Public Review, CheY-P concentration rapidly decreases away from the receptor complex. While deletion of flhF alters the position of the receptor complex, thereby shifting the region of high CheY-P concentration, it does not increase CheY-P levels elsewhere in the cell. Importantly, in the ΔflhF strain, the receptor complex and the motor still colocalize, so this mutant may not effectively test the role of receptor-motor colocalization in preventing crosstalk as suggested.

      Regarding the possibility that elevated CheY levels stress the cells independently of CheY-P signaling, prior work in E. coli by Cluzel et al. (ref. 11) showed that overexpressing CheY several-fold did not cause phenotypic changes, indicating that simple CheY overexpression alone may not be generally stressful. Furthermore, our data indicate that the increase in c-di-GMP levels and subsequent cell aggregation upon CheY overexpression is not an all-or-none switch but occurs progressively as CheY concentration rises.

      To further confirm that CheY overexpression promotes aggregation through increased c-di-GMP levels, we performed additional experiments co-overexpressing CheY and a phosphodiesterase (PDE) from E. coli to reduce intracellular c-di-GMP. These experiments showed that PDE expression mitigates cell aggregation caused by CheY overexpression (Fig. S8).

      We have revised the manuscript accordingly (lines 290-294) and added these new results in Fig. S8.

      Reviewer #3 (Recommendations For The Authors):

      (1) Can the authors elaborate more on the hierarchy of flagellar gene expression in P. aeruginosa and how this relates to their work?

      We thank the reviewer for the suggestion. We have now described the hierarchy of flagellar gene expression in P. aeruginosa in lines 341-348.

      (2) I would suggest that the authors check other flagellar mutants (than FliF and FliG) where the motor is partially assembled (e.g., any of the rod proteins or the P-ring protein), together with FlhF mutant, to see how a partially assembled motor affects the assembly of the chemosensory cluster.

      We thank the reviewer for this valuable suggestion. The P ring, primarily composed of FlgI, acts as a bushing for the peptidoglycan layer, and its absence leads to partial motor assembly. We constructed a ΔflgI mutant and observed that the proportion of cells exhibiting distinct chemotactic complexes was similar to that of the wild-type strain, suggesting that the assembly of the receptor complex is likely influenced mainly by the C-ring and MS-ring structures rather than by the P ring. We have revised the original text accordingly (lines 217-220) and added the corresponding data as Figure S6.

      (3) I would suggest that the authors check the levels of CheY in cells induced with different concentrations of arabinose (i.e., using western blotting just like they did in Figure 3B).

      We have assessed the levels of CheY in cells induced with different concentrations of arabinose using western blotting, as suggested. The results have been incorporated into the manuscript (lines 274-275) and are presented in Figure S7.

      (4) To my eyes, most of the foci in FliF-FlhF mutant in Figure 3A are located at the pole (which is unlike the FlhF mutant in Figure 2). Is this correct? I would suggest that the authors also investigate this to see where the chemosensory cluster is located.

      We thank the reviewer for pointing this out. The distribution of the chemotaxis complex in the ΔflhFΔfliF strain was investigated and showed in Fig. S4. Indeed, most of the chemoreceptor foci in this mutant are located at the pole. This probably suggests that, in the absence of both FlhF and an assembled motor, the position of the receptor complex may be largely influenced by passive factors such as membrane curvature. This interesting possibility warrants further investigation in future studies.

    1. Author response:

      The following is the authors’ response to the original reviews.

      Public Reviews:

      Reviewer #1 (Public review):

      Summary

      In this work, the authors recorded the dynamics of the 5-HT with fiber photometry from CA1 in one hemisphere and LFP from CA1 in the other hemisphere. They observed an ultra-slow oscillation in the 5-HT signal during both wake fulness and NREM sleep. The authors have studied different phases of the ultra-slow oscillation to examine the potential difference in the occurrence of some behavioral state-related physiological phenomena hippocampal ripples, EMG, and inter-area coherence).

      Strengths

      The relation between the falling/rising phase of the ultra-slow oscillation and the ripples is sufficiently shown. There are some minor concerns about the observed relations that should be addressed with some further analysis.

      Systematic observations have started to establish a strong relation between the dynamics of neural activity across the brain and measures of behavioral arousal. Such relations span a wide range of temporal scales that are heavily inter-related. Ultra-slow time-scales are specifically under-studied due to technical limitations and neuromodulatory systems are the strongest mechanistic candidates for controlling/modulating the neural dynamics at these time-scales. The hypothesis of the relation between a specific time-scale and one certain neuromodulator (5-HT in this manuscript) could have a significant impact on the understanding of the hierarchy in the temporal scales of neural activity.

      Weaknesses:

      One major caveat of the study is that different neuromodulators are strongly correlated across all time scales and related to this, the authors need to discuss this point further and provide more evidence from the literature (if any) that suggests similar ultra-slow oscillations are weaker or lack from similar signals recorded for other neuromodulators such as Ach and NA.

      The reviewer is correct to point out that the levels of different neuromodulators are often correlated. For example, most monoaminergic neurons, including serotonergic neurons of the raphe nuclei, show similar firing rates across behavioral states, firing most during wake behavior, less during NREM, and ceasing firing during ‘paradoxical sleep’ or REM (Eban-Rothschild et al 2018). Notably, other neuromodulators, such as acetylcholine (ACh), show the opposite pattern across states, with highest levels observed during REM, an intermediate level during wake behavior, and the lowest level during NREM (Vazquez et al. 2001). Despite these differences, ultraslow oscillations of both monoaminergic and non-monoaminergic neuromodulators, have been described, albeit only during NREM sleep (Zhang et al. 2021, Zhang et al. 2024, Osorio-Ferero et al. 2021, Kjaerby et al. 2022). How ultraslow oscillations of different neuromodulators are related has been only recently explored (Zhang et al. 2024). In this study, dual recording of oxytocin (Oxt) and ACh with GRAB sensors showed that the levels of the two neuromodulators were indeed correlated at ultraslow frequencies with a 2 s temporal shift. Furthermore, this shift could be explained by a hippocampal-to-lateral septum intermediate pathway, in which the level of ACh causally impacts hippocampal activity, which then in turn controls Oxt levels. Given the known temporal relationship between ripples, ACh and Oxt, and now with our work, between ripples and 5-HT, one could infer the relative timing of ultraslow oscillations of ACh, Oxt and 5-HT. While dual recordings of norepinephrine (NE) and 5-HT have not been performed, a similar correlation with temporal shift could be hypothesized given the parallel relationships between NE and spindles (OsorioFerero et al. 2021), and 5-HT and ripples, with the known temporal delay between ripples and spindles (Staresina et al. 2023). The fact that the locus coerulus receives particularly dense projections from the dorsal raphe nucleus (Kim et al. 2004) further suggests that 5-HT ultraslow oscillations could drive NE oscillations. How exactly ultraslow oscillations of serotonin are related to ultraslow oscillations of different neuromodulators in different brain regions remains to be studied.

      We have further addressed this question and how it relates to the issue of causality in the Discussion section of the manuscript (p. 13):

      “In addition to the difficulties involved with typical causal interventions already mentioned, the fact that the levels of different neuromodulators are interrelated and affected by ongoing brain activity makes it very hard to pinpoint ultraslow oscillations of one specific neuromodulator as controlling specific activity patterns, such as ripple timing. While a recent paper purported to show a causative effect of norepinephrine levels on ultraslow oscillations of sigma band power, the fact that optogenetic inhibition of locus coerulus (LC) cells, but also excitation, only caused a minor reduction of the ultraslow sigma power oscillation suggests that other factors also contribute (Osorio-Forero et al., 2021). Generally, it is thought that many neuromodulators together determine brain states in a combinatorial manner, and it is probable that the 5-HT oscillations we measure, like the similar oscillations in NE, are one factor among many.

      Nevertheless, given the known effects of 5-HT on neurons, it is not unlikely that the 5-HT fluctuations we describe have some impact on the timing of ripples, MAs, hippocampal-cortical coherence, or EMG signals that correlate with either the rising or descending phase. In fact, causal effects of 5-HT on ripple incidence (Wang et al. 2015, ul Haq et al. 2016 and Shiozaki et al. 2023), MA frequency (Thomas et al. 2022), sensory gating (Lee et al. 2020), which is subserved by inter-areal coherence (Fisher et al. 2020), and movement (Takahashi et al. 2000, Alvarez et al. 2022, Jacobs et al. 1991 and Luchetti et al. 2020) have all been shown. Our added findings that serotonin affects ripple incidence in hippocampal slices in a dose-dependent manner (Figure S1) further suggests that the relationship between ultraslow 5-HT oscillations and ripples we report may indeed result, at least in part, from a direct effect of serotonin on the hippocampal network.

      Whether these ‘causal’ relationships between 5-HT and the different activity measures we describe can be used to support a causal link between ultraslow 5-HT oscillations and the correlated activity we report remains an open question. To that point, some studies have described changes in ultraslow oscillations due to manipulation of serotonin signaling. Specifically, reduction of 5-HT1a receptors in the dentate gyrus was recently shown to reduce the power of ultraslow oscillations of calcium activity in the same region (Turi et al. 2024). Furthermore, psilocin, which largely acts on the 5-HT2a receptor, decreased NREM episode length from around 100 s to around 60 s, and increased the frequency of brief awakenings (Thomas et al. 2022). While ultraslow oscillations were not explicitly measured in this study, the change in the rhythmic pattern of NREM sleep episodes and brief awakenings, or microarousals, suggests an effect of psilocin on ultraslow oscillations during NREM. Although these studies do not necessarily point to an exclusive role for 5-HT in controlling ultraslow oscillations of different brain activity patterns, they show that changes in 5-HT can contribute to changes in brain activity at ultraslow frequencies.”

      A major question that has been left out from the study and discussion is how the same level of serotonin before and after the peak could be differentially related to the opposite observed phenomenon. What are the possible parallel mechanisms for distinguishing between the rising and falling phases? Any neurophysiological evidence for sensing the direction of change in serotonin concentration (or any other neuromodulator), and is there any physiological functionality for such mechanisms?

      We have added a paragraph in the discussion to address how this differentiation of the 5-HT signal may be carried out (Discussion, paragraph #3, p. 10):

      “In order for the ultraslow oscillation phase to segregate brain activity, as we have observed, the hippocampal network must somehow be able to sense the direction of change of serotonin levels. While single-cell mechanisms related to membrane potential dynamics are typically too fast to explain this calculation, a theoretical work has suggested that feedback circuits can enable such temporal differentiation, also on the slower timescales we observe (Tripp and Eliasmith, 2010). Beyond the direction of change in serotonin levels, temporal differentiation could also enable the hippocampal network to discern the steeper rising slope versus the flatter descending slope that we observe in the ultraslow 5-HT oscillations (Figure S2), which may also be functionally relevant (Cole and Voytek, 2017). The distinction between the rising and falling phase of ultraslow oscillations is furthermore clearly discernible at the level of unit responses, with many units showing preferences for either half of the ultraslow period (Figure S6). Another factor that could help distinguish the rising from the falling phase is the level of other neuromodulators, as it is likely the combination of many neuromodulators at any given time that defines a behavioral substate. Given the finding that ACh and Oxt exhibit ultraslow oscillations with a temporal shift (Zhang et al. 2024), one could posit that distinct combinations of different levels of neuromodulators could segregate the rising from the falling phase via differential effects of the combination of neuromodulators on the hippocampal network.”

      Functionally, the ability to distinguish between the rising and falling phases of an oscillatory cycle is a form of phase coding. A well-known example of this can be seen in hippocampal place cells, which fire relative to the ongoing theta oscillations. The key advantage of phase coding is that it introduces an additional dimension, i.e. phase of firing, beyond the simple rate of neural firing. This allows for the multiplexing of information (Panzeri et al., 2010), enabling the brain to encode more complex patterns of activity. Moreover, phase coding is metabolically more efficient than traditional spike-rate coding (Fries et al., 2007).

      Reviewer #2 (Public review):

      Summary:

      In their study, Cooper et al. investigated the spontaneous fluctuations in extracellular 5-HT release in the CA1 region of the hippocampus using GRAB5-HT3.0. Their findings revealed the presence of ultralow frequency (less than 0.05 Hz) oscillations in 5-HT levels during both NREM sleep and wakefulness. The phase of these 5-HT oscillations was found to be related to the timing of hippocampal ripples, microarousals, electromyogram (EMG) activity, and hippocampal-cortical coherence. In particular, ripples were observed to occur with greater frequency during the descending phase of 5-HT oscillations, and stronger ripples were noted to occur in proximity to the 5-HT peak during NREM. Microarousal and EMG peaks occurred with greater frequency during the ascending phase of 5-HT oscillations. Additionally, the strongest coherence between the hippocampus and cortex was observed during the ascending phase of 5-HT oscillations. These patterns were observed in both NREM sleep and the awake state, with a greater prevalence in NREM. The authors posit that 5-HT oscillations may temporally segregate internal processing (e.g., memory consolidation) and responsiveness to external stimuli in the brain.

      Strengths:

      The findings of this research are novel and intriguing. Slow brain oscillations lasting tens of seconds have been suggested to exist, but to my knowledge they have never been analyzed in such a clear way. Furthermore, although it is likely that ultra-slow neuromodulator oscillations exist, this is the first report of such oscillations, and the greatest strength of this study is that it has clarified this phenomenon both statistically and phenomenologically.

      Weaknesses:

      As with any paper, this one has some limitations. While there is no particular need to pursue them, I will describe ten of them below, including future directions:

      (1) Contralateral recordings: 5-HT levels and electrophysiological recordings were obtained from opposite hemispheres due to technical limitations. Ipsilateral simultaneous recordings may show more direct relationships.

      Although we argue that bilateral symmetry defines both the serotonin system and many hippocampal activity patterns (Methods: Dual fiber photometry and silicon probe recordings), we agree that ipsilateral recordings would be superior to describe the link between serotonin and electrophysiology in the hippocampus. In addition to noting that a recent study has adopted the same contralateral design (Zhang et al. 2024), we add a reference further supporting bilateral hippocampal synchrony, specifically of dentate spikes (Farrell et al. 2024). However, as functional lateralization has been recently proposed to underlie certain hippocampal functions in the rodent (Jordan 2020), future studies should ideally include both imaging and electrophysiology in a single hemisphere to guarantee local correlations rather than assuming inter-hemispheric synchrony. This could be accomplished using an integrated probe with attached optical fibers, as described in Markowitz et al. 2018, which is however technically more challenging and has, to our knowledge, not yet been implemented with fiber photometry recordings with GRAB sensors. Given the required separation of a few hundred micrometers between the probe shanks and the optical fiber cannula, it is important to consider whether the recordings are capturing the same neuronal populations. For example, there is a risk of recording electrical activity from dorsal hippocampal neurons while simultaneously measuring light signals from neurons in the intermediate hippocampus, which are functionally distinct populations (Fanselow and Dong 2009).

      (2) Sample size: The number of mice used in the experiments is relatively small (n=6). Validation with a larger sample size would be desirable.

      While larger sample sizes generally reduce the influence of random variability and minimize the impact of outliers on conclusions, our use of mixed-effects models mitigates these concerns by accounting for both inter-session and inter-mouse variability. With this approach, we explicitly model random effects, such as the variability between individual mice and sessions, alongside fixed effects (such as treatment), which ensures that our results are not driven by random fluctuations in a few individual mice or sessions. Furthermore, the inclusion of random intercepts and slopes in the models allows for the possibility that different animals and/or sessions have different baseline characteristics and respond to different degrees of magnitude to the treatment. In summary, while validating these findings with a larger sample size would certainly help detect more subtle effects, we are confident in the robustness of the conclusions presented.

      (3) Lack of causality: The observed associations show correlations, not direct causal relationships, between 5-HT oscillations and neural activity patterns.

      We agree that the data we present in this study is largely correlational and generally avoid claims of causality in the manuscript. In the Discussion section, we discuss barriers to interpreting typical causal interventions in vivo, such as optogenetic activation of raphe nuclei: “The two previously mentioned in vivo studies showing reduced ripple incidence…”(paragraph #10, pg. 12), as well as an added section on further causality considerations in the Discussion section of the manuscript (paragraph #12, pg. 13): “In addition to the difficulties involved with…”

      Due to these barriers, as a first step, we wanted to describe how physiological changes in serotonin levels are correlated to changes in the hippocampal activity. Equipped with a deeper understanding of physiological serotonin dynamics, future studies could explore interventions that modulate serotonin in keeping with the natural range of serotonin fluctuations for a given state. On that point, another challenge which we have not mentioned in the manuscript is that modulating serotonin, or any neuromodulator’s levels, has the potential, depending on the degree of modulation, to transition the brain to an entirely different behavioral state. This then complicates interpretation, as one is not sure whether effects observed are due to the changes in the neuromodulator itself, or secondary to changes in state. At the same time, 5-HT activity drives networks which in return can change the release of other neurotransmitters, leading to indirect effects.

      The results of our in vitro experiments suggest that a causal relationship between serotonin and ripples is possible (Figure S1). Though the hippocampal slice preparation is clearly an artificial model, it provides a controlled environment to isolate the effects of serotonin manipulation on the hippocampal formation, without the confounding influence of systemic 5-HT fluctuations in other brain regions. Notably, the dose-dependent effects of serotonin (5-HT) wash-in on ripple incidence observed in vitro closely mirror the inverted-U dose-response curve seen in our in vivo experiments across states, where small increases in serotonin lead to the highest ripple incidence, and both lower and higher levels correspond to reduced ripple activity. This parallel suggests that the gradual washing of serotonin in our in vitro system may mimic the tonic firing changes in serotonergic neurons that occur during state transitions in vivo. These findings underscore the importance of studying how different dynamics of serotonin modulation can differentially affect hippocampal network activity.

      (4) Limited behavioral states: The study focuses primarily on sleep and quiet wakefulness. Investigation of 5-HT oscillations during a wider range of behavioral states (e.g., exploratory behavior, learning tasks) may provide a more complete understanding.

      We agree that future studies should investigate a broader range of behavioral states. For this study, as we were focused on general sleep and wake patterns, our recordings were done in the home cage, and we limited ourselves to the basic behavioral states described in the paper. Future studies should be designed to investigate ultraslow 5-HT oscillations during different behaviors, such as continuous treadmill running. Specifically, a finer segregation of extended wake behaviors by level of arousal could greatly add to our understanding of the role of ultraslow serotonin oscillations.

      (5) Generalizability to other brain regions: The study focuses on the CA1 region of the hippocampus. It's unclear whether similar 5-HT oscillation patterns exist in other brain regions.

      Given the reported ultraslow oscillations of population activity in serotonergic neurons of the dorsal raphe nucleus (Kato et al. 2022) as well as the widespread projections of the serotonergic nuclei, we would expect a broad expression of ultraslow 5-HT oscillations throughout the brain. So far, ultraslow 5-HT oscillations have been described in the basal forebrain, as well as in the dentate gyrus, in addition to what we have shown in CA1 (Deng et al. 2024 and Turi et al. 2024). Furthermore, our results showing that hippocampal-cortical coherence changes according to the phase of hippocampal ultraslow 5-HT oscillations suggests that 5-HT can affect oscillatory activity either indirectly by modulating hippocampal cells projecting to the cortical network or directly by modulating the cortical postsynaptic targets. Given the heterogeneity in projection strength, as well as in pre- and postsynaptic serotonin receptor densities across brain regions (de Filippo & Schmitz, 2024), it would be interesting to see whether local ultraslow 5-HT oscillations are differentially modulated, e.g. in terms of oscillation power. Future studies investigating different brain regions via implantation of multiple optic fibers in different brain areas or using the mesoscopic imaging approach adopted in Deng et al. 2024, will be needed to examine the extent of spatial heterogeneity in this ultraslow oscillation.

      (6) Long-term effects not assessed: Long-term effects of ultra-low 5-HT oscillations (e.g., on memory consolidation or learning) were not assessed.

      While beyond the scope of our current study, we agree that an important next step would involve modulating the ultraslow serotonin oscillation after learning, and then examining potential effects on memory consolidation, presumably via changes in ripple dynamics, though many possibilities could explain potential effects. There, our results suggest it would be important to isolate effects due to the change in ultraslow oscillation features, rather than simply overall levels of 5-HT. To that end, it would be important to test different modulation dynamics, specifically modulating the oscillation strength, around a constant mean 5-HT level by carefully timed optogenetic stimulation/inhibition. Afterwards, showing a clear correlation between the strength of the 5-HT modulation and memory performance would be important to establishing the relationship, as done in Lecci et al 2017, where more prominent ultraslow oscillations of sigma power in the cortex during sleep, alongside a higher density of spindles, were correlated with better memory consolidation. Given the tight coupling of spindles and ripples during sleep, it is possible that a similar effect on memory consolidation would be observed following changes in ultraslow 5-HT oscillation power.

      (7) Possible species differences: It's uncertain whether the findings in mice apply to other mammals, including humans.

      We agree that the experiments should ultimately be replicated in humans. In the 2017 study by Lecci et al., the authors highlighted the shared functional requirements for sleep across species, despite apparent differences, such as variations in sleep volume. To explore these commonalities, the researchers conducted parallel experiments in both mice and humans, aiming to identify a universal organizing structure. They discovered that the ultraslow oscillation of sigma power serves this role, enabling both species to balance the competing demands of arousability and sleep imperviousness. Based on this finding, it is plausible that ultraslow oscillations of serotonin, which similarly modulate activity according to arousal levels, would serve a comparable function in humans.

      (8) Technical limitations: The temporal resolution and sensitivity of the GRAB5-HT3.0 sensor may not capture faster 5-HT dynamics.

      The kinetics of the GRAB5-HT3.0 sensor used in this study limit the range of serotonin dynamics we can observe. However, the ultraslow oscillations we measure reflect temporal changes on the scale of 20 s and greater, whereas the GRAB sensor we use has sub-second on kinetics and below 2 s off kinetics (Deng et al. 2024). Therefore, the sensor is capable of reporting much faster activity than the ultraslow oscillations we observe, indicating that the ultraslow 5-HT signal accurately reflects the dynamics on this time scale. Furthermore, the presence of ultraslow oscillations in spiking activity—observed in the hippocampal formation (Gonzalo Cogno et al., 2024; Aghajan et al., 2023; Penttonen et al., 1999) and in the dorsal raphe (Mlinar et al., 2016), which are not affected by the same temporal smoothing, suggests that the oscillations we record are not likely due to signal aliasing, but instead reflect genuine oscillatory activity. Of course, this does not preclude that other, faster serotonin dynamics are also present in our signal, some of which may be too fast to be observed. For instance, rapid serotonin signaling via the ionotropic 5-HT3a receptors could be missed in our recordings. Additionally, with the fiber photometry approach we adopted, we are limited to capturing spatially broad trends in serotonin levels, potentially overlooking more localized dynamics.

      (9) Interactions with other neuromodulators: The study does not explore interactions with other neuromodulators (e.g., norepinephrine, acetylcholine) or their potential ultraslow oscillations.

      We agree that the interaction between neuromodulators in the context of ultraslow oscillations is an important issue, which we have addressed in our response to reviewer #1 under ‘Weaknesses.’

      (10) Limited exploration of functional significance: While the study suggests a potential role for 5-HT oscillations in memory consolidation and arousal, direct tests of these functional implications are not included.

      We agree and reference our answer to (6) regarding memory consolidation. Regarding arousal, direct tests of arousability to different sensory stimuli during different phases of the ultraslow 5-HT oscillation during sleep would be beneficial, in addition to the indirect measures of arousal we examine in the current study, e.g. degree of movement (icEMG) and long range coherence. In line with what we have shown, Cazettes et al. (2021) has demonstrated a direct relationship between 5-HT levels and pupil size, an indicator of arousal level, which like our findings, is consistent across behavioral states.

      Reviewer #3 (Public review):

      Summary:

      The activity of serotonin (5-HT) releasing neurons as well as 5-HT levels in brain structures targeted by serotonergic axons are known to fluctuate substantially across the animal's sleep/wake cycle, with high 5-HT levels during wakefulness (WAKE), intermediate levels during non-REM sleep (NREM) and very low levels during REM sleep. Recent studies have shown that during NREM, the activity of 5HT neurons in raphe nuclei oscillates at very low frequencies (0.01 - 0.05 Hz) and this ultraslow oscillation is negatively coupled to broadband EEG power. However, how exactly this 5-HT oscillation affects neural activity in downstream structures is unclear.

      The present study addresses this gap by replicating the observation of the ultraslow oscillation in the 5-HT system, and further observing that hippocampal sharp wave-ripples (SWRs), biomarkers of offline memory processing, occur preferentially in barrages on the falling phase of the 5-HT oscillation during both wakefulness and NREM sleep. In contrast, the raising phase of the 5-HT oscillation is associated with microarousals during NREM and increased muscular activity during WAKE. Finally, the raising 5-HT phase was also found to be associated with increased synchrony between the hippocampus and neocortex. Overall, the study constitutes a valuable contribution to the field by reporting a close association between raising 5-HT and arousal, as well as between falling 5-HT and offline memory processes.

      Strengths:

      The study makes compelling use of the state-of-the-art methodology to address its aims: the genetically encoded 5-HT sensor used in the study is ideal for capturing the ultraslow 5-HT dynamics and the novel detection method for SWRs outperforms current state-of-the-art algorithms and will be useful to many scientists in the field. Explicit validation of both of these methods is a particular strength of this study.

      The analytical methods used in the article are appropriate and are convincingly applied, the use of a general linear mixed model for statistical analysis is a particularly welcome choice as it guards against pseudoreplication while preserving statistical power.

      Overall, the manuscript makes a strong case for distinct sub-states across WAKE and NREM, associated with different phases of the 5-HT oscillation.

      Weaknesses:

      All of the evidence presented in the study is correlational. While the study mostly avoids claims of causality, it would still benefit from establishing whether the 5-HT oscillation has a direct role in the modulation of SWR rate via e.g. optogenetic activation/inactivation of 5-HT axons. As it stands, the possibility that 5-HT levels and SWRs are modulated by the same upstream mechanism cannot be excluded.

      We agree that causality claims cannot be made with our data, and acknowledge the interest in exploring causal interactions between ultraslow serotonin oscillations and the correlated activity we measure. We address this point in depth in our answer to Reviewer #2, Weaknesses #3.

      Recommendations for the authors:

      Reviewer #1 (Recommendations for the authors):

      One major question in the presented data is the nature of the asymmetrical shape of the targeted slow events. How much does it reflect the 5-HT concentration and how much is this shape affected by the dynamics of the designed 5-HT sensor? This needs to be addressed in more detail referencing the original paper for the used sensor.

      We have added a paragraph in the Results section of the manuscript to address the asymmetric waveform of the ultraslow 5-HT oscillations and whether it could be affected by the asymmetric kinetics of the GRAB sensor we use: “The waveform of these ultraslow 5-HT oscillations…” (Results, paragraph #4, pg. 5). We include an extended answer to the question here:

      Indeed, the GRAB5-HT3.0 sensor we use in the study shows activation response kinetics which are faster than their deactivation time, with time constants at 0.25 s and 1.39 s, respectively (Deng et al. 2024). Likewise, the slope of the rising phase of the ultraslow serotonin oscillation we measure is faster than the slope of the falling phase, and the ratio of time spent in the rising phase versus the falling phase is less than 1, indicating longer falling phases (Figure S2). Although we cannot completely rule out that the asymmetric shape of the ultraslow serotonin oscillations we record is affected by this asymmetry in the 5-HT sensor kinetics, we believe this is unlikely, as the 5-HT signal clearly contains reductions in 5-HT levels that are much faster than the descending phase of the ultraslow oscillation. Although it is difficult to directly compare the different-sized signals, the reported timescales of off kinetics, on the order of a few seconds (Deng et al. 2024), are far below the tens of seconds timescale of the ultraslow oscillation. Furthermore, the finding that some dorsal raphe neurons modulate their firing rate at ultraslow frequencies, and moreover that all examples of such ultraslow oscillations shown display clear asymmetry in rising time versus decay, suggests that the asymmetry we observe in our data could be due to neural activity rather than temporal smoothing by the sensor (Mlinar et al. 2016). In this same direction, another study found similar asymmetry in extracellular 5-HT levels measured with fast scan cyclic voltammetry (FSCV), a technique with greater temporal resolution (sampling rate of 10 Hz) than GRAB sensors, after single pulse stimulation (Bunin and Wightman 1998). In this study, 5-HT was shown to be released extrasynaptically, making the longer clearing time compared to the release time intuitive. Finally, the observation that the onsets and offsets of ripple clusters, recorded with a sampling rate of 20 kHz, are precisely aligned with the peaks and troughs of ultraslow serotonin oscillations (Figure 1, H1-2, columns 2-3) suggests that the duration of the falling phase is not artificially distorted by the temporal smoothing of the sensor dynamics.

      Regardless of the dynamics of the serotonin concentration, it should be noted that the elicited neuronal effect might have different dynamics compared to the 5-HT concentration that need to be more studied: to address this one can either examine the average of the broadband LFP (not high passfiltered by the amplifier) or the distribution of simultaneously recorded spiking activity around the peak of ultra-slow oscillations.

      We have added Figure S6, showing unit activity relative to the phase of ultraslow serotonin oscillations.

      From this analysis, we uncover three groups of units which are largely preserved across states (Figure S6, E vs. F), albeit with a slight temporal shift rightward from NREM to WAKE (Figure S6, C vs. D). Namely, some units spike preferentially during the rising phase, some during the falling phase, and a third group have no clear phase preference. Unit activity during the falling phase is unsurprising, as it is where ripples largely occur, which themselves are associated with spike bursts. During the rising phase, the unit activity we observe could correspond to firing of the hippocampal subpopulation known to be active during NREM interruption states (Jarosiewicz et al. 2002, Miyawaki et al. 2017). While the units’ phase preference was tested based on the category of rising vs. falling phase, as this division described most variation in the data, a few units in the ‘No preference’ group showed heightened activity near the oscillation peak. However, given the very small number of units with this preference, more unit data is needed to describe this group, ideally with high-density recordings. Overall, most units showed a falling vs. rising phase preference, indicating a phase coding of hippocampal activity by 5-HT ultraslow oscillations.

      Related to the previous point, it would be helpful to show the average cycle shape of these oscillations (relative to the phase 0 extracted in Figure 3) and do the shape comparison across sessions and also wake/NREM

      We agree, and to this end we have added Figure S2. From this waveform analysis, we show that the ultraslow serotonin oscillation is asymmetric, with the rising phase having a greater slope, but shorter length, than the falling phase. While this asymmetry is observed both in NREM and WAKE, the slope difference and length ratio difference in rising vs. falling phase is greater in NREM (Figure S2. B).

      In Figure 3D, there seem to be oscillatory rhythms with faster cycles on top of the targeted oscillations. That would make the phase estimation less accurate, e.g. in the left panel, in the second cycle, it is not clear if there are two faster cycles or it is one slow cycle as targeted, and if noted in the rising phase of the second fast cycle there are no ripples. This might suggest that regardless of specific oscillation frequency whenever 5-HT is started to get released, the ripples are suppressed and once the 5-HT is not synaptically effective anymore the ripples start to get generated while the photometry signal starts to wane with the serotonin being cleared. Still, if there is any rhythmicity between bouts of no ripple, it would suggest an ultra-slow regularity in the 5-HT release.

      The reviewer is correct to point out that some faster increases in serotonin, which occur on top of the ultraslow oscillations we measure, seem to be associated with decreased ripple incidence, as in the example referenced. The dominance of ultraslow frequencies in the power spectrum of the 5-HT signal suggests, however, that oscillations faster than the ultraslow oscillations we describe are far less prevalent in the data. While there may be some coupling of ripples and other measures to serotonin oscillations of different frequencies, this may be hard or impossible to detect with phase analysis based on their infrequent occurrence and nonstationary nature. In fact, we show in Figure S3 that the strongest phase modulation of ripples by ultraslow serotonin oscillations is observed in the frequencies we use (0.01-0.06 Hz). Methodologically, phase analysis indeed assumes stationary signals, which are rare if not absent in physiological data (Lo et al. 2009), however generally the narrower the frequency band, the better the phase estimation. The narrow frequency band we use provides phase estimates that are largely robust and unaffected by the presence of faster oscillations, as can be seen in the example phase traces shown in Figure 4.

      The hypothesis that the rising phase burst of synaptic serotonin is what silences ripples, and that with the clearing of serotonin from the synapses, ripples recover, is a possible explanation of our findings. However, if this were the case, one could expect the ripple rate to increase over the course of the falling phase of ultraslow 5-HT oscillations, as 5-HT decreases, and peak at the trough. This is at odds with what we observe, namely a fairly uniform distribution of ripples along the falling phase (Figure 3F2,F4). Furthermore, the Mlinar et al. 2016 study describes a subpopulation of raphe neurons whose firing rates themselves oscillate at ultraslow frequencies, rather than on-off bursting at ultraslow frequencies, which would argue against this hypothesis. However, as this study looks at a small number of neurons in slices, further in vivo experiments examining firing rates of median raphe neurons are required to understand how the ultraslow oscillation of extracellular serotonin that we measure is generated as well as how it is related to ripple rates.

      In Figure 3B, it is not clear why IRI is z-scored. It would be informative to have the actual value of IRI. What is the z relative to? Is it the mean value of IRI in each recording session? Is this to reduce the variability across sessions?

      We have now included in Figure 3D a box plot displaying the IRI distributions across different states and sessions. To minimize inter-session variability, data were z-scored within each session for visualization purposes. However, all general linear models were based on raw data, and as a result, the raw differences in IRI are shown in Figure 3C.

      Figure 3E, panel labels don't match with the caption

      We are grateful to the reviewer for pointing out this mistake, which we have corrected in the updated version of the manuscript.

      In the text related to Figure 3E, the related analysis can be more clearly described. "phase preference of individual ripples" does not immediately suggest that the occurring phase of each ripple relative to the targeted oscillation is extracted. I suggest performing this analysis individually for each session and summarizing the results across the sessions.

      We have reworded the sentence in Results: 5-HT and ripples to better reflect the analysis performed: “Next, we calculated the ultraslow 5-HT phases at which individual ripples occurred during both NREM and WAKE (3E-F) ...”. Regarding session-level data, we have added Figure S3, which shows session level mean phase vectors, as well as the grand mean across sessions for both NREM and WAKE. Included in this figure are session level means for frequency bands outside of the ultraslow band we used in our study, intended to show that ripples are most strongly timed by the ultraslow band (0.01-0.06 Hz), reflected by the greater amplitude of the mean phase vector for this band.

      Figure 3E2, based on the result of ripple-triggered 5-HT in left panels of 2H1-2, one would expect to see a preferred phase closer to 180 (toward the end of the falling phase), it would be helpful to compare and discuss the results of these two analyses.

      The reviewer is correct to point out the apparent discrepancy in where the mean ripple falls with respect to the ongoing serotonin oscillation between the two figures mentioned. We have addressed this point in Results: 5-HT and ripples, paragraph #4: “This result appear to be at odds with…”.

      Regarding the analysis in 3F, please also compare the power distribution of ripples between NREM and wake. This will help to better understand the potential difference behind the observed difference: how much the strong ripples are comparable between wake and NREM. It is also necessary to report the ripple detection failure rate across ripples with different strengths.

      We have added a figure showing analysis done on a subset of the data in which ripples were manually curated in order to evaluate the performance of the ripple detection model (Figure S7) and explanatory text in Methods: Model performance: ‘To ensure that our model …’. In summary, while missed ripples did tend to have lower power than correctly detected ripples, including them did not change the distribution of ripples by the phase of the ultraslow serotonin oscillation (Figure S7C). We would also note that while the phase preference is noisier than what is presented in Figure 3F because this analysis was done with a small subset of all recorded ripples, the fact that ripples occur more clearly on the falling phase is visible for both detected ripples and detected + false negative ripples.

      The mixed-effects model examining the influence of 5-HT ultraslow oscillation phase on ripple power revealed no significant effect of state (p = 0.088). This indicates that whether the data were collected during NREM or wake periods did not significantly impact ripple power and that the lack of a significant effect (in Figure 3G,H) in WAKE is probably not due to a difference in the distribution of ripple power between states.

      4D, y label is z?

      We are grateful for the reviewer to point that out, yes, the y label should be ‘z-score’, as the two traces represent z-scored 5-HT (blue) and z-scored shuffled data (orange). Figure 4D2 and Figure 2H1-2, which show similar data, have been corrected to address this oversight.

      Relating to Figure 4, EMG comparison across phases of the oscillations is insightful. Two related and complementary analyses are to compare the theta and gamma power between the falling and rising phases.

      We have addressed this suggestion in Figure S5 A-C. While low gamma, high gamma and theta power are modulated identically in NREM, with higher power observed during the falling phase than the rising phase, during WAKE, different patterns can be seen. Specifically, low gamma power shows no phase preference, while high gamma shows a peak near the center of the ultraslow 5-HT oscillation. Theta power, as in NREM, is higher during the falling phase of ultraslow 5-HT oscillations. Increased power across many frequency bands was shown to coincide with decreases in DRN population activity during NREM, which matches with what we report here (Kato et al. 2022). In summary, while NREM patterns are consistent in all frequency bands tested, aligning with the pattern of ripple incidence, in WAKE low and high gamma power show different relationships to ultraslow 5-HT phase.

      In the manuscript, we have used the data in both Figure S5 and S6 (unit activity relative to ultraslow 5-HT oscillations), to argue against the idea that our coherence findings result from a lack of activity in the rising phase (see next question), which would have the effect of ‘artificially’ reducing coherence in the falling phase relative the rising phase. The text can be found in Results: 5-HT and hippocampal cortical coherence, paragraph #2.

      The results presented in Figure 5 could be puzzling and need to be further discussed: if the ripple band activity is weak during the rising phase, in what circumstances the coherence between cortex and CA1 is specifically very strong in this band?

      As mentioned in the previous answer, we have addressed this concern in Results: 5-HT and hippocampal-cortical coherence, paragraph #2. In summary, it is true that the higher coherence in rising phase than in the falling phase for the highest frequency band (termed ‘high frequency oscillation’ (HFO), 100-150 Hz) could be unexpected, given that ripples occur largely during the falling phase. A few points could help explain this finding. Firstly, it should be noted that power in the 100-150 Hz band can arise from physiological activity outside of ripples, such as filtered non-rhythmic spike bursts (Liu et al. 2022), whose coherent occurrence in the rising phase could explain the coherence findings. Secondly, coherence is a compound measure which is affected by both phase consistency and amplitude covariation (Srinath and Ray 2014), thus from only amplitude one cannot predict coherence. Furthermore, HFO power in the cortex is highest near the peak of ultraslow 5-HT oscillations (Figure S5D), as opposed to the falling phase peak in the hippocampus. This shows a lack of covariation in amplitude by phase between the hippocampus and cortex at this frequency band. An alternative explanation of our findings regarding coherence could be that in the rising phase, there is simply little to no activity, which is easier to ‘synchronize’ than bouts of high activity. Hippocampal unit activity in the rising phase (Figure S6) suggests however, that it is not likely to be the absence of activity supporting higher coherence in the rising phase across frequencies. Additional experiments using high density recordings should be conducted to examine 5-HT ultraslow oscillations and their role in gating activity across brain regions, though these results strongly suggest some role exists.

      Reviewer #2 (Recommendations for the authors):

      I would like to offer two comments. I believe that these are not unusual requests, and thus I would like the authors to respond.

      (1) It would be prudent to investigate the possibility that the observed correlation between ultraslow and hippocampal ripples/microarousals is merely superficial and that there are unidentified confounding factors at play. For example, it would be beneficial to provide evidence that administering a serotonin receptor inhibitor result in the disappearance of the slow oscillation of ripples and microarousals, or that the correlation with ultraslow is no longer present. Please note that the former experiments do not require GRAB5-HT3.0 imaging.

      We agree that causality claims cannot be made with our data and acknowledge the interest in exploring causal interactions between ultraslow serotonin oscillations and the correlated activity we measure. We address this point in depth in our answer to Reviewer #2, Weaknesses #3. We would further like to note that given the large number of serotonin receptors and the lack of selectivity of many serotonin receptor antagonists, a pharmacological approach would be difficult, though the results certainly useful. Finally, we highlight the psilocin study, which reported changes in the rhythmic occurrence of microarousals, and therefore likely ultraslow oscillations, after administering a 5-HT2a receptor agonist, suggesting a potential causal effect of 5-HT (via 5-HT2a receptor) on MA occurrence (Thomas et al. 2022).

      (2) The slow frequency appears to be associated with the default mode network as observed in fMRI signals. The neural basis of the default mode network remains unclear; therefore, a more detailed examination of this possibility would be beneficial.

      We agree that it would be interesting to investigate the role of 5-HT in the neural basis of the DMN.

      The DMN as described in humans (Raichle et al. 2001) and rodents (Lu et al. 2012) may indeed include some parts of the hippocampus and perhaps some of our neocortical recordings could also be considered part of the DMN. The fact that the activity across the inter-connected brain structures of the DMN is correlated at ultraslow time scales (Gutierrez-Barragan et al. 2019, Mantini et al. 2007), as well as serotonin’s ability to modulate the DMN is intriguing (Helmbold et al. 2016). Further studies simultaneously recording DMN activity via fMRI and electrical activity via silicon probes, as done in Logothetis et al. 2001, could elucidate further a potential link between ultraslow oscillations and the DMN, with serotonergic modulation as a means to understand any potential contribution of serotonin.

      Reviewer #3 (Recommendations for the authors):

      (1) The impact of the study would benefit from an experiment causally testing the effect of hippocampal 5-HT levels on hippocampal physiology, e.g. using optogenetic manipulations.

      We agree that causality claims cannot be made with our data and acknowledge the interest in exploring causal interactions between ultraslow serotonin oscillations and the correlated activity we measure. We address this point in depth in our answer to Reviewer #2, Weaknesses #3.

      (2) Data presentation: the figures are of poor resolution, making some diagram details and, more importantly, some example traces (e.g. Figure 1A, right) impossible to see. This should be corrected by either increasing figure resolution or making important figure elements large enough to be readable.

      We apologize for the poor resolution and have corrected it in the updated version of the manuscript.

      (3) Differences in some figure panels are not statistically assessed: Figure 1H (differences in spectrum peak power), Figure 3E1 & Figure 3E3 (directional bias of the circular distributions), Figure 4C (difference from 0 mean).

      We acknowledge this oversight and have added statistical tests for all three figures, as well as further information regarding the models used in Methods: Statistics.

      (4) Lines 279-280: the claim that the study shows "organization of activity by ultraslow oscillations of 5-HT" implies a causal role of 5-HT in organizing hippocampal activity. I suggest that this statement be toned down to reflect the correlational nature of the presented evidence.

      We have rephrased the sentence in question to the following: “In our study, including both NREM and WAKE periods allowed us to additionally show that the temporal organization of activity relative to ultraslow 5-HT oscillations operates according to the same principles in both states...”, which we believe better reflects the temporal correlation we describe.

      (5) While the study claims to use the EMG (i.e. electromyograph) signal, it does not describe any electrodes placed inside the muscle in the methods section. The SleepScoreMaster toolbox used in the study estimates the EMG using high-frequency activity correlated across recording channels, so I assume this is how this signal was obtained. While such activity may well reflect muscular noise to some degree, it is an indirect measure as the electrodes are not in the muscle. Since the EMG signal is central to the message of the manuscript, the method for calculating it should be described in the methods section and it should be explicitly labelled as an indirect measure in the main text, e.g. by referring to this signal as pseudo-EMG.

      We agree and have added explanatory text to the State Scoring subsection in Methods. Given that the EMG we refer to is derived from intracranial data, and not from traditional EMG probes, we now refer to the EMG as intracranial EMG, or icEMG for short, throughout the main text.

      (6) Is ripple frequency or ripple duration different across the rising and falling phases of the ultraslow oscillation?

      We have now investigated this suggestion in Figure S4, where we show that ripple frequency is higher in the falling phase than rising phase, while ripple duration appears to show no phase preference.

      (7) Lines 315-317: I am not sure why the manuscript refers to the coupling between EMG and 5-HT levels as 'puzzling' given that, as stated, the locomotion-inducing effects of 5-HT are well documented. While the fact that even non-locomotory motor activity may be associated with 5-HT rise is certainly interesting (although not sure if 'puzzling'), the manuscript does not directly compare the association of 5-HT levels with locomotory and non-locomotory EMG spikes. Thus, I think this discussion point is not fully warranted.

      We agree and have rephrased the discussion point in question to reflect that the EMG link to serotonin oscillations is not necessarily surprising, given both the literature linking 5-HT and spontaneous movement in the hippocampus, as well as the involvement of 5-HT in repetitive movements, where the role for a regularly-occurring oscillation is perhaps more intuitive.

      (8) Line 441: Reference #67 does not describe the use of fiber photometry.

      The reviewer is to correct to point out this typo, which has been now corrected. The reference in question should be 64, where fiber photometry experiments are described. For further clarity, we have changed our referencing scheme to include authors and years in in-text references.

      (9) In Figures 3E1-3, the phase has different bounds than in the other Figures in the manuscript (0:360 vs -180:180), this should be corrected for consistency.

      We agree and have made changes so that all figures have a phase range of -180 to 180°.

      References

      (1) Z. M Aghajan, G. Kreiman, I. Fried, Minute-scale periodicity of neuronal firing in the human entorhinal cortex. Cell Rep 42, 113271 (2023).

      (2) M.A. Bunin, R.M. Wightman (1998). Quantitative Evaluation of 5-Hydroxytryptamine (Serotonin) Neuronal Release and Uptake: An Investigation of Extrasynaptic Transmission. J. Neurosci. 18 (13) 4854-4860

      (3) F. Cazettes, D. Reato, J. P. Morais, A. Renart, Z. F. Mainen, Phasic Activation of Dorsal Raphe Serotonergic Neurons Increases Pupil Size. Curr Biol 31, 192-197.e4 (2021).

      (4) Cole SR, Voytek B. Brain Oscillations and the Importance of Waveform Shape. Trends Cogn Sci. 21(2):137-149 (2017).

      (5) F. Deng, et al., Improved green and red GRAB sensors for monitoring spatiotemporal serotonin release in vivo. Nat Methods 21, 692–702 (2024).

      (6) C. Dong, et al., Psychedelic-inspired drug discovery using an engineered biosensor. Cell 184, 2779-2792.e18 (2021).

      (7) A. Eban-Rothschild, L. Appelbaum, L. de Lecea, Neuronal Mechanisms for Sleep/Wake Regulation and Modulatory Drive. Neuropsychopharmacol. 43, 937–952 (2018).

      (8) M. S. Fanselow, H.-W. Dong, Are the dorsal and ventral hippocampus functionally distinct structures? Neuron 65, 7–19 (2010).

      (9) J. S. Farrell, E. Hwaun, B. Dudok, I. Soltesz, Neural and behavioural state switching during hippocampal dentate spikes. Nature 1–6 (2024). https://doi.org/10.1038/s41586-024-07192-8.

      (10) De Filippo, R., & Schmitz, D. (2024). Transcriptomic mapping of the 5-HT receptor landscape. Patterns (New York, N.Y.), 5(10), 101048.

      (11) M. J. Fisher, et al., Neural mechanisms of sensory gating: Insights from human and animal studies. NeuroImage 207, 116374 (2020).

      (12) P. Fries, D. Nikolić, W. Singer, The gamma cycle. Trends in Neurosciences 30, 309–316 (2007).

      (13) S. Gonzalo Cogno, et al., Minute-scale oscillatory sequences in medial entorhinal cortex. Nature 625, 338–344 (2024).

      (14) D. Gutierrez-Barragan, M. A. Basson, S. Panzeri, A. Gozzi, Infraslow State Fluctuations Govern Spontaneous fMRI Network Dynamics. Current Biology 29, 2295-2306.e5 (2019).

      (15) K. Helmbold, et al., Serotonergic modulation of resting state default mode network connectivity in healthy women. Amino Acids 48, 1109–1120 (2016).

      (16) B. Jarosiewicz, B. L. McNaughton, W. E. Skaggs, Hippocampal Population Activity during the Small-Amplitude Irregular Activity State in the Rat. J. Neurosci. 22, 1373–1384 (2002).

      (17) J. T. Jordan, The rodent hippocampus as a bilateral structure: A review of hemispheric lateralization. Hippocampus 30, 278–292 (2020).

      (18) T. Kato, et al., Oscillatory Population-Level Activity of Dorsal Raphe Serotonergic Neurons Is Inscribed in Sleep Structure. J. Neurosci. 42, 7244–7255 (2022).

      (19) M.A. Kim, H. S. Lee, B. Y. Lee, B. D. Waterhouse, Reciprocal connections between subdivisions of the dorsal raphe and the nuclear core of the locus coeruleus in the rat. Brain Research 1026, 56–67 (2004).

      (20) C. Kjaerby, et al., Memory-enhancing properties of sleep depend on the oscillatory amplitude of norepinephrine. Nat Neurosci 25, 1059–1070 (2022).

      (21) S. Lecci, et al., Coordinated infraslow neural and cardiac oscillations mark fragility and offline periods in mammalian sleep. Sci Adv 3, e1602026 (2017).

      (22) A. A. Liu, et al., A consensus statement on detection of hippocampal sharp wave ripples and differentiation from other fast oscillations. Nat Commun 13, 6000 (2022).

      (23) M.-T. Lo, P.-H. Tsai, P.-F. Lin, C. Lin, Y. L. Hsin, The nonlinear and nonstationary properties in eeg signals: probing the complex fluctuations by hilbert–huang transform. Adv. Adapt. Data Anal. 01, 461–482 (2009).

      (24) N. K. Logothetis, J. Pauls, M. Augath, T. Trinath, A. Oeltermann, Neurophysiological investigation of the basis of the fMRI signal. Nature 412, 150–157 (2001).

      (25) H. Lu, et al., Rat brains also have a default mode network. Proc Natl Acad Sci U S A 109, 3979–3984 (2012).

      (26) D. Mantini, M. G. Perrucci, C. Del Gratta, G. L. Romani, M. Corbetta, Electrophysiological signatures of resting state networks in the human brain. Proc Natl Acad Sci U S A 104, 13170– 13175 (2007).

      (27) J. E. Markowitz, et al., The striatum organizes 3D behavior via moment-to-moment action selection. Cell 174, 44-58.e17 (2018).

      (28) H. Miyawaki, Y. N. Billeh, K. Diba, Low Activity Microstates During Sleep. Sleep 40, zsx066 (2017).

      (29) B. Mlinar, A. Montalbano, L. Piszczek, C. Gross, R. Corradetti, Firing Properties of Genetically Identified Dorsal Raphe Serotonergic Neurons in Brain Slices. Front Cell Neurosci 10, 195 (2016).

      (30) A. Osorio-Forero, et al., Noradrenergic circuit control of non-REM sleep substates. Current Biology 31, 5009-5023.e7 (2021).

      (31) S. Panzeri, N. Brunel, N. K. Logothetis, C. Kayser, Sensory neural codes using multiplexed temporal scales. Trends in Neurosciences 33, 111–120 (2010).

      (32) M. E. Raichle, et al., A default mode of brain function. Proc Natl Acad Sci U S A 98, 676–682 (2001).

      (33) R. Srinath, S. Ray, Effect of amplitude correlations on coherence in the local field potential. J Neurophysiol 112, 741–751 (2014).

      (34) B. P. Staresina, J. Niediek, V. Borger, R. Surges, F. Mormann, How coupled slow oscillations, spindles and ripples coordinate neuronal processing and communication during human sleep. Nat Neurosci 26, 1429–1437 (2023).

      (35) C. W. Thomas, et al., Psilocin acutely alters sleep-wake architecture and cortical brain activity in laboratory mice. Transl Psychiatry 12, 77 (2022).

      (36) G. F. Turi, et al., Serotonin modulates infraslow oscillation in the dentate gyrus during Non-REM sleep. eLife 13 (2025).

      (37) J. Vazquez, H. A. Baghdoyan, Basal forebrain acetylcholine release during REM sleep is significantly greater than during waking. American Journal of Physiology-Regulatory, Integrative and Comparative Physiology 280, R598–R601 (2001).

      (38) J. Wan, et al., A genetically encoded sensor for measuring serotonin dynamics. Nat Neurosci 24, 746–752 (2021).

      (39) Y. Zhang, et al., Cholinergic suppression of hippocampal sharp-wave ripples impairs working memory. Proc. Natl. Acad. Sci. U.S.A. 118, e2016432118 (2021).

      (40) Y. Zhang, et al., Interaction of acetylcholine and oxytocin neuromodulation in the hippocampus. Neuron (2024).

    1. compare thee to a summer's day?Thou art more lovely and more temperate:Rough winds do shake the darling buds of May,And summer's lease hath all too short a date:Sometime too hot the eye of heaven shines,And often is his gold complexion dimmed,And every fair from fair sometime declines,By chance, or nature's changing course untrimmed:But thy eternal summer shall not fad

      Interesting ya

    1. Note de synthèse détaillée : L'Enseignement Explicite pour la Réussite Scolaire et la Gestion de Classe

      Cette note de synthèse s'appuie sur la conférence "Enseignement explicite : des pistes pour gérer les apprentissages et les comportements des élèves" pour présenter les thèmes principaux, les idées clés et les faits importants concernant l'enseignement explicite, en incluant des citations pertinentes.

      1. Introduction : Une double problématique et un enjeu sociétal

      La conférence aborde une double problématique touchant les élèves et les enseignants :

      Pour les élèves : Les difficultés scolaires et comportementales peuvent entraîner des problèmes d'apprentissage et un risque d'abandon scolaire sans qualification.

      Pour les enseignants : La gestion des apprentissages et la gestion de classe sont des défis majeurs, même pour les expérimentés, contribuant à la pénurie d'enseignants.

      Dans ce contexte, "la mise en œuvre de pratiques efficaces ça représente finalement un enjeu sociétal majeur pour favoriser la réussite du plus grand nombre d'élèves mais aussi la rétention des enseignants".

      L'enseignement explicite est présenté comme un cadre pertinent pour adresser ces deux facettes inséparables : la gestion des apprentissages et la gestion des comportements.

      "La gestion des apprentissages et la gestion des comportements représentent les deux phases d'une même pièce".

      2. Qu'est-ce que l'efficacité en éducation ?

      L'efficacité en éducation est définie non pas comme un gros mot, mais comme la capacité à atteindre un objectif. Se basant sur la définition de Bloom, l'efficacité de l'enseignement va au-delà de la simple sélection des talents.

      Pour Bloom, "les sociétés modernes optent pour le développement éducatif d'un plus grand nombre de personnes et toute société qui accorde une telle valeur à l'éducation ou à la scolarité jusqu'à obliger tout individu à consacrer à l'école une partie importante de sa vie elle ne peut se contenter de sélectionner des talents elle doit les développer".

      Un enseignement efficace, selon Bloom, doit :

      • Augmenter la moyenne des élèves de la classe.
      • Réduire la variance (différences de résultats) entre les élèves.
      • Diminuer la corrélation entre les résultats et les caractéristiques initiales (ex: origine sociale), rendant ainsi l'enseignement équitable.

      Pour la gestion de classe, l'efficacité est mesurée différemment : elle vise "à instaurer les conditions propices pour que les apprentissages puissent se réaliser", en augmentant l'attention des élèves et en diminuant les écarts de conduite.

      C'est la conjonction des stratégies d'apprentissage et de gestion de classe qui permet d'améliorer les apprentissages et le cadre d'apprentissage.

      3. Les fondements de l'enseignement explicite : Une approche basée sur la recherche

      L'enseignement explicite n'est pas une théorie isolée, mais le fruit de décennies de recherches :

      • Recherches corrélationnelles : Observation des comportements des enseignants et des résultats des élèves, identifiant des pratiques liées à une meilleure réussite (ex: révisions, démonstration, pratique guidée).

      • Recherches expérimentales : Formation d'un groupe d'enseignants à ces pratiques prometteuses et comparaison avec un groupe contrôle, démontrant un lien de cause à effet.

      • Méta et méga-analyses : Synthèse de nombreuses recherches expérimentales, confirmant "l'efficacité d'un enseignement explicite pour aider les élèves et en particulier ce en difficulté", mais aussi pour les élèves ayant plus de facilité, et ce, à tous les âges.

      L'enseignement explicite est une "importante base de connaissance qui a été minutieusement conçue", s'étendant des années 70-80 jusqu'à nos jours, et aucune recherche n'a fondamentalement remis en cause son efficacité.

      Il repose sur une triple concordance :

      • Efficacité démontrée par les recherches pédagogiques.

      Recherches en psychologie cognitive :

      • Distinction apprentissages naturels/secondaires : Certains apprentissages (lire, calculer, écrire) sont "secondaires" et nécessitent un enseignement formel et explicite, contrairement aux apprentissages naturels (marcher, reconnaître des visages).

      • Charge cognitive : L'enseignement explicite tient compte de la charge cognitive.

      L'effet du problème résolu (Cooper et Swiller, 1987) montre que les élèves étudiant un problème résolu performant mieux et peuvent expliquer leur démarche, contrairement à ceux en résolution de problèmes classique qui peuvent réussir sans comprendre le cheminement.

      • Définition conceptuelle robuste : Les concepts et stratégies sont concrets, opérationnels et réplicables.

      4. Clarifications et définitions de l'enseignement explicite

      Le terme "explicite" signifie "ouvert à la compréhension, pas obscur ni ambigu".

      John Hattie utilise les termes "visible teaching" et "visible learning", soulignant que l'enseignement doit être visible pour les élèves et que leur apprentissage doit être rendu visible pour l'enseignant.

      L'enseignement explicite est "une combinaison de comportements conçus pour promouvoir l'apprentissage des élèves".

      Il est important de ne pas le confondre avec d'autres terminologies :

      • "Instruction directe" (minuscules) : Peut désigner l'enseignement explicite ou d'autres approches, voire tout enseignement mené par le maître.

      • "Direct Instruction" (majuscules ou DI) : Approche très formalisée créée par Engelmann où les enseignants suivent un script, différente de l'enseignement explicite où les enseignants conçoivent leurs leçons.

      Le terme "enseignement explicite" est utilisé depuis 1986 par Rosensteine, formalisant l'approche à partir des recherches.

      Un synonyme apprécié est "Active Teaching", soulignant une approche très active pour l'enseignant et les élèves.

      5. Stratégies de gestion des apprentissages : Les cinq étapes de la leçon explicite

      L'enseignement explicite s'inscrit dans le modèle de réponse à l'intervention (RTI), qui propose des stratégies universelles (palier 1) bénéficiant à 80% des élèves.

      Il met l'accent sur la phase d'interaction et la planification, ainsi que la consolidation (pour contrer la courbe de l'oubli).

      Les cinq étapes fondamentales d'une leçon d'enseignement explicite sont :

      Ouverture de la leçon :

      • But : Capter l'attention, présenter les objectifs et leur utilité, rappeler les connaissances préalables.

      • Stratégies : Signal non verbal, énoncé clair de l'objectif, explication de l'utilité dans la vie quotidienne et future scolarité (ex: inférences en lecture). Vérification fine de la compréhension et rétroactions de qualité. Réenseignement des prérequis si nécessaire.

      Modelage (Je te montre) :

      • But : Montrer et expliquer comment réaliser la tâche, en "mettant un haut-parleur sur sa pensée".

      • Stratégies : Verbaliser le raisonnement (étapes, questions, pièges à éviter). Montrer des exemples et contre-exemples. C'est une étape riche qui développe la métacognition. "Elle est parfois mal comprise et assimilée à tort à une sorte uniquement d'exposé". C'est une étape brève (quelques minutes).

      Pratique guidée (On le fait ensemble) :

      • But : Les élèves réalisent des tâches similaires sous la supervision active de l'enseignant, dialoguent et explicitent leur cheminement.

      • Modalités :Collective : Choisir des élèves au hasard pour refaire la tâche en explicitant.

      • En binômes (enseignement réciproque) : Les élèves s'expliquent mutuellement comment ils ont fait.

      • Stratégies clés :Consignes claires.

      • Vérification de la compréhension (plus pertinente que "avez-vous compris ?" : "si je prenais le temps maintenant de m'arrêter de choisir quelqu'un et lui demander de me reformuler ce qui est une métaanalyse ben là j'aurai beaucoup plus d'informations sur sa compréhension").

      • Désignation aléatoire des élèves : Pour augmenter l'attention et répartir équitablement la parole.

      • Rétroactions de qualité : Fournir des informations sur la production et comment l'améliorer, et former les élèves à l'auto-feedback et au feedback mutuel (métacognition).

      • Aide si besoin : Rappels, listes d'étapes.

      • Test formatif : Avant de passer à la pratique autonome, s'assurer que les élèves ont atteint un seuil de réussite (80%). Les autres restent en pratique guidée ou reçoivent un réenseignement.

      Pratique autonome (Tu le fais seul) :

      • But : Consolider les nouvelles connaissances en mémoire. L'aide de l'enseignant est réduite mais il continue de vérifier la compréhension et de fournir de l'aide.

      • Stratégies : Suffisamment d'exercices variés, incluant des exercices de transfert. Le seuil de réussite visé est de 90 à 95% de réponses correctes.

      Clôture :

      • But : Synthétiser les apprentissages, prendre du recul, poursuivre la pratique et introduire la prochaine leçon en explicitant les liens.

      • Stratégies : Questions métacognitives ("Qu'a-t-on appris aujourd'hui ?", "À quoi ça sert ?"), rétroactions riches, introduction de l'objectif de la prochaine leçon.

      • Différenciation : Ces étapes ne sont pas linéaires mais itératives. L'enseignant peut revenir à une étape précédente si nécessaire (ex: refaire un modelage ou une pratique guidée pour des élèves en difficulté).

      Cela permet une différenciation basée sur l'observation objective des besoins des élèves, rendant l'approche "beaucoup plus réaliste que l'idée de se dire qu'on va différencier de manière un peu finalement même à l'aveugle".

      6. Stratégies de gestion des comportements : Mieux vaut prévenir que guérir

      Le principe fondamental est que "mieux vaut prévenir que guérir".

      Les enseignants efficaces mettent en œuvre environ 80% d'interventions préventives et seulement 20% d'interventions réactives.

      La punition n'est pas la seule option corrective, et d'autres stratégies sont à privilégier.

      Les gestes professionnels fondamentaux incluent :

      Relations positives :

      • Stratégies concrètes : S'intéresser aux élèves, discuter avec eux, les accueillir. "Le positif finalement attire le positif".

      • Attentes élevées : Croire au potentiel de tous les élèves, sans se fier aux préjugés.

      • Outil "Efforts et stratégies" : La réussite dépend des efforts des élèves et des stratégies fournies par l'enseignant. "Je bannis de mon vocabulaire les mots faciles et difficiles".

      • Environnement sécurisant et enseignement explicite des comportements :

      • Justification : L'éducation aux comportements est aussi le rôle de l'école, car tous les élèves n'ont pas appris ces codes à la maison.

      Cela fait gagner du temps à long terme en réduisant les problèmes. "Si un élève ne sait pas lire, on va lui apprendre à lire... mais s'il ne sait pas se comporter, est-ce qu'on va lui apprendre ou est-ce qu'on va le punir ?".

      • Matrice comportementale : Choisir 3 valeurs (ex: respect, responsabilité, solidarité) et identifier les comportements positifs attendus dans les différentes activités/lieux (formuler en "je" et de manière positive).

      • Enseigner les comportements : Appliquer les cinq étapes de l'enseignement explicite pour les comportements, en contexte réel (ex: dans le couloir, dans le bus).

      • Ouverture : Présenter la valeur et la règle, son importance.

      • Modelage : Montrer le comportement attendu (ex: marcher calmement, donner une rétroaction). Inclure des contre-exemples humoristiques.
      • Pratique guidée : Les élèves pratiquent les comportements attendus devant l'enseignant, qui donne des rétroactions sur leur comportement par rapport aux valeurs.
      • Pratique autonome : Non explicitée mais implicite dans la consolidation.
      • Clôture : Non explicitée.

      Encadrement et supervision des élèves :

      • Stratégies : Superviser constamment du regard, "marcher la classe de manière imprévisible" pour augmenter la prévention des écarts de conduite.

      Renforcement positif :

      • Importance : Dire aux élèves que leur comportement est bon est essentiel pour le maintenir. Le renforcement verbal est prioritaire, mais des renforcements tangibles (étiquettes, jetons échangeables contre des privilèges) sont aussi efficaces.
      • Principe : "On ne retire jamais de points on s'en sert uniquement pour dire aux élèves ce qui est bien". Les écarts de conduite sont gérés par un autre système.
      • Organisation de la classe :
      • Stratégies : Disposer le mobilier pour une visibilité et une circulation aisées, préparer le matériel à l'avance. "Au plus ma classe est organisée au moins aussi il va y avoir de de place pour des écarts de conduite".

      • Enseignement efficace (en tant que stratégie préventive) :

      • Les cinq étapes de l'enseignement explicite, lorsqu'appliquées aux matières académiques, "augmentent l'attention des élèves parce que c'est une approche qui les sollicite constamment".

      Cela contribue directement à une meilleure gestion de classe.

      7. Gestion des écarts de conduite : Interventions correctives

      Les interventions correctives sont hiérarchisées et visent à être les plus discrètes et à moindre coût.

      Une distinction est faite entre :

      • Écart de conduite mineur : Ne perturbe pas l'enseignement ni l'apprentissage des autres (ex: bavardage léger).

      • Écart majeur : Nécessite une intervention plus forte, potentiellement le retrait temporaire de l'élève (ex: bagarre).

      Stratégies pour les écarts mineurs (du plus discret au plus direct) :

      • Proximité physique.

      • Contact physique (ex: main sur le bureau).

      • Signal sonore (ex: raclement de gorge).

      • Ignorer momentanément et féliciter un autre élève ayant un bon comportement ("quatre interventions positives si possible pour une négative").

      • Rediriger : Rappeler brièvement le comportement attendu.

      • Réenseigner le comportement (avec les 5 étapes).

      • Offrir un choix (ex: écouter ou conséquence).

      • Conséquences formatives : Réparer (ex: nettoyer ce qui a été sali, s'excuser).

      • Isolement avec activité réflexive : Demander à l'élève d'observer et de décrire les bons comportements de ses pairs.

      • Rencontre en face-à-face hors du cours pour comprendre les raisons du comportement.

      • La punition (ex: recopier un texte) est une option si aucune stratégie constructive n'est trouvée, mais elle "n'apprend nullement le comportement qui est attendu de lui". L'objectif est d'apprendre à l'élève le comportement attendu.

      Gestion des écarts majeurs : Dépend fortement de la politique d'école (plan d'intervention, schéma de procédure) car l'enseignant seul est limité.

      Un exemple d'étude récente sur le soutien au comportement positif (PBIS) montre une diminution significative des écarts de conduite majeurs dans les écoles appliquant ce système sur plusieurs années.

      8. Conclusion

      L'enseignement explicite est une "approche pédagogique concrète qui favorise la réussite des élèves et la mise en place d'un climat propice aux apprentissages".

      C'est une série de stratégies concrètes pour la gestion des apprentissages et des comportements, pour lesquelles il est possible de se former.

    1. Compte-rendu : L'Évolution du Rôle des Directions d'Établissement et la Formation au Pilotage

      Ce document de synthèse est basé sur l'épisode 54 des "Cafés de l'INAS", qui poursuit la réflexion amorcée lors de la journée d'étude marquant les 10 ans du "Pacte pour un enseignement d'excellence".

      Il met en lumière les discussions avec des acteurs impliqués dans la formation des directions d'école en Belgique francophone, notamment Christine Joris (référente de la cellule d'appui pédagogique au CECP) et Jean Castin (chercheur, formateur, accompagnateur à l'Université de Mons et l'INAS).

      1. Contexte et Objectifs

      L'émission s'inscrit dans un contexte de profonde transformation du paysage éducatif belge francophone, où les politiques de pilotage redéfinissent le rôle des directions d'établissement.

      L'objectif est de comprendre les liens entre les directions d'école et de recueillir leurs perceptions sur un métier devenu "plus exigeant et plus complexe".

      2. Types de Formation des Directions d'École

      Les formations se déclinent en deux grands types :

      • Formation initiale des directeurs : Composée de trois volets, elle inclut des modules pédagogiques, relationnels et un module d'intégration/accompagnement à l'entrée en fonction. Jean Castin est particulièrement investi dans ces modules à l'Université de Mons.

      • Formation continue : Destinée aux directeurs en cours de carrière.

      Christine Joris est concernée par le volet réseau et l'axe pédagogique de la formation initiale.

      3. L'Intégration du Pilotage dans les Formations

      Depuis 2018, la formation pédagogique a été profondément revue pour axer les modules sur le modèle du pilotage.

      • Approche interactive et contextualisée : Les modules partent d'"analyse de cas", d'"analyse de données" et sont "très interactifs", rompant avec la "formation descendante".

      L'objectif est de "donner du sens à toute cette réforme" en liant les actions pédagogiques au plan de pilotage de l'établissement.

      • Développement de la capacité d'analyse et de la réflexion systémique : Un axe majeur est d'apprendre aux directions à "s'arrêter, à regarder la situation, à l'évaluer, à essayer de comprendre ce qui se passe avant de poser des axes". Il s'agit de les aider à "aller au-delà de ce qui de ce qu'on voit en premier lieu".

      • Positionnement et leadership : Les formations travaillent sur la manière dont le directeur "se positionne dans le système", notamment à travers l'exercice de son leadership.

      L'objectif est de le rendre capable de "mobiliser son équipe et faire en sorte que ben il ne soit pas le seul acteur de l'école mais que son équipe soit partie prenante du travail".

      4. L'Évolution vers un Leadership Partagé et Distribué

      Le leadership partagé est une "demande institutionnelle" et une nécessité sur le terrain.

      Injonction institutionnelle et adaptation : Il est attendu des directeurs qu'ils exercent un "leadership partagé distribué".

      Les formations les aident à "réfléchir à la manière dont ils exercent naturellement leur leadership et aussi de pouvoir on va dire adapter leur leadership aux situations qu'ils rencontrent".

      Nécessité pragmatique : Christine Joris souligne que "le directeur ne peut plus être à la barre de tout au niveau de du pilotage de son école et donc forcément effectivement il distribue enfin ce leadership partagé se met en place et se distribue".

      Cette évolution a donné du sens à la demande institutionnelle pour les directeurs.

      5. Surprises et Évolutions dans l'Approche des Directeurs

      Au fil des dix dernières années, l'approche des directeurs a évolué positivement.

      Passage de la conformité au besoin : Initialement, la demande institutionnelle était très présente et les directeurs cherchaient à être conformes.

      Aujourd'hui, on observe un passage à une motivation intrinsèque : "maintenant on est plus dans une on y va parce qu'on en a besoin".

      Prise de sens et confortement : Jean Castin note que "beaucoup de directions maintenant mettent beaucoup plus de sens dans ce qu'ils font" et ont compris que le travail demandé "pouvait les aider les servir et pouvait cadrer la manière dont ils pilotaient leur école avec leurs équipes".

      L'idée d'un "sens plus construit et partagé avec les autres de leur équipe" conforte les choix institutionnels.

      6. Besoins Particuliers des Directions en Formation La formation actuelle est jugée insuffisante pour couvrir tous les besoins des directeurs.

      • Accompagnement au transfert et temps : Il existe un besoin d'accompagnement pour "faire ce transfert" entre la formation et la réalité du terrain, et un besoin de "temps pour installer les choses" car les transformations ne se font pas du jour au lendemain.

      • Difficultés relationnelles et communication : Un besoin majeur identifié par Jean Castin concerne les "difficultés relationnelles" (parents, élèves, équipe, extérieur) auxquelles les directeurs sont confrontés sans prévenir.

      D'où un besoin de "continuer à se former au niveau du développement de leurs compétences relationnelles" et de la "communication" pour "pacifier les choses à certains moments". Ce besoin est généralisé à toutes les directions.

      • Temps réflexif et analyse de pratique : Les directeurs apprécient énormément les "temps de s'asseoir, un temps d'arrêt de réfléchir à leur pratique, d'avoir ce temps réflexif sur leur manière d'agir". Ce temps d'analyse de pratique est considéré comme manquant dans le système.

      • Codéveloppement et communautés de pratique : Les ateliers de codéveloppement, où les directions se réunissent et choisissent leur thématique, rencontrent un grand succès. Ils répondent au besoin d'être "un peu moins isolés", constituant des "communautés de pratique professionnelle".

      7. Frustrations et Défis des Directions

      Le principal défi est le manque de temps et la surcharge de travail, qui entravent le pilotage réel.

      • Surcharge et "lasagne des injonctions institutionnelles" : Les directeurs se disent "noyés" par les "injonctions institutionnelles" et les "interactions" quotidiennes. Jean Castin parle de "lasagne des injonctions institutionnelles".

      • Gestion à court terme vs. pilotage : Cette surcharge conduit les directeurs à ne faire que "ce qu'on leur demande de faire, de la gestion à très court terme", ce qui n'est pas du pilotage. Il y a "très peu de vue à moyen terme, à long terme, de régulation, d'une mise en projet".

      • Impossibilité de piloter : Pour Jean Castin et ses collègues chercheurs, les directions sont "dans l'impossibilité de piloter" compte tenu du contexte et de la situation actuelle.

      Christine Joris confirme qu'ils sont "tout le temps dans la réponse, dans l'action-réponse" et n'ont plus "ce temps de recul pour pouvoir se poser" et avoir des "temps de réflexion, des temps d'analyse".

      8. Évolutions Positives et Tendances Encourageantes

      Malgré les défis, des évolutions positives sont observées chez les directions.

      • Volonté et motivation : Les directeurs sont jugés "très volontaires et très motivés" en formation initiale, avec une "prise de conscience de toute l'étendue" de leur nouveau métier et une "vraie volonté de bien faire les choses".

      • Nécessité du pilotage : Il y a une prise de conscience accrue de la "nécessité de piloter l'établissement", d'avoir "réellement un pilote dans l'avion de l'école". Par le passé, les directeurs étaient plus "purement dans l'organisationnel".

      • Développement de la réflexion pédagogique : Jean Castin observe avec satisfaction que les directeurs "développent une réflexion pédagogique".

      Ils "remettent l'enfant au cœur de leur réflexion et ils emmènent leur équipe à réfléchir à remettre en question leur pédagogie, à évoluer".

      Cette évolution, bien qu'ils ne puissent abandonner totalement l'obsession organisationnelle, est un point positif majeur.

      • En conclusion, si le métier de direction d'école est devenu plus exigeant et complexe, notamment en raison de la surcharge de travail et des injonctions, les formations ont permis une meilleure appropriation du concept de pilotage et une évolution positive des directeurs vers un leadership partagé et une réflexion davantage axée sur le pédagogique.

      Cependant, des besoins importants subsistent, notamment en matière d'accompagnement, de gestion relationnelle et de temps dédié à la réflexion et au pilotage stratégique.

    1. Compte Rendu Détaillé : Les Niveaux d'Explication et les Levers de Changement Comportemental face à la Crise Climatique (d'après le neuroscientifique Moukheiber à l'Académie du Climat)

      • Ce document de briefing synthétise les points clés et les arguments principaux développés par le neuroscientifique Moukheiber lors de son intervention à l'Académie du Climat, en se concentrant sur les niveaux d'explication des phénomènes et les stratégies efficaces pour induire un changement comportemental, notamment en lien avec la transition écologique.

      1. La Faillite du Niveau d'Explication Cérébral et Individualiste pour les Problèmes Sociétaux

      Moukheiber insiste sur la nécessité de choisir le "bon niveau explicatif" pour comprendre un phénomène.

      Il utilise l'analogie d'un accident de voiture : chercher la cause au niveau atomique de la carrosserie est absurde si la cause réelle est le verglas ou l'alcoolémie du conducteur.

      De même, réduire des comportements complexes, comme ceux liés à la transition écologique, au seul fonctionnement du cerveau est une erreur fondamentale.

      • Le Mythe du "Cerveau Seul" et la Cognition Incarnée : Le neuroscientifique critique le "tour de passe-passe cognitif" qui a remplacé l'esprit par le cerveau, traitant ce dernier comme une entité isolée.

      Il promeut le concept de cognition incarnée, un courant majeur en neuroscience qui stipule que le comportement humain doit être analysé à travers un "triptyque" : le cerveau, l'état du corps (sommeil, faim, douleurs, etc.), et l'environnement/contexte.

      • Citation : "On pourra jamais expliquer le comportement d'un humain juste en regardant son cerveau

      Il faut regarder tout le temps un triptique le cerveau l'état du corps... et l'environnement le contexte dans lequel cet agent incarné qui est l'humain est en train d'évoluer."

      • L'Exemple des Fast-Foods : Plutôt que d'expliquer la consommation de fast-food par le cerveau des jeunes, le bon niveau explicatif est "l'organisation des villes qui ont mis des McDo à chaque coin de rue."

      Cela illustre que des phénomènes comme l'anxiété sociale peuvent relever du cerveau, mais d'autres, comme la surconsommation, sont des "propriétés émergentes" liées à des facteurs macro.

      • Le Refus de la Réduction au Cerveau : La complexité de nos rapports à la transition écologique ne peut être attribuée "simplement au fonctionnement de nos cerveaux."

      Il remet en question la tendance à sur-responsabiliser l'individu et son cerveau pour des problèmes systémiques.

      2. Le Modèle du Déficit Informationnel est "Profondément Fallacieux"

      Moukheiber dénonce avec force l'idée que les gens n'agissent pas pour le climat par manque d'information, qu'il nomme le modèle du déficit informationnel.

      • L'Inefficacité de la Pédagogie Seule : Des milliards ont été dépensés en campagnes de sensibilisation, notamment sur la cigarette ou le climat, avec des résultats limités.

      • Citation : "On a dépensé des milliards... Les hommes et les femmes politiques [disent] que si on s'oppose à une loi c'est qu'on a c'est qu'il faut faire de la pédagogie

      Les Français n'ont pas compris C'est vraiment l'arbre qui cache la forêt c'est ça revient tout le temps à une cette sorte de surres de l'individu

      Si les gens ne sont pas en train de prendre moins à l'avion c'est parce qu'ils ont pas compris S'ils sont encore en train de manger de la viande c'est parce qu'ils ont pas compris Alors que c'est pas vrai."

      • La Dissonance Cognitive : Bien que la dissonance cognitive (savoir qu'une action est mauvaise mais la faire quand même) soit un phénomène réel, les neurosciences, au travers du cadre de la cognition incarnée, ne suggèrent pas que la solution réside dans plus de pédagogie individuelle.

      3. L'Importance des "Conditions Facilitantes" et des Actions Systémiques

      Le neuroscientifique met en lumière le pouvoir des "conditions facilitantes" (enabling conditions) et des "propriétés émergentes" pour modifier les comportements à grande échelle.

      • L'Exemple du Tabac : L'interdiction de fumer en intérieur et l'augmentation des prix ont eu un impact bien plus significatif sur la consommation de tabac que des années de campagnes de sensibilisation.

      • Citation : "À un moment on a fait quelque chose à un niveau supérieur dans ces niveaux explicatifs On a passé une loi deux lois principalement une loi qui a augmenté le le prix une deuxième loi qui a interdit de fumer en intérieur

      Et là tout d'un coup le taux de nouveau fumeur à toutes les tranches d'âge commença à diminuer."

      • Le Climat : Une Problématique Systémique : Les comportements néfastes pour le climat ne relèvent pas du niveau individuel, mais de l'organisation des villes, des tarifs, des salaires, et des lois.

      • Citation : "Les comportements qu'on a qui sont délétaires pour la transition écologique ne se jouent pas au niveau de l'individu il se joue au niveau de l'organisation des villes des tarifs des salaires des lois qu'on est en train de faire passer

      Et tant qu'on va essayer de tout toute la pédagogie du monde tout l'esprit critique du monde ne suffira pas à inverser la tendance tant qu'on veut juste agir au niveau de l'individu."

      • Le Conseil aux Partis Écologistes : Moukheiber conseillerait d'« arrêter d'avoir une grille de lecture individualiste ». Les initiatives individuelles sont une "goutte d'eau dans l'océan" face à un problème systémique.

      L'impact réel vient de l'influence sur des acteurs systémiques (ex: convaincre Tim Cook de modifier le cycle de vie des iPhones plutôt que 300 000 individus).

      4. La Nuance de la Dérégulation et de la Responsabilité Individuelle

      Moukheiber anticipe l'objection de la "déresponsabilisation" de l'individu.

      • Une Part de Responsabilité Individuelle Minime : Il reconnaît qu'il y a une part de responsabilité individuelle (trier ses déchets, moins prendre l'avion, moins manger de viande, consommer local).

      • Citation : "Il y a comme une part des choses qui est de ma responsabilité Trier c'est c'est minime C'est c'est c'est une goutte d'eau dans l'océan de ce qu'on doit faire."

      • Le But du Comportement Individuel : Un Signal Social : Le but de ces actions individuelles n'est pas d'inverser directement la tendance de la destruction climatique, mais d'envoyer un "signal social pour qu'il y ait systématisation", de créer une "norme sociale" qui puisse ensuite se traduire par des changements plus macro (ex: interdire la pub pour le tabac).

      5. Stratégies de Changement Comportemental : Au-delà de l'Explication Rationnelle

      Face au déni ou à la résistance, Moukheiber suggère des approches alternatives à la seule explication rationnelle.

      • Questionner la Motivation : Avant d'expliquer, il faut se demander "pourquoi vous voulez leur expliquer ?" Si l'objectif est un changement de comportement, l'explication seule est souvent inefficace.

      • L'Action Avant la Compréhension : Il a réussi à changer des comportements sans mentionner le climat, en proposant des alternatives attrayantes.

      • Exemple : Emmener un ami dans un restaurant végétarien sans dire que c'est végétarien, le laissant découvrir et apprécier par lui-même.

      • Adapter le Message : L'approche doit être différente selon la personne (expliquer le cycle de l'eau à un enfant vs. parler politique à un oncle de 65 ans).

      • Le Rôle des Normes Sociales et des Tendances : Une grande partie de nos comportements ne découlent pas d'un fonctionnement rationnel ("homo économicus") mais de ce que font nos pairs, de la disponibilité, et des effets de mode (ex: la quinoa, le chou kale).

      • Citation : "Une grande partie de nos comportements ne viennent pas d'un fonctionnement rationnel... On fonctionne selon ce que font les les nos potes Euh qu'est-ce qui est disponible."

      • La "Manipulation" comme Levier (non péjoratif) : Le neuroscientifique conclut que parfois, il suffit de "manipuler" les conditions ou les choix pour modifier les comportements, reconnaissant que nous nous "manipulons les uns les autres" constamment.

      Cela implique de créer les environnements et les incitations qui favorisent les comportements souhaités, plutôt que de s'appuyer uniquement sur la conviction intellectuelle.

      • Citation : "Il suffit de manipuler Vous avez bien compris ouais On est tous en train de se manipuler de toute façon les uns les autres."

      En somme, Moukheiber plaide pour un changement de paradigme dans l'approche de la transition écologique, délaissant l'individualisme et la survalorisation de la pédagogie au profit d'une compréhension plus nuancée des niveaux d'explication et d'une action prioritairement orientée vers les leviers systémiques et les "conditions facilitantes".

    1. first_page Download PDF settings Order Article Reprints Font Type: Arial Georgia Verdana Font Size: Aa Aa Aa Line Spacing:    Column Width:    Background: Open AccessReview Effects of Social Media Use on Youth and Adolescent Mental Health: A Scoping Review of Reviews

      Summary: In order to gain a better understanding of how social media impacts adolescent mental health, this article examines more than 40 studies. It demonstrates how more deliberate and social use of scrolling can actually make teens feel more connected and supported, even though excessive or passive use can exacerbate anxiety and depression.

      Evaluation: Written by experts in the field of youth mental health, this article has undergone peer review and been published in a reputable journal. It's reliable and beneficial because it goes beyond simply declaring that social media is bad; instead, it explains the specific instances in which it can be detrimental or beneficial, which deepens my research.

    1. I saw one last week at Gary’s Typewriters in Long Beach, Ca. - someone just gave it to him as a joke or something - his review: “They ought to be ashamed of themselves!” I tried it, and he was being generous. It’s a piece of garbage. For the money you can get a nice restored machine. Or you could just light your money on fire. Either way it’d be a better experience.

      u/georgeisamonkey is in the LA area https://www.reddit.com/r/typewriters/comments/1lenfgq/why_does_every_new_typewriter_look_like_garbage/

    1. Compte rendu détaillé : Agir pour l'Éducation

      Ce document de synthèse présente les thèmes principaux et les faits les plus importants abordés lors du webinaire "Agir pour l'éducation", une initiative des professeurs du Collège de France.

      Il vise à récapituler les défis identifiés, les approches proposées et les discussions clés concernant l'amélioration du système éducatif français.

      1. Introduction et Objectifs de l'Initiative

      L'initiative "Agir pour l'éducation" est née d'une prise de conscience collective des professeurs du Collège de France face aux défis du système éducatif français. Comme l'a souligné Stanislas Dehaene, titulaire de la chaire de psychologie cognitive expérimentale et président du Conseil Scientifique de l'Éducation Nationale :

      "Nous nous sommes mobilisés collectivement pour répondre à l'un des grands défis auxquels la France est confrontée actuellement : les difficultés que rencontre notre système éducatif."

      La Fondation UK, dont la création a été récemment finalisée, a pour but de "faire rayonner le Collège de France Royaume-Uni, de soutenir la recherche française et des projets communs entre nos deux pays.

      Le Brexit nous encourage plus que jamais à créer des ponts ou les échanges intellectuels pour que les échanges intellectuels perdurent."

      2. Les Défis Majeurs du Système Éducatif Français Plusieurs points de faiblesse sont mis en évidence, témoignant d'une dégradation de la performance éducative en France :

      • Baisse du niveau dans les fondamentaux, notamment en mathématiques : La France a été classée "derniers d'Europe en mathématiques" lors de l'enquête PISA de l'OCDE en décembre 2020.

      Stanislas Dehaene note une "baisse continue des performances depuis trente ans, on perd à peu près un demi écart-type tous les dix ans, ce qui veut dire que les élèves d'aujourd'hui sont les meilleurs d'aujourd'hui sont au niveau des moyens avoir des médiocres d'il y a 30 ans." Serge Haroche, Prix Nobel de Physique, a trouvé cela "assez inquiétant".

      Un chiffre frappant est qu'environ "trois quarts des élèves de 6ème à l'entrée en 6ème n'ont pas su placer la fraction 1/2 au bon endroit sur une ligne numérique."

      • Accroissement des inégalités : Cette baisse des performances affecte particulièrement les élèves issus de milieux socio-économiques défavorisés.

      Malgré des efforts comme le dédoublement des classes en réseaux d'éducation prioritaire, cela reste insuffisant pour compenser des inégalités plus fortes qu'ailleurs.

      Philippe Aghion, titulaire de la chaire d'économie de l'innovation, souligne que "le revenu des parents compte énormément... les parents qui gagnent davantage sont en général plus éduqués et donc ils transmettent à leurs enfants pas seulement du savoir mais également ce qu'on appelle en anglais aspirations, des perspectives, des ambitions."

      Il insiste sur l'importance d'un système éducatif de qualité et accessible à tous pour stimuler la mobilité sociale et réduire la dépendance à l'origine sociale pour devenir innovateur. * Déficit en "soft skills" (compétences socio-comportementales) : Les élèves français sont "au plus bas de l'échelle" concernant des compétences telles que la collaboration, la persévérance, la confiance en soi et le contrôle de leur propre apprentissage. Il y a une "perte de confiance à l'école". * Formation des enseignants insuffisante : La France est "au bas de l'échelle" en termes de formation, notamment continue, de ses enseignants. Serge Haroche compare la France à des pays comme la Corée du Sud et Singapour, qui ont investi massivement dans le statut et la formation des enseignants pour améliorer drastiquement leur système éducatif. Il déplore que "le statut social qui est donné dans l'autre société différencie de façon excessive les ingénieurs par exemple des enseignants. Il est clair qu'au niveau de la rémunération, il n'y a pas de comparaison possible."

      Stanislas Dehaene mentionne qu'en France, la formation continue est de 18 heures par an, contre plusieurs semaines dans d'autres pays.

      • Sous-représentation des femmes dans les carrières scientifiques et techniques : Notamment en informatique (92% de garçons, 8% de femmes) et en mathématiques pures. Des études menées par le Conseil Scientifique de l'Éducation Nationale (EVA-LCP) montrent que "il n'y a pas de différences entre garçons et filles à l'entrée au CP... et au bout d'un an la différence est très importante."

      3. Axes d'Action Proposés par le Collège de France

      • Les professeurs du Collège de France entendent se mobiliser autour de quatre piliers :

      • Comprendre : Recenser les connaissances, notamment internationales, sur les causes des difficultés françaises, la sociologie des enseignants, et les réactions d'autres pays.

      Pierre-Michel Menger, sociologue, dont la chaire porte sur la dimension créatrice du travail, insiste sur l'étude des trajectoires scolaires en mathématiques et l'analyse fine des facteurs (milieux sociaux, composition des classes, caractéristiques des enseignants) influençant les performances.

      Il propose d' "ouvrir la boîte noire" du monde scolaire et périscolaire.

      • Inspirer : Utiliser les connaissances disciplinaires des professeurs pour conseiller, enthousiasmer et orienter les élèves, notamment les jeunes femmes vers les filières scientifiques. Philippe Aghion a développé le "Campus de l'Innovation pour les Lycées" en partenariat avec le Ministère de l'Éducation Nationale pour permettre aux lycéens de zones prioritaires d'accéder à la recherche en train de se faire et d'éveiller des vocations.

      • Outiller : Développer et diffuser des outils pour mieux apprendre et enseigner. Stanislas Dehaene et son équipe ont créé des logiciels comme "Kalulu" pour aider à automatiser le décodage en lecture et développer des tests de diagnostic des difficultés en mathématiques, notamment concernant les fractions. L'objectif est de les rendre "disponibles dans toutes les classes gratuitement".

      • Expérimenter : Mettre en place des "expérimentations randomisées contrôlées" (RCTs) pour vérifier l'efficacité des propositions, à l'image des travaux d'Esther Duflo (Prix Nobel d'Économie).

      Il est crucial de "vérifier ce qui marche et ce qui ne marche pas" plutôt que de se fier aux convictions.

      4. Projets Spécifiques et Innovations

      • Stanislas Dehaene (Psychologie Cognitive Expérimentale) :
      • Recherche sur l'organisation cérébrale pour les mathématiques et la lecture (25 ans de recherche).
      • Développement d'outils de mesure des performances de lecture et de diagnostic des types de dyslexie.
      • Conception de logiciels d'entraînement pour les élèves (ex: Kalulu pour le décodage en lecture), avec des résultats positifs prouvés par des expérimentations.
      • Volonté de diffuser gratuitement ces outils de diagnostic et d'intervention, notamment pour le premier degré et les mathématiques (ex: test sur les fractions en 6ème).
      • Philippe Aghion (Économie de l'Innovation) :
      • Axé sur la création d'une économie plus innovante et inclusive. L'éducation est un vecteur clé pour l'innovation et la mobilité sociale.
      • Campus de l'Innovation pour les Lycées : Initié en 2016, ce partenariat avec le Ministère de l'Éducation Nationale a touché 4500 lycéens et 900 enseignants entre 2016 et 2021 dans 40 villes. Il vise à apporter le "savoir en train de se faire" aux élèves et enseignants de zones prioritaires.
      • Réforme des programmes SES : Co-création avec Pierre-Michel Menger d'une approche pédagogique pour les sciences économiques et sociales, axée sur l'acquisition de concepts fondamentaux en microéconomie avant la macroéconomie, et le croisement des disciplines.

      Ce programme est devenu le plus choisi après les mathématiques en première et seconde. Extension prévue aux sciences de la vie et aux mathématiques.

      Pierre-Michel Menger (Sociologie du Travail) :

      • Étudie le "learning content" du travail et la relation entre travail et éducation.
      • Travaux sur l'organisation et la compétition dans l'enseignement supérieur et la recherche, la diffusion de la sémantique du talent et la méritocratie.
      • Recherche sur les trajectoires scolaires en mathématiques (primaire aux classes préparatoires), utilisant de vastes enquêtes (PISA, enquêtes nationales).
      • Aborde trois défis majeurs en mathématiques :
      • Élever le niveau moyen et médian des élèves en numératie, en corrigeant les inégalités de départ ("dimension inclusive"). Il insiste sur la transversalité des mathématiques comme "socle indispensable pour s'orienter et pour agir et pour travailler dans le monde".
      • Assurer l'excellence mathématique et l'attractivité pour les chercheurs et doctorants, alors que des signes d'érosion apparaissent (départ de brillants mathématiciens à l'étranger).
      • Lutter contre la "surreprésentation absolument persistante des femmes" en mathématiques.
      • Propose d' "ouvrir la boîte noire" en enquêtant sur le terrain (monde scolaire et périscolaire, clubs de mathématiques) et en mobilisant les parents, les enseignants et les élèves.
      • Serge Haroche (Physique Quantique, Prix Nobel) :
      • Élargit la discussion au contexte international (Brésil, Corée du Sud, Singapour).
      • Souligne la nécessité de donner aux citoyens les moyens d' "apprendre à apprendre" et de développer l'esprit critique.
      • Insiste sur la consolidation des bases (lecture, calcul) comme préalable.
      • Propose d'améliorer le statut et la formation des enseignants pour rendre la profession plus attractive, s'inspirant des exemples coréen et singapourien.
      • Remarque la baisse de l'intérêt pour les sciences chez les jeunes au passage du primaire au collège, en partie due à une formation insuffisante des enseignants dans les matières scientifiques.
      • Suggère d'intégrer l'histoire des sciences dans l'enseignement pour montrer son importance civilisationnelle et inspirer les jeunes.

      5. Débats et Questions Clés

      • Innovation et égalité : La France est égalitaire en termes de revenus après impôts, mais moins en termes de mobilité sociale. L'éducation est un levier essentiel pour stimuler cette mobilité et créer une économie plus innovante et inclusive.

      • Formation des enseignants : Le manque de formation continue (18h/an en France vs plusieurs semaines ailleurs) et le besoin d'actualiser les connaissances pédagogiques sont cruciaux. Il faut s'inspirer de modèles comme l'Education Endowment Foundation (EEF) britannique pour diffuser les recherches sur les stratégies pédagogiques efficaces et déconstruire les "neuromythes" (ex: intelligences multiples).

      • Place de la philosophie : La philosophie, comme les mathématiques, est une "méta-compétence" fondamentale pour le raisonnement logique et l'esprit critique. Son enseignement pourrait être élargi, pas nécessairement comme une spécialité, mais par des approches pédagogiques qui valorisent le débat et la logique.

      • Disparité de genre en sciences : Des études montrent que la différence de niveau en mathématiques entre garçons et filles apparaît très tôt à l'école. Les pistes incluent la présentation de "role models" (femmes scientifiques), une redéfinition de la compétition (favorisant la coopération), et la prise en compte des choix de carrière liés aux perspectives d'épanouissement.

      L'expérimentation de la pédagogie par le jeu en mathématiques est aussi envisagée pour réduire les inégalités.

      • Impact de l'appréciation des professeurs : Des commentaires trop "incisifs" peuvent freiner l'enthousiasme. Un changement d'attitude vers une valorisation des efforts, une positivité et la déculpabilisation de l'échec est nécessaire, s'inspirant des systèmes qui encouragent la "deuxième chance".

      Le concept de "growth mindset" (tout le monde apprend) de Carole Dweck est un modèle à diffuser.

      • Décrochage en mathématiques et sens : La difficulté vient souvent d'un apprentissage par cœur des algorithmes sans connexion profonde avec le "sens" des concepts (ex: ligne numérique pour les fractions).

      Le manque de formation des professeurs du primaire en mathématiques et la difficulté à gérer l'hétérogénéité des classes sont aussi des facteurs.

      • Rôle de l'investissement et de l'autonomie des établissements : Il est souligné que "sans investissement, on ne pourra pas améliorer le système". Les salaires des enseignants sont jugés trop bas, ne valorisant pas suffisamment la profession.

      La Finlande est citée comme exemple pour avoir su réconcilier "standards nationaux et autonomie des chefs d'établissement", permettant des projets pédagogiques innovants et un meilleur encadrement des élèves.

      • Culture de l'effort : Il est important de réintroduire la "culture de l'effort" dans l'enseignement, car "on n'apprend pas sans y mettre une certaine intensité". Il faut que cet effort "paie" et que le système valorise le travail et les compétences.

      En conclusion, le webinaire met en lumière l'urgence d'une mobilisation collective pour transformer le système éducatif français.

      Les professeurs du Collège de France proposent une approche scientifique et expérimentale pour comprendre les problèmes, inspirer les élèves, outiller les enseignants et vérifier l'efficacité des solutions, avec l'ambition de construire une nation plus innovante et inclusive.

    1. Note de synthèse : Le rôle du Replay et de la Connaissance Structurelle dans l'Apprentissage et la Cognition

      Cette note de synthèse explore les idées principales présentées par le Professeur Tim Behrens sur la manière dont le cerveau construit des modèles du monde, en mettant l'accent sur le rôle du "replay" (rejeu) et des représentations structurelles dans l'apprentissage et l'inférence.

      1. Le Débat Fondamental en Psychologie : Skinner vs. Tolman L'exposé de Behrens débute par une rétrospective historique du débat entre deux figures majeures de la psychologie du milieu du XXe siècle :

      • B.F. Skinner (Behaviorisme) : Skinner soutenait que tout comportement est contrôlé par la récompense et la punition, à travers un processus de "conditionnement".

      Il affirmait qu'un comportement sophistiqué pouvait être créé en "assemblant" des comportements prédisant une récompense, même à long terme.

      Sa célèbre citation, "The real problem is not where the machines think but whether men do," illustre sa vision externaliste du contrôle du comportement.

      Ses idées ont eu une influence notable sur le système éducatif américain des années 60 et 70.

      • Edward Tolman (Cognitivisme) : À l'opposé, Tolman, étudiant les rats dans des labyrinthes, a démontré que les animaux apprenaient la structure du labyrinthe même en l'absence de récompense.

      Les rats pouvaient trouver des raccourcis plus tard lorsque des récompenses étaient introduites, ce qui suggère l'existence d'une "carte cognitive" interne ou d'un "modèle interne du monde".

      Sa métaphore était que "the central office itself is far more like a map controll room than it is like an oldfashioned telephone exchange."

      • Behrens conclut que "obviously like all debates in the history of science both of them are right to some extent or the other both of these processes exist in the brain", mais que la "knowledge structure process is a very interesting one and certainly has an increasing reliance as you get higher up The evolutionary chain towards primates and humans." Le cœur de la présentation est de comprendre à quoi ressemble cette "carte" et comment elle est construite dans le cerveau.

      2. La Représentation des Relations et la Généralisation

      • La construction d'un modèle du monde repose sur la compréhension des relations entre les choses. Behrens propose deux manières pour le cerveau de représenter ces liens :

      • Liaisons synaptiques directes : Des neurones associés à deux concepts (ex: Starbucks et café) pourraient former de nouvelles synapses pour s'activer mutuellement. C'est le principe de l'apprentissage associatif.

      • Neurones représentant explicitement les relations : Une approche plus sophistiquée implique des populations distinctes de neurones qui encodent la structure des relations elles-mêmes. L'avantage crucial de cette méthode est la capacité d'inférence et de généralisation.

      Si la relation entre la fée Starbucks et le café est encodée explicitement, le même mécanisme neuronal peut être utilisé pour comprendre la relation entre le "whoosh" de Nike et une chaussure, permettant une inférence comme "I can buy the shoe wherever I see the Nike whoosh."

      3. Les Cellules de Grille et de Lieu : Les Fondements des Cartes Cognitives

      • La démonstration de la représentation structurelle débute avec les découvertes en neurosciences spatiales chez les rongeurs :

      • Cellules de Lieu (Hippocampe) : Ces neurones s'activent lorsque l'animal se trouve dans une position spécifique de l'environnement.

      • Cellules de Grille (Cortex Entorhinal) : Ces cellules sont "super cool cells" qui s'activent selon un motif hexagonal régulier et "understand the structure of the problem that you're talking about". Elles fournissent un système de coordonnées pour la navigation spatiale. Il n'y aurait "no reason to have such a cell if you were not optimized for running around a two-dimensional plane."

      • Cellules de Vecteur d'Objet : Ces neurones représentent un vecteur entre la position actuelle de l'animal et un objet intéressant (ex: "I'm this Vector away from something interesting like a piece of cheese").

      • L'existence de ces cellules permet des inférences spatiales complexes, comme trouver un raccourci vers la récompense, au lieu de simplement reproduire le chemin appris (comme le prédirait Skinner).

      4. La Généralisation des Cellules de Grille aux Domaines Non-Spatiaux

      • Une idée centrale de l'équipe de Behrens est que ces "types of solutions are general types of solutions for many of the problems". Des preuves s'accumulent que les cellules de grille et des systèmes de coordonnées similaires peuvent être utilisés pour des problèmes non-spatiaux :

      • Espace de Fréquence : Des cellules de grille ont été observées chez les rats naviguant dans un espace de fréquence tonale, se comportant "as if you're moving through real space".

      • Dimensions Sémantiques : Dans des études sur les humains (via des "smoke signals" ou des signaux indirects détectés par MEG), des activités similaires aux cellules de grille ont été observées pour des problèmes à deux dimensions non spatiales, comme la longueur des pattes et du cou des oiseaux.

      Plus récemment, des cellules de grille non spatiales ont été enregistrées directement chez le singe, ce qui est "very exciting for me because I started this this thing I guess 12 15 years ago and now we can really see them."

      • Hiérarchies de Séquences : Même pour des structures non bidimensionnelles, comme les hiérarchies temporelles (jours, semaines, mois, années), des preuves indirectes de systèmes de coordonnées similaires ont été trouvées chez l'homme.

      • Ces découvertes renforcent l'idée que ces représentations structurelles sont des "General structural representations of the relationships between objects in your brain."

      5. Le Phénomène de Replay et son Rôle dans l'Inférence

      • Le "replay" est un phénomène d'activité neuronale rapide qui récapitule des séquences d'événements, se produisant souvent pendant le repos ou le sommeil. Behrens soutient que le replay n'est pas seulement une consolidation passive de la mémoire, mais un processus actif d'inférence sur des futurs possibles :

      • Décodage du Replay chez l'Humain : En utilisant la magnétoencéphalographie (MEG), les chercheurs peuvent décoder l'activité cérébrale pendant le repos et voir quelles séquences de stimuli sont "rejouées".

      • Replay Inférentiel : Dans une expérience inspirée de Kill Bill de Tarantino (où l'ordre des chapitres est jumbé), les sujets humains apprenaient des séquences d'événements dans le désordre.

      Pendant les périodes de repos, le replay ne montrait pas la séquence désordonnée vécue, mais la séquence "désembrouillée" et logiquement correcte.

      "What's happening in this rest period after we show subjects the jumbled up sequences... their brain in this rest period is going ABCD ABCD ABCD ABCD with like 40 milliseconds between them and these little packets the little packets being played out doing an inference over what's what's happened."

      Ce processus se produit rapidement (environ 40-50 millisecondes par élément).

      • Lien avec la Structure : Le replay utilise la connaissance structurelle préexistante (par exemple, l'ordre causal des événements) pour réorganiser et inférer des relations non directement vécues.

      • Replay dans la Vie Quotidienne : Des études montrent que le replay se produit "whenever the movie pauses at a scene boundary doing all all sorts of reorganization."

      Ce qui suggère aux éducateurs de "pause regularly when you're trying to explain something to give the opportunity for lots of Replay packets to be to be reorganized in your in your other people's brains."

      6. Mécanismes Cellulaires du Replay Inférentiel

      • Behrens explique comment le replay pourrait permettre la construction de cartes et l'inférence au niveau neuronal :

      • Construction de Cartes à partir de la Récompense :

      L'argument est que l'animal ne planifie pas seulement au moment de l'action, mais que le fait de trouver une récompense déclenche des paquets de replay qui construisent une carte de directions vers cette récompense depuis d'autres endroits de l'environnement. Ces replays "build an entire map to get to that cheese."

      • Association Coordonnée-Vecteur : Le replay lierait la position actuelle (coordonnée) avec un "neurone vecteur" (ex: "cheese over there neuron") pour créer une nouvelle "place field" (champ de lieu) ou modifier une existante. Si le point de récompense se déplace, le replay désassocie l'ancien vecteur et l'associe au nouveau.

      "The replay is taking the neuron that says cheese over here and it's moving it to say cheese is over there now right and so that's what the replay is doing and it's doing this throughout the whole map it's just going around the whole map organizing your representations to point you towards the cheese doing this inference in rest not at the time when you're going to need it when you need it but doing it way before you need it so that it's much quicker when you need it."

      • Surreprésentation des Neurones Vecteurs : Les neurones de vecteur seraient particulièrement représentés dans ces replays, suggérant qu'ils sont la cible principale de cette réorganisation.

      7. Replay Rapide vs. Replay Lent et leur Impact sur la Performance

      • Dans des tâches cognitives plus complexes chez l'humain (comme un jeu de cartes avec des dimensions d'attaque/défense), deux types de replay sont observés :

      • Replay Rapide (Fast Replay, ~50 ms) : Associé à une meilleure performance et à l'utilisation du système de coordonnées interne.

      Plus on a de replay rapide, moins on a besoin de "réfléchir" consciemment.

      Il se situe dans les zones du lobe temporal médian (hippocampe, cortex entorhinal).

      • Replay Lent (Slow Replay, ~150 ms) : Associé à une performance plus faible et à la nécessité de la "pensée" consciente. Il semble provenir davantage du cortex frontal.

      • Ces résultats suggèrent que le replay rapide, qui construit des cartes en mode hors ligne, "is preventing you from having to do this rapid thinking online."

      8. L'Importance du Repos et du Sommeil pour la Construction de Connaissances Structurelles

      • Behrens insiste sur le fait que le cerveau continue de "remplir la carte" pendant les périodes de repos :

      • Construction Hors Ligne de la Carte : Même lorsque les informations sont apprises de manière unidimensionnelle, le cerveau utilise le replay pendant le repos pour construire la carte complète bidimensionnelle.

      "It replays in the two- dimensional in the full two two Dimensions during rest when there's no inferences going on in in their behavior they're just sitting there the brain in the background is is sending these little packets filling out the map building in the two-dimensional replay."

      • Impact sur la Performance Future : "If you do that offline then later online you have more grid cell activity and you're better at the task."

      • Conseil Pratique : "All the time when you're just sitting around having a cup of tea what you should be doing what your brain is doing is filling in all the experiences that you've had that day and making them all match up with each other so that you um so so that you when you get asked a question later you know the answer already you don't have to think about it there and then so get lots of rest and have lots of Cups of Tea."

      • Lien avec l'Éducation et le QI : Les signaux de replay et de structure se développent "in the school time in the age of of school from 8 to 18 and they predict measures real world measures like IQ much better than things like age do."

      Ceci soutient l'idée que les programmes éducatifs devraient se concentrer sur le "developing Rich structural knowledge" plutôt que sur le conditionnement par récompense/punition ("take that Skinner!").

      • Replay et Sommeil Lent : Ces paquets d'activité sont les plus forts pendant le sommeil à ondes lentes, soulignant l'importance du sommeil pour l'organisation des connaissances.

      9. Discussion : Homme vs. Rongeur et Spécialisation Corticale

      • Similarité des Principes Mécanistiques : Behrens reconnaît que le répertoire structurel est "much richer in humans than it is in other species" mais pense que "the principles by which they mechanistically operate are the same." Cela justifie l'étude des mécanismes de base chez les rongeurs.

      • Transfert de Connaissances Hippocampe-Cortex : Il y a "definitely such a transfer" d'informations de l'hippocampe vers le reste du cortex pendant le sommeil.

      Une "onde d'activité" se propage de l'hippocampe vers le cortex entorhinal, puis le cortex préfrontal médian et pariétal médian, avant d'atteindre les cortex associatifs et sensorimoteurs. Ces régions médianes pourraient "mediate the communication of hippocampus to the rest of Cortex."

      • Le Modèle en "Anneaux d'Oignon" (Onion Rings) : Behrens propose une métaphore où les structures les plus universelles et fréquemment utilisées (comme l'espace ou les hiérarchies) seraient représentées "closest to the hippocampus", tandis que les structures plus spécialisées (comme la grammaire du langage) seraient plus éloignées, dans les systèmes corticaux dédiés.

      L'objectif est de construire les souvenirs avec le moins de nouvelles synapses possible, en utilisant au maximum les connaissances antérieures.

    1. Exposé Détaillé : Les États Hybrides Veille-Sommeil et les Fonctions Cognitives du Sommeil

      Ce document de synthèse présente les thèmes principaux, les idées essentielles et les faits marquants issus des extraits de la conférence de Stanislas Dehaene et de la présentation d'Isabelle Arnulf intitulée "Les états hybrides veille sommeil une fenêtre sur les fonctions cognitives du sommeil".

      1. Introduction : L'accès au Rêve et la Notion d'États Hybrides

      Isabelle Arnulf, Professeur de neurologie et chef de service des pathologies du sommeil à l'hôpital de la Pitié-Salpêtrière, souligne la difficulté majeure d'étudier les fonctions cognitives du sommeil : l'accès au rêve.

      Elle définit le rêve non seulement comme les "grands scénarios immersifs" mais aussi comme "tout ce qui est pensée, émotion, sensation, ressenti pendant le sommeil".

      Le défi réside dans le fait que le contenu cognitif est vécu pendant le sommeil, et l'approche traditionnelle de réveil du dormeur pour recueillir des souvenirs présente des biais significatifs :

      Oubli massif : "plus de 99 % de nos rêves soient oubliés à partir du moment où on se réveille". Distorsion du récit : La transformation du rêve en récit peut être inexacte en raison de la reconstruction difficile et de l'auto-censure.

      Manque de temporalité : L'incapacité de situer précisément le rêve par rapport au moment du réveil. Pour pallier ces difficultés, la recherche s'est orientée vers l'obtention de "marqueurs du rêve au moment où il se passe pendant le sommeil", notamment grâce aux "états hybrides" entre veille et sommeil.

      Ces états sont des zones frontalières où le cerveau n'est ni totalement éveillé ni totalement endormi, donnant lieu à des comportements ou des expériences particulières.

      2. Les États Hybrides Veille-Sommeil comme Fenêtre sur le Rêve

      Isabelle Arnulf identifie plusieurs états hybrides, qu'elle classe selon qu'ils se produisent entre :

      Veille et sommeil lent profond : somnambulisme, terreurs nocturnes, parler dans le sommeil (somniloquie), éveils confusionnels.

      Veille et sommeil paradoxal : cataplexie, troubles comportementaux en sommeil paradoxal (TCSP), parler en sommeil paradoxal, rêve lucide, hypnagogies (entre veille et sommeil lent léger).

      La présentation se focalise sur les TCSP, le somnambulisme, les terreurs nocturnes, la somniloquie et le rêve lucide, car ils offrent des pistes directes pour l'étude des rêves.

      2.1. Les Troubles Comportementaux en Sommeil Paradoxal (TCSP)

      Définition : Rêves et cauchemars agités, survenant généralement chez les personnes de plus de 50 ans.

      Le dormeur "va souvent donner des coups de poing, des coups de pied, parler, insulter dans son sommeil".

      Congruence avec le rêve : Le contenu mental rapporté au réveil est "congruent et isomorphe au comportement qu'on a vu avant", ce qui en fait un "outil assez extraordinaire pour voir les rêves en comportement". Physiologie : Normalement, le sommeil paradoxal est caractérisé par une atonie musculaire (paralysie).

      Chez les patients TCSP, le "verrou qui nous paralyse dans la phase paradoxale n'est pas complètement effectif", permettant l'expression physique des rêves.

      Conséquences : Les comportements violents peuvent entraîner des blessures pour le dormeur ou son conjoint.

      La paralysie pendant le sommeil paradoxal est donc cruciale pour la sécurité.

      Variété des comportements : Au-delà des violences, la perte de l'atonie musculaire peut révéler des comportements non-violents, mais toujours associés à des souvenirs de rêve congruents, comme chanter ou mimer des actions.

      Analogie animale : Michel Jouvet a pu déclencher des comportements oniriques chez les chats en ciblant la zone du tronc cérébral responsable de l'atonie, confirmant l'existence d'une dégénérescence similaire chez les patients TCSP.

      Marqueur précoce de maladies neurodégénératives : Le TCSP est un "très haut risque" de développer dans les années qui suivent une maladie de Parkinson ou des corps de Lewy.

      La dégénérescence d'une région focale du cerveau (locus coeruleus et subcoeruleus) est associée à ce trouble. Cela en fait un sujet de recherche majeur pour le prodrome de ces maladies.

      2.2. Les Parasomnies de Sommeil Lent Profond (Somnambulisme, Terreurs Nocturnes)

      Définition : Comportements anormaux (marche, fuite, cris) observés à la lisière de l'éveil et du sommeil lent profond.

      Cerveau hybride : Pendant ces épisodes, le "la partie postérieure du cerveau est réveillé la partie antérieure est encore dans du sommeil profond".

      Contenu onirique : Contrairement à l'idée reçue, les somnambules peuvent rêver. "76 % des adultes avec ces phénomènes là [...] ont occasionnellement le rappel d'un contenu de rêve qui est associé à l'épisode et qui une fois de plus est isomorphe au comportement qu'on a vu avant". Ces rêves sont souvent plus brefs et liés à des "catastrophes imminentes".

      Perception de l'environnement : À la différence des TCSP où le dormeur est dans un autre monde, les somnambules et sujets aux terreurs nocturnes ont une "perception de la chambre et de leur contenu de rêve qui apparaît comme une sorte d'hologramme dans la chambre".

      Origine des rêves : L'accélération cardiaque et l'activation des régions postérieures du cerveau jusqu'à 20 secondes avant le début du comportement suggèrent que l'expérience mentale commence avant le réveil moteur, et n'est pas simplement une création au moment de l'éveil partiel.

      3. Les Fonctions Cognitives du Sommeil et du Rêve

      La recherche utilise ces états hybrides pour "mieux décrire le contenu mental" et "tester des hypothèses sur les fonctions cognitives du sommeil et du rêve".

      3.1. La Simulation de la Menace (Théorie de Revonsuo) Hypothèse : La théorie de Revonsuo (2000) suggère que le rêve permet de "s'entraîner à faire face à la menace" et aurait une fonction darwinienne.

      Corrélation avec les TCSP et le somnambulisme : "60 à 70 % se rappelle que c'était un scénario de menace" dans les rêves des patients TCSP et des somnambules.

      Somnambules (sommeil lent profond) : Majoritairement des catastrophes (inondation, murs qui s'écroulent) avec une réponse de fuite ("100 % [...] fuit hors du lit"). TCSP (sommeil paradoxal) : Plus d'agressions par des personnes et des animaux avec une réponse de contre-attaque ("75 % [...] contre-attaque dans le lit"). Rêves des étudiants en médecine avant le concours : Une étude auprès de 2324 étudiants a montré que 171 sur 188 qui se souvenaient d'un rêve la veille de l'examen avaient "rêvé de l'examen" et l'avaient "raté de toutes les manières possibles". Le fait de rêver du concours, même négativement, "donne un demi-point de plus" à la note, suggérant un "gain cognitif" et corroborant la théorie de Revonsuo sur l'entraînement face à des situations stressantes.

      3.2. Le Langage pendant le Sommeil (Somniloquie) Méthodologie : Enregistrement et transcription de 883 vocalisations (dont 703 phrases complètes) sur environ 200 personnes.

      Caractéristiques du langage nocturne :Négativité : Le mot le plus fréquent est "non", et les tournures négatives représentent plus de 9 % des énoncés, bien plus que dans la conversation éveillée. Vulgarité : "les mots vulgaires sont beaucoup plus fréquents que dans la conversation d'éveil". Ils sont plus fréquents en sommeil lent qu'en sommeil paradoxal (où ce sont plutôt des insultes). Structure : Le langage est "adressé à une personne", respecte la grammaire, le tour de parole, et peut être complexe. Les gestes co-verbaux sont également "parfaitement conservés". Différences avec l'éveil : Plus de marmonnements, une parole "plus négative, plus répétée" et "plus vulgaire", suggérant une expression moins censurée ou plus primitive du contenu mental.

      3.3. La Consolidation de la Mémoire et la Réexécution des Apprentissages

      • Hypothèse : Le sommeil consolide la mémoire. La question est de savoir si les apprentissages récents sont réexécutés dans les rêves.
      • Expérience : Des patients somnambules et TCSP ont appris une chorégraphie ou un texte avant de dormir.
      • Résultats : La mémoire procédurale (chorégraphie) et verbale (texte) était bien consolidée. Cependant, la réexécution des comportements appris pendant le sommeil était "une grande déception" et "assez rare", suggérant que la fenêtre d'observation est trop étroite.
      • Cas anecdotique : Un patient TCSP a reproduit des mouvements de "taping" (examen neurologique) pendant son sommeil paradoxal, montrant une certaine transparence de l'apprentissage dans le rêve.

      3.4. La Régulation des Émotions

      • Fonction connue : Le sommeil aide à "digérer les émotions négatives", comme le montre le fait qu'une nuit de sommeil permet de répondre de manière plus rationnelle à un e-mail agressif.
      • Expression faciale des émotions pendant le sommeil :Sourires : Les adultes, y compris les personnes normales, sourient pendant leur sommeil (sommeil lent léger et paradoxal). 52 % de ces sourires sont des "sourires de Duchène", associés à de "vraies émotions positives".
      • Émotions négatives : Les froncements de sourcils (corrugator) sont fréquents dans tous les sujets. Les expressions complètes de mécontentement, peur ou colère sont observées "uniquement les troubles comportementaux en sommeil paradoxal".
      • Lien avec les mouvements oculaires rapides (MOR) : Les émotions négatives sont "très fortement associées [...] aux bouffées de mouvement oculaire" en sommeil paradoxal. Cela rappelle la technique de l'EMDR (Eye Movement Desensitization and Reprocessing) utilisée pour digérer les traumatismes, suggérant que les MOR rapides pourraient aider à traiter les émotions négatives pendant le sommeil paradoxal.
      • Dynamique des émotions pendant le sommeil paradoxal : Les émotions négatives apparaissent plus tôt (pic autour de 10 minutes) et sont plus présentes au début de la phase. Le cerveau semble traiter les émotions "à très haute vitesse", passant rapidement du positif au négatif, ce qui pourrait "éviter trop d'émotions négatives si elle se suivait sans arrêt".

      3.5. La Créativité et les Hypnagogies

      • Anectodes de chercheurs et artistes : Einstein et Mendeleïev auraient eu des intuitions créatives en rêve.
      • Méthode d'Edison : Thomas Edison utilisait une méthode pour se réveiller au début de l'endormissement (hypnagogies) pour capturer des "bonnes idées". Kekulé aurait découvert la structure du benzène lors d'une rêverie hypnagogique.
      • Expérience sur la résolution de problèmes : Des participants ont tenté de résoudre une tâche de réduction de nombres (avec une règle cachée) avant de dormir, puis se sont reposés avec une bouteille à la main (méthode d'Edison).
      • Résultats : Ceux qui se sont réveillés après 30 à 60 secondes de sommeil lent léger (stade N1) grâce à la chute de la bouteille ont eu un taux de réussite de 83 % pour trouver la solution cachée. Ceux qui sont restés éveillés ou qui sont passés en sommeil N2 n'ont pas trouvé la solution.
      • Explication : La résolution du problème semble nécessiter un "cocktail EEG favorable", un mélange de "réflexion de l'éveil et de déjà l'imagination la pensée un peu métaphorique en image du sommeil". Les hypnagogies, images et petits scénarios qui apparaissent à l'endormissement, sont clés pour cette créativité.

      4. Conclusion : Le Sommeil comme "Boîte Noire" du Contenu Mental

      Isabelle Arnulf conclut que "il y a une activité mentale dans tous les stades de sommeil" avec des fonctions potentielles de "mémoriser de simuler les menaces de réguler les émotions peut-être de développer la créativité peut-être peut-être aussi l'empathie". Les parasomnies (états hybrides) sont des "fenêtres directes étroites [...] mais riches sur ces conditions et ses émotions pendant le sommeil". Le sommeil est une "boîte noire" que ces "fragmentations" permettent d'explorer, révélant le "cristal qui est à l'intérieur qui est ce contenu mental".

      Enfin, elle mentionne l'importance clinique de cette recherche, notamment la capacité de modifier les cauchemars récurrents par la "répétition d'image mentale" (Image Rehearsal Therapy), soulignant comment la compréhension du traitement cognitif pendant le sommeil peut être utilisée pour des interventions thérapeutiques.

    1. Reviewer #1 (Public review):

      Summary:

      In this study, the authors developed an organoid system containing smooth muscle cells (SMCs) and interstitial cells of Cajal (ICCs; pacemaker cells), but few enteric neurons. This system generates rhythmic contractions similar to those observed in the developing gut. The stereotypical arrangement of SMCs and ICCs within the organoid allowed the authors to identify these cell types without the need for antibody staining. Leveraging this feature, they used calcium imaging and pharmacological approaches to investigate how calcium transients develop through interactions between the two cell types.

      The authors first show that calcium transients are synchronized among ICC-ICC, SMC-SMC, and SMC-ICC pairs. They then used gap junction inhibitors to suggest that gap junctions are specifically involved in ICC-to-SMC signaling. Finally, they applied inhibitors of myosin II and L-type Ca²⁺ channels to demonstrate that SMC contraction is crucial for the generation of rhythmic activity in ICCs, suggesting the presence of SMC-to-ICC signaling. Additionally, they show that two organoids become synchronized upon fusion, with SMCs mediating this synchronization.

      Strengths:

      The organoid system provides a useful model for studying the specific roles of SMCs and ICCs in live samples.

      Weaknesses:

      Since all functional analyses were conducted pharmacologically in vitro, the findings need to be further validated through genetic approaches in vivo in future studies.

    2. Author response:

      The following is the authors’ response to the original reviews.

      eLife Assessment

      This valuable study reports the development of a novel organoid system for studying the emergence of autorhythmic gut peristaltic contractions through the interaction between interstitial cells of Cajal and smooth muscle cells. While the utility of the organoids for studying hindgut development is well illustrated by showing, for example, a previously unappreciated potential role for smooth muscle cells in regulating the firing rate of interstitial cells of Cajal, some of the functional analyses are incomplete. There are some concerns about the specificity and penetrance of perturbations and the reproducibility of the phenotypes. With these concerns properly addressed, this paper will be of interest to those studying the development and physiology of the gut.

      We greatly appreciate constructive comments raised by the Editors and all the Reviewers. We have newly conducted pharmacological experiments using Nifedipine, a L-type Ca<sup>2+</sup> blocker known to operate in smooth muscles (new Fig 7). The treatment abrogated not only the oscillation of SMCs but also that in ICCs, further corroborating our model that not only ICC-to-SMC interactions but also the reverse direction, namely SMC-to-ICC feedback signals, are operating to achieve coordinated/stable rhythm of gut contractile organoids.

      Concerning the issues of the specificity and penetrance in pharmacological experiments with gap junction inhibitors, we have carefully re-examined effects by multiple blockers (CBX and 18b-GA) at different concentrations (new Fig 5D and Fig. S3B).We have newly found that: (1) the effects observed by CBX (100 µM) that the latency of Ca<sup>2+</sup> peaks between ICCs (preceding) and SMCs (following) was abolished are not seen by 18b-GA at any concentrations including 100 µM, implying that the latency of Ca<sup>2+</sup> peaks between these cells is governed by connexin(s) that are not inhibited by18bGA. Such difference in inhibiting effects by these two drugs were previously reported in multiple model systems including guts (Daniel et al., 2007; Parsons & Huizinga, 2015; Schultz et al., 2003).

      Regarding the penetrance of the drugs, we have carried out earlier administration (Day 3) of the gap junction inhibitor, either CBX (100 µM) or 18b-GA (100 µM), in the course of organoidal formation in culture when cells are still at 2D to exclude a possible penetrance problem (new Fig. S3C). There treatments render no or little effects to the patterns of organoidal contractions in a way similar to the drug administration at Day 7. As already shown in the first version, CBX (100 µM) eliminates the latency of Ca<sup>2+</sup> peaks, we believe that this drug successfully penetrates into the organoid and exerts its specific effects.

      Unfortunately, due to very unstable condition in climate including extreme heat and sporadically occurring bird flu epidemic since the last summer in Japan, the poultry farm must have faced problems. In the course of revision experiments, we got in a serious trouble at multiple times with unhealthy eggs/embryos lasting from last summer until present. These unfortunate incidents did not allow us to engage in the revision experiments as fully as we originally planned. Nevertheless, we did our very best within a limited time fame, and we believe that the revised version is suitable as a final version of an eLife article.

      Public Reviews:

      Reviewer #1 (Public Review):

      Summary:

      In this study, the authors developed an organoid system that contains smooth muscle cells (SMCs) and interstitial cells of Cajal (ICCs; pacemaker) but few enteric neurons, and generates rhythmic contractions as seen in the developing gut. The stereotypical arrangements of SMCs and ICCs in the organoid allowed the authors to identify these cell types in the organoid without antibody staining. The authors took advantage of this and used calcium imaging and pharmacology to study how calcium transients develop in this system through the interaction between the two types of cells. The authors first show that calcium transients are synchronized between ICC-ICC, SMC-SMC, and SMC-ICC. They then used gap junction inhibitors to suggest that gap junctions are specifically involved in ICC-to-SMC signaling. Finally, the authors used an inhibitor of myosin II to suggest that feedback from SMC contraction is crucial for the generation of rhythmic activities in ICCs. The authors also show that two organoids become synchronized as they fuse and SMCs mediate this synchronization.

      Strengths:

      The organoid system offers a useful model in which one can study the specific roles of SMCs and ICCs in live samples.

      Thank you very much for the constructive comments.

      Weaknesses:

      Since only one blocker each for gap junction and myosin II was used, the specificities of the effects were unclear.

      We appreciate these comments. We have addressed those of “weaknesses” as described in “Responses to the eLife assessment” (please see above).

      Reviewer #2 (Public Review):

      Summary:

      In this study, Yagasaki et al. describe an organoid system to study the interactions between smooth muscle cells (SMCs) and interstitial cells of Cajal (ICCs). While these interactions are essential for the control of rhythmic intestinal contractility (i.e., peristalsis), they are poorly understood, largely due to the complexity of and access to the in vivo environment and the inability to co-culture these cell types in vitro for long term under physiological conditions. The "gut contractile organoids" organoids described herein are reconstituted from stromal cells of the fetal chicken hindgut that rapidly reorganize into multilayered spheroids containing an outer layer of smooth muscle cells and an inner core of interstitial cells. The authors demonstrate that they contract cyclically and additionally use calcium imagining to show that these contractions occur concomitantly with calcium transients that initiate in the interstitial cell core and are synchronized within the organoid and between ICCs and SMCs. Furthermore, they use several pharmacological inhibitors to show that these contractions are dependent upon non-muscle myosin activity and, surprisingly, independent of gap junction activity. Finally, they develop a 3D hydrogel for the culturing of multiple organoids and found that they synchronize their contractile activities through interconnecting smooth muscle cells, suggesting that this model can be used to study the emergence of pacemaking activities. Overall, this study provides a relatively easy-to-establish organoid system that will be of use in studies examining the emergence of rhythmic peristaltic smooth muscle contractions and how these are regulated by interstitial cell interactions. However, further validation and quantification will be necessary to conclusively determine show the cellular composition of the organoids and how reproducible their behaviors are.

      Strengths:

      This work establishes a new self-organizing organoid system that can easily be generated from the muscle layers of the chick fetal hindgut to study the emergence of spontaneous smooth muscle cell contractility. A key strength of this approach is that the organoids seem to contain few cell types (though more validation is needed), namely smooth muscle cells (SMCs) and interstitial cells of Cajal (ICCs). These organoids are amenable to live imaging of calcium dynamics as well as pharmacological perturbations for functional assays, and since they are derived from developing tissues, the emergence of the interactions between cell types can be functionally studied. Thus, the gut contractile organoids represent a reductionist system to study the interactions between SMCs and ICCs in comparison to the more complex in vivo environment, which has made studying these interactions challenging.

      Thank you very much for the constructive comments.

      Weaknesses:

      The study falls short in the sense that it does not provide a rigorous amount of evidence to validate that the gut organoids are made of bona fide smooth muscle cells and ICCs. For example, only two "marker" proteins are used to support the claims of cell identity of SMCs and ICCs. At the same time, certain aspects of the data are not quantified sufficiently to appreciate the variance of organoid rhythmic contractility. For example, most contractility plots show the trace for a single organoid. This leads to a concern for how reproducible certain aspects of the organoid system (e.g. wavelength between contractions/rhythm) might be, or how these evolve uniquely over time in culture. Furthermore, while this study might be able to capture the emergence of ICC-SMC interactions as they related to muscle contraction and pacemaking, it is unclear how these interactions relate to adult gastrointestinal physiology given that the organoids are derived from fetal cells that might not be fully differentiated or might have distinct functions from the adult. Finally, despite the strength of this system, discoveries made in it will need to be validated in vivo. Thank you very much for the comments, which are helpful to improve our MS. In the revised version, we have additionally used antibody against desmin, known to be a maker for mature SMCs (new Fig 3B). The signal is seen only in the peripheral cells overlapping with the αSMA staining (line 169-170).

      Concerning the reproducibility, while contractility changes were shown for a representative organoid in the original version, experiments had been carried out multiple times, and consistent data were reproduced as already mentioned in the text of the first version of MS. However, we agree with this reviewer that it must be more convincing if we assess quantitatively. We have therefore conducted quantitative assessments of organoidal contractions and Ca<sup>2+</sup> transients (new Fig. 2B, new Fig. 4D, new Fig 5D, E, new Fig. 6B, new Fig. 7B, new Fig. 8C, new Fig. S2, S3). Details such as repeats of experiments and size of specimens are carefully described in the revised version (Figure legends)

      In particular, in place of contraction numbers/time, we have plotted “contraction intervals” between two successive peaks (Fig. 2B and others). Actually, with your suggestion, we have tried to perform a periodicity analysis of organoid contractions. Unfortunately, no clear value has been obtained, probably because the contractions/Ca<sup>2+</sup> transitions are not as “regularly periodical” as seen in conventional physics. This led us to perform the peak-interval analysis. Methods to quantify the contraction intervals are carefully explained in the revised version.

      As already mentioned in the “Our provisional responses” following the receipt of Reviewers’ comments, we agree that our organoids derived from embryonic hind gut (E15) might not necessarily recapitulate the full function of cells in adult. However, it has well been accepted in the field of developmental biology that studies with embryonic tissue/cells make a huge contribution to unveil complicated physiological cell functions. Nevertheless, we have carefully considered in the revised version so that the MS would not send misleading messages. We agree that in vivo validation of our gut contractile organoid must be wonderful, and this is a next step to go.

      Reviewer #3 (Public Review):

      Summary:

      The paper presents a novel contractile gut organoid system that allows for in vitro studying of rudimentary peristaltic motions in embryonic tissues by facilitating GCaMPlive imaging of Ca<sup>2+</sup> dynamics, while highlighting the importance and sufficiency of ICC and SMC interactions in generating consistent contractions reminiscent of peristalsis. It also argues that ENS at later embryonic stages might not be necessary for coordination of peristalsis.

      Strengths:

      The manuscript by Yagasaki, Takahashi, and colleagues represents an exciting new addition to the toolkit available for studying fundamental questions in the development and physiology of the hindgut. The authors carefully lay out the protocol for generating contractile gut organoids from chick embryonic hindgut, and perform a series of experiments that illustrate the broader utility of these organoids for studying the gut. This reviewer is highly supportive of the manuscript, with only minor requests to improve confidence in the findings and broader impact of the work. These are detailed below.

      Thank you very much for the constructive comments.

      Weaknesses:

      (1) Given that the literature is conflicting on the role GAP junctions in potentiating communication between intestinal cells of Cajal (ICCs) and smooth muscle cells (SMCs), the experiments involving CBX and 18Beta-GA are well-justified. However, because neither treatment altered contractile frequency or synchronization of Ca++ transients, it would be important to demonstrate that the treatments did indeed inhibit GAP junction function as administered. This would strengthen the conclusion that GAP junctions are not required, and eliminate the alternative explanation that the treatments themselves failed to block GAP junction activity.

      Thank you for these comments, and we agree. In the revised version, we have verified the drugs, CBX and 18b-GA, using dissociated embryonic heart cells in culture, a well-established model for the gap junction study (new Fig. S3D, line 237-239). Expectedly, both inhibitors abrogate the rhythmic beats of heart cells, and importantly, cells’ beats resume after wash-out of the drug.

      (2) Given that 5uM blebbistatin increases the frequency of contractions but 10uM completely abolishes contractions, confirming that cell viability is not compromised at the higher concentration would build confidence that the phenotype results from inhibition of myosin activity. One could either assay for cell death, or perform washout experiments to test for recovery of cyclic contractions upon removal of blebbistatin. The latter may provide access to other interesting questions as well. For example, do organoids retain memory of their prior setpoint or arrive at a new firing frequency after washout?

      We greatly appreciate these suggestions and also interesting ideas to explore! In the revised version, we have newly conducted washout experiments (new Fig. 6B) (10 µM drug is washed-out from culture medium), and found that contractions resume, showing that cell viability is not compromised at 10 µM concentration (line 257-259). Intriguingly, the resumed rhythm appears more regular than that before drug administration. Thus, the contraction rhythm of the organoid might be determined by cellcell interactions at any given time rather than by memory of their prior setpoint. This is an interesting issue we would like to further explore in the future. These issues, although potentially interesting, are not mentioned in the text of the revised version, since it is too early to interpret there observations.

      (3) Regulation of contractile activity was attributed to ICCs, with authors reasoning that Tuj1+ enteric neurons were only present in organoids in very small numbers (~1%).

      However, neuronal function is not strictly dependent on abundance, and some experimental support for the relative importance of ICCs over Tuj1+ cells would strengthen a central assumption of the work that ICCs the predominant cell type regulating organoid contraction. For example, one could envision forming organoids from embryos in which neural crest cells have been ablated via microdissection or targeted electroporation. Another approach would be ablation of Tuj1+ cells from the formed organoids via tetrodotoxin treatment. The ability of organoids to maintain rhythmic contractile activity in the total absence of Tuj1+ cells would add confidence that the ICCs are indeed the driver of contractility in these organoids.

      We agree. In the revised version, we have conducted TTX administration (new Fig. S2C). Changes in contractility by this treatment is not detected, supporting the argument that neural cells/activities are not essential for rhythmic contractions of the organoid (line 178-181).

      (4) Given the implications of a time lag between Ca++ peaks in ICCs and SMCs, it would be important to quantify this, including standard deviations, rather than showing representative plots from a single sample.

      In the revised version, we have elaborated a series of quantitative assessments as mentioned above (please see our responses to the “eLife assessments” at the beginning of these correspondences). The latency between Ca<sup>2+</sup> peaks in ICCs and SMCs is shown in new Fig. 4D, in which measured value is 700 msec-terraced since the time-lapse imaging was performed with 700 msec intervals (as already described in the first version).

      117 peaks for 14 organoids have been assessed (line 218).

      (5) To validate the organoid as a faithful recreation of in vivo conditions, it would be helpful for authors to test some of the more exciting findings on explanted hindgut tissue. One could explant hindguts and test whether blebbistatin treatment silences peristaltic contractions as it does in organoids, or following RCAS-GCAMP infection at earlier stages, one could test the effects of GAP junction inhibitors on Ca++ transients in explanted hindguts. These would potentially serve as useful validation for the gut contractile organoid, and further emphasize the utility of studying these simplified systems for understanding more complex phenomena in vivo.

      Thank you very much for insightful comments. We would love to explore these issues in near future. Just a note is that it was previously reported that Nifedipine silences peristaltic contractions in ex-vivo cultured gut (Chevalier et al., 2024; Der et al., 2000).

      (6) Organoid fusion experiments are very interesting. It appears that immediately after fusion, the contraction frequency is markedly reduced. Authors should comment on this, and how it changes over time following fusion. Further, is there a relationship between aggregate size and contractile frequency? There are many interesting points that could be discussed here, even if experimental investigation of these points is left to future work.

      It would indeed be interesting to explore how cell communications affect/determine the contraction rhythm, and our novel organoids must serve as an excellent model to address these fundamental questions. We have observed multiple times that when two organoids fuse, they undergo “pause”, and resume coordinated contractions as a whole, and we have mentioned such notice briefly in the revised version (line 282). To know what is going on during this pause time should be tempting. In addition, we have an impression that the larger in size organoids grow, the slower rhythm they count. We would love to explore this in near future.

      (7) Minor: As seen in Movie 6 and Figure 6A, 5uM blebbistatin causes a remarkable increase in the frequency of contractions. Given the regular periodicity of these contractions, it is a surprising and potentially interesting finding, but authors do not comment on it. It would be helpful to note this disparity between 5 and 10 uM treatments, if not to speculate on what it means, even if it is beyond the scope of the present study to understand this further.

      We assume that the increase in the frequency of contractions at 5 µM might be due to a shorter refractory period caused by a decreasing magnitude (amplitude) of contraction. We have made a short description in the revised text (line 256-257).

      (8) Minor: While ENS cells are limited in the organoid, it would be helpful to quantify the number of SMCs for comparison in Supplemental Figure S2. In several images, the number of SMCs appears quite limited as well, and the comparison would lend context and a point of reference for the data presented in Figure S2B.

      In the revised version, the number of SMCs has been counted and added in Fig. S2B. Contrary to that SMCs are more abundant than ICCs in an intact gut, the proportion is reversed in our organoid (line 181-183). It might due to treatments during cell dissociation/plating.

      (9) Minor: additional details in the Figure 8 legend would improve interpretation of these results. For example, what is indicated in orange signal present in panels C, G and H? Is this GCAMP?

      We apologize for this confusion. In the revised version, we have added labeling directly in the photos of new Fig. 9 (old Fig. 8). For C, G and H, the left photo is mRuby3+GCaMP6s, and the right one is GCaMP6s only.

      Recommendations for the authors:

      Reviewer #1 (Recommendations For The Authors):

      I have a few comments for the authors to consider:

      (1) Figure 4C: The authors propose that calcium signals propagate from ICC to SMC based on the results presented in this figure. While it is observed that the peak of the calcium signal in ICC precedes that in SMC, it's worth noting that the onset of the rise in calcium signals occurs simultaneously in ICC and SMC. Doesn't this suggest that they are activated simultaneously? The latency observed for the peaks of calcium signals could reflect different kinetics of the rise in calcium concentration in the two types of cells rather than the order of calcium signal propagation.

      We greatly appreciate these comments. We have re-examined kinetics of GCaMP signals in ICC and SMC, but we did not succeed in validating rise points precisely. We agree that the possibility that the rise in calcium signals could be occurring simultaneously. To clarify these issues, analyses with higher resolution is required, such as using GCaMP6f or GCaMP7/8. Nevertheless, the disappearance of the latency of Ca<sup>2+</sup> peak by CBX implies a role of gap junction in ICC to SMC signaling. In the revised version, we replaced the wording “rise” by “peak” when the latency is discussed.

      (2) Figure 5C: The specific elimination of the latency in the calcium signal peaks between ICC and SMC is interesting. However, I am curious about how gap junction inhibitors specifically eliminate the latency between ICC and SMC without affecting other aspects of calcium transients in these cells, such as amplitude and synchronization among ICCs and/or SMCs. Readers of the manuscript would expect some discussion on possible mechanisms underlying this specificity. Additionally, I wonder if the elimination of the latency was observed consistently across all samples examined. The authors should provide information on the frequency and number of samples examined, and whether the elimination occurs when 18-beta-GA is used.

      In the revised version, we have elaborated quantitative demonstration. For the effects by CBX on latency or Ca<sup>2+</sup> peaks, a new graph has been added to new Fig 5, in which 100 µM eliminated the latency. Intriguingly, the latency appears to be attributed to a gap junction that is not inhibited by18-beta-GA (please see new Fig. S3E). As already mentioned above, inhibiting activity of both CBX and 18-beta-GA has been verified using dissociated cells of embryonic heart, a popular model for gap junction studies.

      At present, we do not know how gap junction(s) contribute to the latency of Ca<sup>2+</sup> peaks without affecting synchronization among ICCs and/or SMCs (we have not addressed amplitude of the oscillation in this study). Actually, it was surprising to us to find that GJ’s contribution is very limited. We do not exclude the importance of GJs, and currently speculate that GJs might be important for the initiation of contraction/oscillation signals, whereas the requirement of GJs diminishes once the ICC-SMC interacting rhythm is established. What we observed in this study might be the synchronization signals AFTER these interactions are established (Day 7 of organoidal culture). Upon the establishment, it is possible that mechanical signaling elicited by smooth muscles’ contraction might become prominent as a mediator for the (stable) synchronization, as implicated by experiments with blebbistatin and Nifedipin, the latter being newly added to the revised version (new Fig. 7). We have added such speculation, although briefly in Discussion (line 374-377)

      (3) Figure 6: The significant effects of blebbistatin on calcium dynamics in both ICC and SMC are intriguing. However, since only one blocker is utilized, the specificity of the effects is unclear. If other blockers for muscle contraction are available, they should be employed. Considering that a rise in calcium concentration precedes contraction, calcium transients should persist even if muscle contraction is inhibited. One concern is whether blebbistatin inadvertently rendered the cells unhealthy. The authors should demonstrate at least that contraction and calcium transients recover after removal of the drug. The frequency and number of samples examined should be shown, as requested for Figure 5C above.

      Thank you for these critical comments. A possible harmfulness of the drugs was also raised by other reviewers, and we have therefore conducted wash-out experiments in the revised version (new Fig. 6B). Contractions resume after wash-out showing that cell viability is not compromised at 10 µM concentration. The number of samples examined has been described more explicitly in the revised version. Regarding the blocker of SMC, we have newly carried out pharmacological assays using nifedipine, a blocker of a L-type Ca<sup>2+</sup> channel known to operate in smooth muscle cells (new Fig 7) (Chevalier et al., 2024; Der et al., 2000). As already explained in the “Responses to eLife assessment”, the treatment abrogated ICCs’ rhythm and synchronous Ca<sup>2+</sup> transients between ICCs and SMCs, further corroborating our model that not only ICC-to-SMC interactions but also SMC-to-ICC feedback signals are operating to achieve coordinated/stable rhythm of gut contractile organoids of Day 7 culture (please also see our responses shown above for Comment (2)).

      Reviewer #2 (Recommendations For The Authors):

      Major:

      (1) The claim that organoids contain functional SMCs and ICCs is insufficient as it currently relies on only c-Kit and aSMA antibodies. This conclusion could be additionally supported by staining with other markers of contractile smooth muscle (e.g. TAGLN and MYH14) and an additional accepted marker of ICCs (e.g. ANO1/TMEM16). Moreover, it should be demonstrated whether these cells are PDGFRA+, as PDGFRA is a known marker of other mesenchymal fibroblast cell types. These experiments would additionally rule out whether these cells were simply less differentiated myofibroblasts. Given that there might not be available antibodies that react with chicken protein versions, the authors could support their conclusions using alternative approaches, such as fluorescent in situ hybridization. A more thorough approach, such as single-cell RNA sequencing to compare the cell composition of the in vitro organoids to the in vivo colon, would fully justify the use of these organoids as a system for studying in vivo cell physiology.

      With these suggestions provided, we have newly stained contractile organoids with anti-desmin antibody, known to be a marker for differentiated SMCs. As shown in new Fig. 3B, desmin-positive cells perfectly overlapped with aSMA-staining, indicating that the peripherally enclosing cells are SMCs. Regarding the interior cells, as this Reviewer concerned, there are no antibodies against ANO1/TMEM16 which are available for avian specimens. The anti- c-Kit antibody used in this study is what we raised in our hands by spending years (Yagasaki et al., 2021)), in which the antibody was carefully validated in intact guts of chicken embryos by multiple methods including Western Blot analyses, immunostaining, and in situ hybridization. We have attempted several times to perform organoidal whole-mount in situ hybridization for expression of PDGFRα, but we have not succeeded so far. In addition, as explained to the Editor, the very unhealthy condition of purchased eggs these past 7 months did not allow us to continue any further. We are planning to interrogate cell types residing in the central area of the organoid, results of which will be reported in a separate paper in near future.

      (2) The key ICC-SMC relationship and physiological interaction seems to arise developmentally, but the mechanisms of this transition are not well defined (Chevalier 2020). To further support the claim that ICC-SMC interactions can be interrogated in this system, this study would benefit from establishing organoids at distinct developmental stages to (a) show that they have unique contractile profiles, and (b) demonstrate that they evolve over time in vitro toward an ICC-driven mechanism.

      We agree with these comments. We tried to prepare gut contractile organoids derived from different stages of development, and we had an impression that slightly younger hindguts are available for the organoid preparations. In addition, not only the hindgut, but also midgut and caecum also yield organoids. However, since formed organoids derived from these “non-E15 hindgut” vary substantially in shapes, contraction frequencies/amplitudes etc., we are currently not ready to report these preliminary observations. Instead, we decided to optimize and elaborate in vitro culture conditions by focusing on the E15 hindgut, which turned out to be most stable in our hands. Nevertheless, it is tempting to see how organoid evolves over time during gut development.

      (3) This manuscript would be greatly enhanced by a functional examination of the prospective organoid ICCs. For example, the authors could test whether the c-Kit inhibitor Imatinib, which has previously been used to impair ICC differentiation and function in the developing chick gut (Chevalier 2020), has an effect on contractility at different stages.

      Following the paper of (Chevalier 2020), we had already conducted similar experiments with Imatinib in the culture with our organoids, but we did not see detectable effects. In that paper, the midgut of younger embryos was used, whereas we used E15 hindgut to prepare organoids. It would be interesting to see if we add Imanitib earlier during organoidal formation, and this is a next step to go.

      (4) It is claimed that there is a 690s msec delay in SMC spike relative to ICC spike, however, it is unclear where this average is derived from and whether the organoid calcium trace shown in Figure 4C is representative of the data. The latency quantification should be shown across multiple organoids, and again in the case of carbenoxolone treatment, to better understand the variations in treatment.

      We apologize that the first version failed to clearly demonstrate quantitative assessments. In the revised version, we have elaborated quantitative assessments (117 peaks for 14 organoids) (line 216-218). In new Fig. 4D, measured value is 700 msecterraced since as already mentioned in the first version, the time-lapse imaging was performed with 700 msec intervals.

      (5) As above, a larger issue is that only single traces are shown for each organoid. This makes it challenging to understand the variance in contractile properties across multiple organoids. While contraction frequencies are shown several times, the manuscript would benefit from additional quantifications, such as rhythm (average wavelength between events) in control and perturbed conditions.

      We have substantially elaborated quantitative assessments (please also see our responses to the “Public Review”). In particular, in place of contraction numbers/time, we have plotted “contraction intervals” between two successive peaks (Fig. 2B and others). Actually, we have tried to perform a periodicity analysis of organoid contractions. Unfortunately, no clear value has been obtained, probably because the contractions/Ca<sup>2+</sup> transitions are not as “regularly periodical” as seen in conventional physics. This led us to perform the peak-interval analysis. Methods to quantify the contraction intervals are carefully explained in the revised version.

      (6) The synchronicity observed between ICCs and SMCs within the organoid is interesting, and should be emphasized by making analyses more quantitative so as to understand how consistent and reproducible this phenomenon is across organoids. Moreover, one of the most exciting parts of the study is the synchronicity established between organoids in the hydrogel system, but it is insufficiently quantified. For example, how rapidly is pacemaking synchronization achieved?

      As we replied above to (5), and described in the responses to the “Public Review”, we have substantially elaborated quantitative assessments in the revised version. Concerning the synchronicity between ICCs and SMCs, our data explicitly show that as long as the organoid undergoes healthy contraction, they perfectly match their rhythm (Fig. 4) making it difficult to display quantitatively. Instead, to demonstrate such synchronicity more convincingly, we have carefully described the number of peaks and the number of independent organoids we analyzed in each of Figure legends. In the experiments with hydrogels, the time required for two organoids to start/resume synchronous contraction varies greatly. For example, for the experiment shown in new Fig 9F, it takes 1 day to 2 days for cells crawling out of organoids and cover the surface of the hydrogel. In the experiments shown in new Fig. 8, two organoids undergo “pause” before resuming contractions. In the revised version, we have briefly mentioned our notice and speculation that active cell communications take place during this pausing time, (line 282-283 in Result and line 437-439 in Discussion). We agree with this reviewer saying that the pausing time is potentially very interesting. However, it is currently difficult to quantify these phenomena. More elaborate experimental design might be needed.

      (7) Smooth muscle layers in vivo are well organized into circular and longitudinal layers. To establish physiological relevance, the authors should demonstrate if these organoids have multiple layers (though it looks like just a single outer layer) and if they show supracellular organization across the organoid.

      The immunostaining data suggest that peripherally lining cells are of a single layer, and we assume that they might be aligned in register with contracting direction. However, to clarify these issues, observation with higher resolution would be required.

      (8) To further examine whether the organoids contain true functional ICCs, the authors should test whether their calcium transients are impacted by inhibitors of L-type calcium channels, such as nifedipine and nicardipine. These channels have been demonstrated to be important for SMCs but not ICCs, so one might expect to see continued transients in the core ICCs but a loss of them in SMCs (Lee et al., 1999; PMID: 10444456)

      We appreciate these comments. We have accordingly conducted new experiments with Nifedipine. Contrary to the expectation, Nifedipine ceases not only organoidal contractions, but also ICC activities (and its resulting synchronization) (new Fig. 7). These findings actually corroborate our model already mentioned in the first version that ICCs receive mechanical feedback from SMC’s contraction to stably maintain their oscillatory rhythm. We believe that the additional findings with Nifedipine have improved the quality of our paper. Concerning the central cells in the organoid, we have additionally used anti-desmin antibody known to mark differentiated SMCs. Desmin signals perfectly overlap with those of aSMA in the peripheral single layer, supporting that the peripheral cells are SMCs and central cells are ICCs. The anti c-Kit antibody used in this study is what we raised in our hands by spending years (Yagasaki et al., 2021)), in which the antibody was carefully validated in intact guts of chicken embryos by multiple methods including Western Blot analyses, immunostaining, and in situ hybridization.

      ANO1/TMEM16 are known to stain ICCs in mice. Antibodies against ANO1/TMEM16 available for avian specimens are awaited.

      (9) Despite Tuj1+ enteric neurons only making up a small fraction of the organoids, the authors should still functionally test whether they regulate any aspect of contractility by treating organoids with an inhibitor such as tetrodotoxin to rule out a role for them.

      Thank you for these advices, which are also raised by other reviewers. We have conducted TTX administration (new Fig. S2C). Changes in contractility by this treatment is not detected, supporting the argument that neural cells/activities are not essential for rhythmic contractions of the organoid (line 178-181).

      (10) Finally, the manuscript is written to suggest that the focus of the study is to establish a system to interrogate ICC-SMC interactions in gut physiology and peristalsis. However, the organoids designed in this study are derived from the fetal precursors to the adult cell types. Thus, they might not accurately portray the adult cell physiology. I don't believe that this is a downfall, but rather a strength of the study that should be emphasized. That is, the focus could be shifted toward stressing the power of this new system as a reductionist, self-organizing model to examine the developmental emergence of contractile synchronization in the intestine - in particular that arising through ICC-SMC interactions.

      We appreciate these advices. In the revised MS, we are careful so that our findings do not necessarily portray the physiological functions in adult gut.

      Minor:

      More technical information could be used in the methods:

      (1) What concentration of Matrigel is used for coating, and what size were the wells that cells were deposited into?

      We have added, “14-mm diameter glass-bottom dishes (Matsunami, D11130H)” and “undiluted Matrigel (Corning, 354248) at 38.5°C for 20 min” (line 471473).

      (2) How were organoids transferred to the hydrogels? And were the hydrogels coated?

      We have added “Organoids were transferred to the hydrogel using a glass capillary” (line 560-561).

      (3) Tests for significance and p values should be added where appropriate (e.g. Figure S3B).

      We have added these in Figure legend of new Fig. S3.

      Reviewer #3 (Recommendations For The Authors):

      This is an exciting study, and while the majority of our comments are minor suggestions to improve the clarity and impact of findings, it would be important to verify the effective disruption of GAP junction function with CBX or 18Beta-GA treatments before concluding they are not required for coordination of contractility and initiation by ICCs. It is possible that sufficient contextual support exists in the literature for the nature of treatments used, but this may need to be conveyed within the manuscript to allay concerns that the results could be explained by ineffective inhibition of GAP junctions.

      Thank you very much for these advices. In the revised version, we have newly carried out experiments with dissociated embryonic heart cells cultured in vitro, a model widely used for gap junction studies (Fig. S3D). Both CBX or 18b-GA exert efficient inhibiting activity on contractions of heart cells. We have added the following sentence, “The inhibiting activity of the drugs used here was verified using embryonic heart culture (line 237-239)”.

    1. Impacted” means that a tooth either has not come in (“erupted”) when expected or a tooththat cannot erupt because it does not have room or may be coming in the wrong directionor position. What causes an impacted tooth may not be known – for some people, it justhappens. Genetics can play a role, so if a parent had an impacted tooth, their child mayexperience the same problem.

      ① “Impacted” means that a tooth either has not come in (“erupted”) when expected or a tooth that cannot erupt because it does not have room or may be coming in the wrong direction or position. ① “Gömülü” terimi, bir dişin beklenen zamanda çıkmamış (“sürmemiş”) olması veya yeterli alan olmadığı için ya da yanlış yönde veya pozisyonda çıkmaya çalıştığı için çıkamaması anlamına gelir.

      ② What causes an impacted tooth may not be known – for some people, it just happens. ② Bir dişin gömülü olmasının nedenleri bilinmeyebilir – bazı kişilerde bu sadece olur.

      ③ Genetics can play a role, so if a parent had an impacted tooth, their child may experience the same problem. ③ Genetik faktörler etkili olabilir, bu yüzden bir ebeveynin gömülü dişi varsa, çocuğunda da aynı problem görülebilir.

    2. Tooth rotation; is defined as mesiolingual or distolingual intra-alveolar displacement ofthe tooth around its longitudinal axis. Number of factors are involved in the rotation of teethlike space inadequacy, abnormal tooth eruption sequence, and undesirable forces exertedby the tongue and lips or any above combination. Biomechanical principles involveapplication of single or couple of force for correction of rotation. Rotated teeth can becorrected by removable, semifixed or fixed appliance depending upon the severity ofrotation

      ① Tooth rotation is defined as mesiolingual or distolingual intra-alveolar displacement of the tooth around its longitudinal axis. ① Diş rotasyonu, dişin uzunlamasına ekseni etrafında mesiolingual veya distolingual intra-alveoler yer değiştirmesi olarak tanımlanır.

      ② A number of factors are involved in the rotation of teeth, such as space inadequacy, abnormal tooth eruption sequence, and undesirable forces exerted by the tongue and lips or any combination of these. ② Diş rotasyonunda; yer yetersizliği, anormal diş sürme dizisi ve dil ile dudakların uyguladığı istenmeyen kuvvetler ya da bunların herhangi bir kombinasyonu gibi birçok faktör rol oynar.

      ③ Biomechanical principles involve the application of a single or couple of forces for correction of rotation. ③ Biyomekanik prensipler, rotasyonun düzeltilmesi için tek veya birkaç kuvvet uygulanmasını içerir.

      ④ Rotated teeth can be corrected by removable, semifixed or fixed appliances depending upon the severity of the rotation. ④ Dönen dişler, rotasyonun şiddetine bağlı olarak hareketli, yarı sabit veya sabit apareylerle düzeltilebilir.

    3. Dentinal dysplasia (DD) should not be confused with dentinogenesis (or sometimescalled odontogenesis) imperfecta. The first differential diagnosis is that DD does not affectthe entire dentition. In DD the roots are short and conical, hence the name rootless teeth,and the pulp chambers are obliterated by multiple nodules of poorly organized dentine.Usually patients loose these teeth early after eruption.There are two types of DD:- Type 1 involves radicular dentin (rootless teeth) and- Type 2 involves coronal dentin and is easily mistaken for dentinogenesis imperfecta. DDtype 2 teeth are similar to dentinogenesis imperfecta teeth, but the coronal pulp chamberscontain denticles accompanied by thistle tube appearance of the pulps in the permanentteeth. However the pulps will be totally obliterated in deciduous teeth, which clinicallyresemble dentinogenesis imperfecta (amber colored and translucent).

      ① Dentinal dysplasia (DD) should not be confused with dentinogenesis (or sometimes called odontogenesis) imperfecta. ① Dentin displazisi (DD), dentinogenez (ya da bazen odontogenez olarak da adlandırılan) imperfecta ile karıştırılmamalıdır.

      ② The first differential diagnosis is that DD does not affect the entire dentition. ② İlk ayırıcı tanı olarak DD tüm dişleri etkilemez.

      ③ In DD the roots are short and conical, hence the name rootless teeth, and the pulp chambers are obliterated by multiple nodules of poorly organized dentine. ③ DD’de kökler kısa ve konik şekildedir, bu nedenle “kökü olmayan dişler” olarak adlandırılır ve pulpa odaları düzensiz dentin nodülleriyle tamamen tıkanmıştır.

      ④ Usually patients lose these teeth early after eruption. ④ Genellikle hastalar dişlerin sürmesinden sonra erken dönemde bu dişleri kaybederler.

      ⑤ There are two types of DD: ⑤ İki tip DD vardır:

      ⑥ - Type 1 involves radicular dentin (rootless teeth) and ⑥ - Tip 1, radiküler dentini (kökü olmayan dişler) içerir ve

      ⑦ - Type 2 involves coronal dentin and is easily mistaken for dentinogenesis imperfecta. ⑦ - Tip 2, koronal dentini içerir ve kolaylıkla dentinogenez imperfecta ile karıştırılır.

      ⑧ DD type 2 teeth are similar to dentinogenesis imperfecta teeth, but the coronal pulp chambers contain denticles accompanied by thistle tube appearance of the pulps in the permanent teeth. ⑧ DD tip 2 dişleri dentinogenez imperfecta dişlerine benzer, ancak koronal pulpa odaları dentiküller ve kalıcı dişlerde “thistle tube” (deve dikeni tüpü) görünümü ile karakterizedir.

      ⑨ However the pulps will be totally obliterated in deciduous teeth, which clinically resemble dentinogenesis imperfecta (amber colored and translucent). ⑨ Ancak, süt dişlerinde pulpa odaları tamamen tıkanır ve klinik olarak dentinogenez imperfecta gibi (kehribar renkli ve şeffaf) görünür.

    4. Amber, grey to purple-bluish discoloration or opalescence.● Pulpal obliteration.● Relatively bulbous crowns.● Short, narrow roots.● Enamel may be lost after tooth eruption, exposing the soft dentine, which rapidlywears. This is probably due to inherent weakness in the dentine rather thanbecause of an enamel defect or abnormality at the dentinoenamel junction.● Mantle dentine appears normal.● Circumpulpal dentine has poorly formed dentine with abnormal direction oftubules. Small soft-tissue inclusions represent remnants of pulpal tissue.

      ① Amber, grey to purple-bluish discoloration or opalescence. ① Amber, gri ila morumsu-mavi renkte renk değişikliği veya opalesans.

      ② Pulpal obliteration. ② Pulpa odasının tıkanması.

      ③ Relatively bulbous crowns. ③ Görece soğanımsı taç yapısı.

      ④ Short, narrow roots. ④ Kısa ve dar kökler.

      ⑤ Enamel may be lost after tooth eruption, exposing the soft dentine, which rapidly wears. This is probably due to inherent weakness in the dentine rather than because of an enamel defect or abnormality at the dentinoenamel junction. ⑤ Diş sürmesinden sonra mine kaybolabilir ve yumuşak dentin açığa çıkar, bu da hızlı aşınmaya neden olur. Bu muhtemelen mine defekti veya dentino-mine birleşimindeki anormallikten ziyade dentinin doğuştan zayıf olmasındandır.

      ⑥ Mantle dentine appears normal. ⑥ Mantle dentin normal görünür.

      ⑦ Circumpulpal dentine has poorly formed dentine with abnormal direction of tubules. Small soft-tissue inclusions represent remnants of pulpal tissue. ⑦ Pulpa çevresi dentinde kötü gelişmiş dentin ve tubüllerin anormal yönü bulunur. Küçük yumuşak doku parçaları pulpal doku kalıntılarını temsil eder.

    5. What is specific to dentinogenesis imperfecta is that all teeth in both dentitions areaffected. That is the greatest differential with the dentinal dysplasia types. Since the dentinis affected, the adherence between enamel and dentin is compromised and patients willsuffer from chipping enamel and hence sensitive teeth, which subsequently wear downquickly too. The teeth have a blue to brown color when they erupt. Pulp chambers may getobliterated, but sometimes they don’t and seem to be expanded, which renders theradiographic appearance typical and is called “shell teeth.”

      ① What is specific to dentinogenesis imperfecta is that all teeth in both dentitions are affected. ① Dentinogenezis imperfektaya özgü olan, hem süt hem de kalıcı dişlerde tüm dişlerin etkilenmesidir.

      ② That is the greatest differential with the dentinal dysplasia types. ② Bu, dentin displazi tiplerinden en büyük farkıdır.

      ③ Since the dentin is affected, the adherence between enamel and dentin is compromised and patients will suffer from chipping enamel and hence sensitive teeth, which subsequently wear down quickly too. ③ Dentin etkilendiği için, mine ve dentin arasındaki tutunma bozulur ve hastalar mine çatlaması ve buna bağlı hassasiyet yaşar; bu da dişlerin hızlı aşınmasına yol açar.

      ④ The teeth have a blue to brown color when they erupt. ④ Dişler sürerken mavi ila kahverengi arasında bir renge sahiptir.

      ⑤ Pulp chambers may get obliterated, but sometimes they don’t and seem to be expanded, which renders the radiographic appearance typical and is called “shell teeth.” ⑤ Pulpa odaları tıkanabilir, ancak bazen tıkalı olmaz ve genişlemiş gibi görünür; bu da radyografide tipik bir görünüm verir ve buna “kabuk dişler” denir.

    6. Type 1 is associated with osteogenesis imperfecta and teeth appear opalescent. DI type1 is often not diagnosed accurately as it has a great variety in appearance and expressionand therefore osteogenesis imperfecta might be underdiagnosed as well, as this conditionalso shows a myriad of expressions (bruising, prolonged bleeding, spraining, fractures,hearing impairment, joint hypermobility, and blue sclerae)

      ① Type 1 is associated with osteogenesis imperfecta and teeth appear opalescent. ① Tip 1, osteogenezis imperfekta ile ilişkilidir ve dişler opalesan (sedefimsi) görünür.

      ② DI type 1 is often not diagnosed accurately as it has a great variety in appearance and expression and therefore osteogenesis imperfecta might be underdiagnosed as well, ② Dentinogenezis imperfekta Tip 1 sıklıkla doğru teşhis edilemez çünkü görünüş ve ifade açısından büyük çeşitlilik gösterir; bu nedenle osteogenezis imperfekta da yeterince tanınmayabilir.

      ③ as this condition also shows a myriad of expressions (bruising, prolonged bleeding, spraining, fractures, hearing impairment, joint hypermobility, and blue sclerae) ③ Çünkü bu durum aynı zamanda morarma, uzun süren kanama, burkulma, kemik kırıkları, işitme kaybı, eklem aşırı hareketliliği ve mavi sklera gibi çeşitli belirtiler gösterir.

    7. Phenotypes range from markedly hypoplastic (thin) enamel (either uniformly withspacing between adjacent teeth or irregularly giving rise to pits or grooves) tovarying degrees of hypomineralization (poorly formed enamel) with altered colourand translucency. In many cases both hypoplasia and hypomineralization are seentogether. The colour of the teeth is presumed to reflect the degree of hypomineralization ofthe enamel – the darker the colour the more severe the degree of hypomineralization

      ① Phenotypes range from markedly hypoplastic (thin) enamel (either uniformly with spacing between adjacent teeth or irregularly giving rise to pits or grooves) to varying degrees of hypomineralization (poorly formed enamel) with altered colour and translucency. ① Fenotipler belirgin hipoplastik (ince) mine yapısından (ya komşu dişler arasında düzgün boşluklarla ya da düzensiz, çukurlar veya oluklar oluşturarak) değişen derecelerde hipomineralizasyona (kötü oluşmuş mine) kadar değişir; renk ve saydamlıkta değişiklikler olur.

      ② In many cases both hypoplasia and hypomineralization are seen together. ② Birçok vakada hem hipoplazi hem de hipomineralizasyon birlikte görülür.

      ③ The colour of the teeth is presumed to reflect the degree of hypomineralization of the enamel – the darker the colour the more severe the degree of hypomineralization. ③ Dişlerin rengi, mine hipomineralizasyon derecesini yansıttığı varsayılır – renk ne kadar koyuysa, hipomineralizasyon o kadar şiddetlidir.

    8. If Turner's hypoplasia is found on a canine or a premolar, the most likely cause isan infection that was present when the primary (baby) tooth was still in the mouth. Mostlikely, the primary tooth was heavily decayed and an area of inflamed tissues around theroot of the tooth (called a periapical inflammation), affecting the development of thepermanent tooth. The appearance of the abnormality will depend on the severity andlongevity of the infection

      ① If Turner's hypoplasia is found on a canine or a premolar, the most likely cause is an infection that was present when the primary (baby) tooth was still in the mouth. ① Turner hipoplazisi bir kanin veya premolar dişte bulunursa, en olası nedeni süt dişi hâlâ ağızdayken mevcut olan bir enfeksiyondur.

      ② Most likely, the primary tooth was heavily decayed and an area of inflamed tissues around the root of the tooth (called a periapical inflammation), affecting the development of the permanent tooth. ② Büyük olasılıkla, süt dişi ciddi şekilde çürümüştür ve diş kökü etrafındaki dokularda bir iltihaplanma (periapikal inflamasyon) oluşmuş, bu da daimi dişin gelişimini etkilemiştir.

      ③ The appearance of the abnormality will depend on the severity and longevity of the infection. ③ Anomalinin görünümü, enfeksiyonun şiddetine ve süresine bağlı olarak değişecektir.

    9. A defect in quantity that causes a defect of contour in the surface of the enamel. Thisis usually caused by initial failure of the deposition of enamel protein, but the sameclinical effect could also result if there is a mineralization defect which leads to loss ofenamel substance after eruption. In the former case the enamel is often hard andglassy, in the latter it will usually pit on probing.

      ① A defect in quantity that causes a defect of contour in the surface of the enamel. ① Mine yüzeyinde şekil bozukluğuna neden olan niceliksel bir bozukluktur.

      ② This is usually caused by initial failure of the deposition of enamel protein, but the same clinical effect could also result if there is a mineralization defect which leads to loss of enamel substance after eruption. ② Bu genellikle mine proteininin ilk birikiminin başarısızlığıyla oluşur, ancak benzer klinik etki, mine süresince meydana gelen bir mineralizasyon bozukluğundan kaynaklı madde kaybı durumunda da oluşabilir.

      ③ In the former case the enamel is often hard and glassy, in the latter it will usually pit on probing. ③ İlk durumda mine genellikle sert ve cam gibi olurken, ikinci durumda sond ile muayenede çukurlaşma gözlenir.

    10. Extrinsic stains can be removed with abrasives.● Mild discoloration may be improved using professionally or home-applied peroxidebased bleaching agents.● Intrinsic stains, if superficial, may be removed with microabrasion techniques.

      ① Extrinsic stains can be removed with abrasives. ① Dışsal lekeler aşındırıcı maddelerle giderilebilir.

      ② Mild discoloration may be improved using professionally or home-applied peroxide based bleaching agents. ② Hafif renklenmeler, profesyonelce ya da evde uygulanan peroksit bazlı beyazlatıcı ajanlarla iyileştirilebilir.

      ③ Intrinsic stains, if superficial, may be removed with microabrasion techniques. ③ İçsel lekeler, yüzeyel olmaları durumunda mikroabrazyon teknikleriyle giderilebilir.

    11. In its mildest forms, fluorosis is manifest as hypomineralization of the enamel, leadingto opacities. These can range from tiny white flecks to confluent opacities throughoutthe enamel, making the crown totally lacking in translucency. Hypoplasia occurs athigher concentrations of fluoride. When the tooth first erupts, the surface of eventhe most severely affected enamel may be intact; however, with wear, areas ofenamel are lost and stains are taken up into the porosities. At 1 ppm of fluoride inpublic water supplies, up to 10% of the population will show very mild opacitiesattributable to fluorosis (though this may depend on individual water consumption);interestingly, this seems to be a minimum value and the proportion of opacitiesincreases as fluoride levels either fall below 1 ppm or rise above 2 ppm. Severelyaffected cases may require microabrasion or restoration with composite resin, eitherin a localized or a more generalized manner, or porcelain veneers.

      ① In its mildest forms, fluorosis is manifest as hypomineralization of the enamel, leading to opacities. ① Florozisin en hafif formlarında, mine hipomineralizasyonu olarak ortaya çıkar ve opasiteler oluşur.

      ② These can range from tiny white flecks to confluent opacities throughout the enamel, making the crown totally lacking in translucency. ② Bunlar, minede küçük beyaz lekelerden tüm yüzeye yayılmış birleşik opaklıklara kadar değişebilir ve bu durum, kronun tamamen saydamlığını kaybetmesine neden olur.

      ③ Hypoplasia occurs at higher concentrations of fluoride. ③ Daha yüksek florür konsantrasyonlarında hipoplazi oluşur.

      ④ When the tooth first erupts, the surface of even the most severely affected enamel may be intact; however, with wear, areas of enamel are lost and stains are taken up into the porosities. ④ Diş ilk sürdüğünde, en ağır şekilde etkilenmiş mine bile yüzey olarak sağlam olabilir; ancak aşınmayla birlikte mine alanları kaybolur ve gözenekli alanlara lekeler yerleşir.

      ⑤ At 1 ppm of fluoride in public water supplies, up to 10% of the population will show very mild opacities attributable to fluorosis (though this may depend on individual water consumption); ⑤ Halk su kaynaklarında florür seviyesi 1 ppm olduğunda, nüfusun %10’una kadarında florozise bağlı çok hafif opaklıklar görülebilir (bu bireysel su tüketimine bağlı olabilir);

      ⑥ interestingly, this seems to be a minimum value and the proportion of opacities increases as fluoride levels either fall below 1 ppm or rise above 2 ppm. ⑥ İlginçtir ki bu oran minimum gibi görünür ve florür seviyesi 1 ppm’in altına düştüğünde ya da 2 ppm’in üzerine çıktığında opaklık oranı artar.

      ⑦ Severely affected cases may require microabrasion or restoration with composite resin, either in a localized or a more generalized manner, or porcelain veneers. ⑦ Ağır şekilde etkilenen olgular, lokal ya da daha yaygın bir şekilde mikroabrazyon, kompozit rezin restorasyonu veya porselen veneer uygulaması gerektirebilir

    12. Gray or brown in color, these deep, dark stains either cover the entire tooth orappear as a pattern of horizontal stripes

      ① Gray or brown in color, these deep, dark stains either cover the entire tooth or appear as a pattern of horizontal stripes. ① Gri veya kahverengi renkte olan bu derin ve koyu lekeler ya tüm dişi kaplar ya da yatay çizgiler şeklinde bir desen olarak ortaya çıkar.

    13. Tooth discoloration may be extrinsic or intrinsic in nature. Extrinsic staining issuperficial and occurs after tooth eruption. Intrinsic discoloration may result from adevelopmental defect of enamel or internal staining of the tooth. Although such internalstaining is manifest as a change in tooth color, the intrinsic defect may affect the dentineprimarily or exclusively

      ① Tooth discoloration may be extrinsic or intrinsic in nature. ① Diş renginde değişiklik, dışsal veya içsel nitelikte olabilir.

      ② Extrinsic staining is superficial and occurs after tooth eruption. ② Dışsal lekelenme yüzeyseldir ve diş sürmesinden sonra meydana gelir.

      ③ Intrinsic discoloration may result from a developmental defect of enamel or internal staining of the tooth. ③ İçsel renk değişikliği, minenin gelişimsel bir defektinden veya dişin iç kısmındaki lekelenmeden kaynaklanabilir.

      ④ Although such internal staining is manifest as a change in tooth color, the intrinsic defect may affect the dentine primarily or exclusively. ④ Bu iç lekelenme diş renginde değişiklik olarak ortaya çıkmasına rağmen, içsel defekt esas olarak ya da sadece dentini etkileyebilir.

    14. Opacities result from a defect in the quality of the enamel, affecting the lucency ofthe tissue. Hypomineralization results in a change in the porosity of the enamel,causing opacity. This may be located below the enamel surface, which otherwiseremains intact

      ① Opacities result from a defect in the quality of the enamel, affecting the lucency of the tissue. ① Opasiteler, minenin kalitesindeki bir bozukluktan kaynaklanır ve dokunun saydamlığını etkiler.

      ② Hypomineralization results in a change in the porosity of the enamel, causing opacity. ② Hipomineralizasyon, minenin gözenekliliğinde değişikliğe yol açar ve bu da opasiteye neden olur.

      ③ This may be located below the enamel surface, which otherwise remains intact. ③ Bu, genellikle minenin yüzeyinin altında yer alır; yüzey ise sağlam kalır.

    15. The tooth,therefore, has a long body and short roots, with a tendency towards a single root or apicaldisplacement of the furcation

      ❸ The tooth, therefore, has a long body and short roots, with a tendency towards a single root or apical displacement of the furcation. ❸ Bu nedenle dişin uzun bir gövdesi ve kısa kökleri olur; tek kök olma ya da bifurkasyonun apikal yönde yer değiştirme eğilimi vardır.

    16. This taperingor screwdriver-like appearance is important in the differential diagnosis as there areother causes of non-syphilitic notching of the incisal edge (e.g. trauma).

      ❸ This tapering or screwdriver-like appearance is important in the differential diagnosis as there are other causes of non-syphilitic notching of the incisal edge (e.g. trauma). ❸ Bu daralma ya da tornavida benzeri görünüm ayırıcı tanıda önemlidir çünkü kesici uçta frengi dışı çentiklenmeye neden olan başka durumlar da vardır (örneğin travma).

    Annotators

    1. utánea a fin de reducir el riesgo de infección, cicatrización y alteración de la función. Esto puede lograrse por uno de tres métodos: primario, secundario y tardío. Con

      preguntas al profe @JuliethDG

    1. [1]: Roederer, J. G. (2020). Electromagnetismo elemental. EUDEBA ( pp.226).

      la numeración de la bibliografía debe ser única, no puede haber dos [1]

    2. [2]

      la referencia bibliografica no se pone al lado de una ecuación. En este caso, había que ponerla en "...esta dada por [2], " y luego va la ecuación

  5. drive.google.com drive.google.com
    1. norte magn ́etico y un m ́ınimo correspondiente al sur magn ́etico

      la componente vertical no se mide respecto del norte o sur magnético, no me queda claro que fue lo que quisieron. Deberían haber aclarado mejor en la descripción de la experiencia como fue que ""giraron" la sonda. En estos casos lo mejor es definir un sistema de coordenadas y referir la descripción a ese sistema, sin ambigüedades

    1. Ya que en nuestros resultados encontramos un “valle” entre dos picos, loque nos indicaría estar trabajando con dos solenoides distintos, y no uno solo muy largo, loque es de esperarse al analizar nuestro arreglo experimental (figura 1), ya que nuestrosolenoide está compuesto por dos solenoides menores e idénticos conectados en serie

      Esta discusión es un poco trivial, les recomiendo que vayan directamente al grano. "Dado que en nuestro arreglo experimental tenemos dos solenoides en serie, utilizamos para el ajuste el modelo dado por al ecuación (2)"

    2. Luego, se comparó la dirección encontrada con ladirección dada por la brújula de un celular que marca el norte geográfico, dando comoresultado, que el norte magnético hallado coincide con el norte geográfico marcado pornuestra brújula

      veo un error de concepto acá. El norte magnético es diferente al norte geográfico. La brújula informa el norte magnético, por eso les da lo mismo

    1. Author response:

      The following is the authors’ response to the original reviews

      Public Reviews:

      Reviewer #1 (Public review):

      Summary:

      The study aims to create a comprehensive repository about the changes in protein abundance and their modification during oocyte maturation in Xenopus laevis.

      Strengths:

      The results contribute meaningfully to the field.

      Weaknesses:

      The manuscript could have benefitted from more comprehensive analyses and clearer writing. Nonetheless, the key findings are robust and offer a valuable resource for the scientific community.

      We would like to thank the reviewer for his/her positive feedback on our article. The public review points out that "The manuscript could have benefitted from more comprehensive analyses and clearer writing." We have rewritten several sections and provided more detailed explanations of the analysis and interpretation of some data (see below for details). We have also followed all of the reviewer's recommendations, some of which specifically highlighted areas lacking clarity. We would also like to thank the reviewer for pointing out some errors, for which we apologize, and which have now been corrected. We sincerely appreciate the reviewer's thorough work, as it has greatly enhanced the clarity and precision of the manuscript.

      Reviewer #2 (Public review):

      Summary:

      The authors analyzed Xenopus oocytes at different stages of meiosis using quantitative phosphoproteomics. Their advanced methods and analyses revealed changes in protein abundances and phosphorylation states to an unprecedented depth and quantitative detail. In the manuscript they provide an excellent interpretation of these findings putting them in the context of past literature in Xenopus as well as in other model systems.

      Strengths:

      High quality data, careful and detailed analysis, outstanding interpretation in the context of the large body of the literature.

      Weaknesses:

      Merely a resource, none of the findings are tested in functional experiments.

      I am very impressed by the quality of the data and the careful and detailed interpretation of the findings. In this form the manuscript will be an excellent resource to the cell division community in general, and it presents a very large number of hypotheses that can be tested in future experiments. Xenopus has been and still is a popular and powerful model system that led to critical discoveries around countless cellular processes, including the spindle, nuclear envelope, translational regulation, just to name a few. This also includes a huge body of literature on the cell cycle describing its phosphoregulation. It is indeed somewhat frustrating to see that these earlier studies using phosphomutants and phospho-antibodies were just scratching the surface. The phosphoproteomics analysis presented here reveals much more extensive and much more dynamic changes in phosphorylation states. Thereby, in my opinion, this manuscript opens a completely new chapter in this line of research, setting the stage for more systematic future studies.

      We thank the reviewer for his/her extremely positive comments. The public review points out that "none of the findings are tested in functional experiments." This is entirely accurate. We focused our work on obtaining the highest quality proteomic and phosphoproteomic data possible, and then sought to highlight these data by connecting them with existing functional data from the literature. This approach has opened up research avenues with enormous, previously unforeseen potential, in a wide range of biological fields (cell cycle, meiosis, oogenesis, embryonic development, cell biology, cellular physiology, signaling, evolution, etc.). We chose not to delay publication by experimentally investigating the narrow area in which we are specialists (meiotic maturation), while our data offer a vast array of research opportunities across various fields. Our goal was, therefore, to present this extensive dataset as a resource for different scientific communities, who can explore their specific biological questions using our data. This is why we submitted our article to the "Repository" section of eLife. Nevertheless, in the context of the comparative analysis of the mouse and Xenopus phosphoproteomes performed at the reviewer’s request, we felt it was important to complement this new section with functional experiments that not only validate the proteomic data but also provide new insights into certain proteins and their regulation by Cdk1 (new paragraph lines 824-860 and new Figure 9).

      We are also grateful to the reviewer for the recommendation to improve the manuscript by including more comparisons between our Xenopus data and those from other systems. We have followed this suggestion (see below), which has significantly enriched the article (new paragraph lines 824-860 and new Figure 9).

      Reviewer #3 (Public review):

      Summary:

      The authors performed time-resolved proteomics and phospho-proteomics in Xenopus oocytes from prophase I through the MII arrest of the unfertilized egg. The data contains protein abundance and phosphorylation sites of a large number set of proteins at different stages of oocyte maturation. The large sets of the data are of high quality. In addition, the authors discussed several key pathways critical for the maturation. The data is very useful for the researchers not only researchers in Xenopus oocytes but also those in oocyte biology in other organisms.

      Strengths:

      The data of proteomics and phospho-proteomics in Xenopus oocyte maturation is very useful for future studies to understand molecular networks in oocyte maturation.

      Weaknesses:

      Although the authors offered molecular pathways of the phosphorylation in the translation, protein degradation, cell cycle regulation, and chromosome segregation. The author did not check the validity of the molecular pathways based on their proteomic data by the experimentation.

      We thank the reviewer for his/her positive comments. The public review points out that "The author did not check the validity of the molecular pathways based on their proteomic data by the experimentation." This is entirely accurate. We focused our work on obtaining the highest quality proteomic and phosphoproteomic data possible, and then sought to highlight these data by connecting them with existing functional data from the literature. This approach has opened up research avenues with enormous, previously unforeseen potential, in a wide range of biological fields (cell cycle, meiosis, oogenesis, embryonic development, cell biology, cellular physiology, signaling, evolution, etc.). We chose not to delay publication by experimentally investigating the very narrow area in which we are specialists (meiotic maturation), while our data offer a vast array of research opportunities across various fields. Our goal was, therefore, to present this extensive dataset as a resource for different scientific communities, who can explore their specific biological questions using our data. This is why we submitted our article to the "Repository" section of eLife. Nevertheless, in the context of the comparative analysis of the mouse and Xenopus phosphoproteomes performed at the reviewer’s request, we felt it was important to complement this new section with functional experiments that not only validate the proteomic data but also provide new insights into certain proteins and their regulation by Cdk1 (new paragraph lines 824-860 and new Figure 9).

      We have also followed all of the reviewer's recommendations and thank him/her, as the suggestions have significantly enhanced the manuscript.

      Recommendations for the authors:

      Reviewer #1 (Recommendations for the authors):

      (1) Fig. 1 -> In the Figure legend "mPRβ" is called "mPRb". In the Figure, it is indicated that PKA substrates are always activated by the phosphorylation. As the relevant substrates and the mode-of-action of the Arpp19 phosphorylation are not clear at the moment, this seems to be preliminary. It could for example also be conceivable that PKA phosphorylation inhibits a translation activator. In addition, the PG-dependent translation of RINGO/Speedy should be included in the model.

      We fully agree with the reviewer. PKA substrates can either be activators of the Cdk1 activation pathway, which are inhibited by phosphorylation by PKA, or repressors of the same pathway, which are activated by phosphorylation by PKA. This is now illustrated in the new Fig. 1. In addition, we have also included RINGO/Speedy in the model and in the text (lines 78-79) and corrected "mPRb" in the legend.

      (2) Lane 51-52 -> it is questionable if the meiotic divisions can be called "embryonic processes"

      We agree with the reviewer comment, and we have removed the word “embryonic”.

      (3) Lane 53 and lane 106-107 -> recent data have indicated that transcription already starts during cell cycle 12 and 13 in most cells (e.g. Blitz and Cho: Control of zygotic genome activation in Xenopus (2021))

      We apologize for this mistake. The text has been corrected and the reference added (lines 53 and 107).

      (4) Lane 61-62 -> "MI" and "MII" are given as abbreviation for "first and second meiotic spindle"

      The text has been clarified to explain that MI is referred to metaphase I and MII stands for metaphase II (lines 61-64).

      (%) Lane 131-132 -> "single-cell" is mentioned redundantly in this sentence.

      The sentence has been corrected (lines 131-132).

      (6) Fig. 2B -> it is not explained what is plotted as "Average levels" on the x-Axis. Is it the average of expression over all samples or at a given time point? Are the values given as a concentration or are the values normalized? If so, how were they normalized?

      We agree with the reviewer comment that “Average levels” may have been unclear. In the new Fig. 2B, we have re-plotted the graph using the average protein concentration during meiosis, measured as described in the Methods section.

      (7) In Fig. 2-supplement 3E -> from the descriptions it is not entirely clear to me what the difference to the data in Fig. 2B is?

      We thank the reviewer for his/her question regarding the relationship between the data in Fig. 2B and Fig. 2-supplement 3E. We confirm that the raw data visualized in Fig. 2-supplement 3E are the same as those in Fig. 2B. However, in Fig. 2-supplement 3E, the data are color-coded differently to highlight the number of proteins whose concentrations change during meiotic divisions, based on the threshold adopted. The legend of Fig. 2-supplement 3E has been modified to clarify this point.

      (8) Lane 225-226 -> Kifc1 is a minus-end directed motor

      This mistake has been corrected (lines 232-233).

      (9) Lane 271 -> Serbp1, here mentioned to be involved in stabilization of mRNAs, has also been implicated in the regulation of ribosomes (e.g. Leesch et al. 2023). Regarding the overall topic of this manuscript, this could be mentioned as well.

      We agree with the referee that the important role of Serbp1 in the control of ribosome hibernation needs to be mentioned. We have included this point in the revised manuscript together with the reference (lines 277-279).

      (10) Lane 360-363 -> it is mentioned that APPL1 and Akt2 act "to induce meiosis". Furthermore, in the Nader et al. 2020 paper, Akt2 phosphorylation is reported to happen within 30min after PG treatment. In the present work, they only seem to get phosphorylated when Cdk1 is activated. Is there an explanation for this discrepancy?

      Indeed, Nader et al. (2020) indicate that Akt2 is phosphorylated on Ser473 (actually, they should have mentioned Ser474, which is the phosphorylated residue on Akt2; Ser473 corresponds to the numbering of Akt1) between 5 and 30 minutes post-Pg, which supports their hypothesis of an early role for this kinase. However, these conclusions should be taken with caution, considering that their functional experiment using antisense against Akt2 depletes only 25% of the protein, the antibody used to visualize Akt2 phosphorylation also recognizes phosphorylated Akt1 and Akt3, and they did not analyze phosphorylation of the protein after 30 minutes. Therefore, we cannot determine whether the level observed at 30 minutes represents a maximum or if it is just the onset of the phosphorylation that peaks later, possibly after activation of Cdk1, for example.

      Regarding our measurements: we clearly observe phosphorylation of Akt2 following Cdk1 activation on Ser131. We did not detect Akt2 phosphorylation on Ser474, but since our measurements started 1 hour post-Pg, this protein may have returned to a dephosphorylated state on Ser474.

      Therefore, the observations of Nader et al. and ours involve different residues and different phosphorylation kinetics, Nader et al. limiting their analysis to the first 30 minutes, whereas we started at 1 hour.

      We have revised the manuscript text to make these aspects clearer (lines 387-392).

      (11) Fig. 3B -> it could be made clearer in the Figure that all these sites belong to class I

      A title “Class I proteins” has been added in Fig. 3B to clarify it.

      (12) Lane 433-434 -> the authors write that the proteomic data of this study confirm that PATL1 is accumulating during meiotic maturation. However, in Fig. 2B PATL1 is not among the significantly enriched proteins.

      We apologize for this error. Indeed, PATL1 protein is not significantly enriched. The text has been corrected (lines 461-465).

      (13) Fig. 4B -> Zar2 is color-coded to increase in abundance. This is clearly different to published results and what is shown in Fig. 2B of this manuscript.

      Indeed, our dataset shows that the quantity of Zar2 decreases. This does not appear anymore in Figure 2B since Zar2 average concentration cannot be estimated. We made an error in the color coding, which has now been corrected in Figure 4B.

      (14) Lane 442-444 -> it might be worth mentioning that the interaction between CPEB1 and Maskin, and thus probably its role in regulation of translation, could not be reproduced in other studies (Minshall et al.: CPEB interacts with an ovary-specific eIF4E and 4E-T in early Xenopus oocytes (2007) or Duran-Arque et al.: Comparative analyses of vertebrate CPEB proteins define two subfamilies with coordinated yet distinct functions in post-transcriptional gene regulation (2022)).

      This clarification is now mentioned in the text, supported by the two references that have been added (lines 471-477).

      (15) Lane 483-485 -> The meaning of these sentences is not entirely clear to me. What exactly is the similarity with the function of Emi1? What does "...binding of Cyclin B1..." mean (binding to which other protein?). What is the similarity between Emi1 and CPEB1/BTG4, both of which are regulators of mRNA stability/polyadenylation?

      We apologize if these sentences were unclear. Our intention was to emphasize the central role of ubiquitin ligases in regulating multiple events during meiotic divisions. We used SCF<sup>βTrCP</sup>, a wellstudied ubiquitin ligase in Xenopus and mouse oocytes during meiosis, as an example. SCF<sup>βTrCP</sup> regulates the degradation of several substrates, including Emi1, Emi2, CPEB1, and Btg4, whose degradation or stabilization is essential for the proper progression of meiosis. Lastly, we highlighted that these regulatory processes, mediated by protein degradation, may be conserved in mitosis, as for example the destruction of Emi1. We have rewritten this paragraph for clarity (lines 513-518).

      (16) Lane 521-522 and 572-573 -> the authors write that Myt1 was not detected in their proteome. However, in Fig. 6A they list "pkmyt1" as a class II protein. On Xenbase, "pkmyt1" is the Cdk1 kinase, "Myt1" is a transcription factor, so the authors might have been looking for the wrong protein.

      We thank the reviewer for this accurate observation. We have modified the text to correct this error (lines 554 and 607).

      (17) Lane 564-565 -> The authors state that Cdk1 activity can be measured by analyzing Cdc27 S428 phosphorylation. However, in vivo the net phosphorylation of a site is always depending on the relevant kinase and phosphatase activities. As S428 is a Cdk1 site, it is not unlikely that it is dephosphorylated by PP2A-B55, which by itself is under the control of Cdk1. Do the authors have direct evidence that the change in phosphorylation of S428 can only be attributed to the changes in Cdk1 activity?

      There is evidence in the literature that Cdc27 is dephosphorylated by PP2A (Torres et al., 2010). In Xenopus oocytes, PP2A activity is high during prophase (Lemonnier et al., 2021) and decreases at the time of Cdk1 activation, mediated by the Greatwall-ENSA/Arpp19 system, remaining low until MII (Labbé et al., 2021). Therefore, the period where fluctuations in Cdk1 activity are difficult to assess, from NEBD to MII, corresponds to a phase of inhibited PP2A activity. As a result, the phosphorylation level of Cdc27 reflects primarily the activity of Cdk1. We have added this clarification in the text (lines 597-600).

      (18) Fig. 7C and 7D -> in 7C, for Nup35/Nup53 there is a phospho-peptide GIMEVRS(60)PPLHSGG. In Fig. 7D phosphorylation of GVMEMRS(59)PLFSGG is analyzed. Is this the same phosphosite/region of Nup35/Nup53? How can there be a slightly different version of the same peptide in one protein? Are these the L- and S-version of Nup35/Nup53? It is also very surprising that the two phosphosites belong to different classes, class III and class II, respectively.

      We thank the reviewer for this observation. The peptides GIMEVRS(60)PPLHSGG and GVMEMRS(59)PLFSGG correspond to the same phosphorylation site in the L and S versions of Xenopus laevis Nup35, respectively. The L version peptide was classified as Class III, while the S version was not assigned to any class due to its high phosphorylation level in prophase, which prevented it from meeting the log<sub>2</sub> fold-change threshold of 1 required by our analysis to detect significant differences.

      (19) Table 1 -> second last column is headed "Whur, 2014"

      The typo has been corrected.

      (20) Fig. 8 -> Why are all the traces starting at t=1h after PG?

      The labeling of the graphs in Fig. 8 has been corrected, and the traces now begin at t0.

      (21) Lane 754 -> Although a minority, there are also some minus-end directed kinesins, e.g. Kifc1

      We agree with the reviewer. We should have mentioned that, in addition to dyneins, some kinesins are minus-end directed motors, especially since one of them, Kifc1, is regulated at the level of its accumulation. We have rephrased the relevant sentences to incorporate this observation (lines 790-793).

      (22) Section "Assembly of microtubule spindles and microtubule dynamics" -> Although this section clearly has a strong focus on phosphorylation, it might be worth mentioning again that many regulators of the microtubule spindle, e.g. TXP2, are among the upregulated proteins in Fig. 2B/C

      We have already discussed that the protein levels of certain key regulators of the mitotic spindle (Tpx2, PRC1, SSX2IP, Kif11/Eg5 among others) are subject to control during meiotic maturation in a previous chapter “Protein accumulation: the machinery of cell division and DNA replication” (lines 230-239). We agree with the reviewer that this important observation can be mentioned again at the beginning of this chapter on phosphorylation control. We have added a sentence regarding this at the start of the paragraph (lines 774-775).

      Reviewer #2 (Recommendations for the authors):

      While I find the manuscript excellent and detailed already in its current form, I would appreciate including even more comparisons to other systems. In particular, a similar phosphoproteomics experiment has been performed in starfish oocytes undergoing meiosis (Swartz et al, eLife, 2021), and there are several studies on mitosis of diverse mammalian cells. It would be very exciting to see to what extent changes are conserved.

      We thank the reviewer for this recommendation, which we have attempted to follow. We have matched our dataset of mass spectrometry using the the phosphor-occupancy_matlab package, available as part of our code repository (https://github.com/elizabeth-van-itallie) previously described in (Van Itallie et al, 2025). Unfortunately, we were unable to match our dataset with the data from Swartz et al. (2021) on starfish oocyte due to the low sequence conservation. However, we have compared our dataset with the dataset from Sun et al. (2024) on mouse oocyte maturation. We identified a total of 408 conserved phosphorylation sites, which mapped to 320 proteins in Xenopus and 277 in mice (refer to a new paragraph: lines 824-860, new Figure 9, Methods: lines 1011-1032 and 1060-1065, and Appendix 7). The phosphorylation patterns during meiosis showed a significant crossspecies correlation (Pearson r = 0.39, p < 0.0001; see new Figure 9A), demonstrating the evolutionary conservation of phosphoproteomic regulation. Important phosphorylation events, including Plk1 at T201, Gwl at S467, and Erk2 at T188, were upregulated in both species, in line with the activation of the Cdk1 and MAPK signaling cascades (Figure 6B, new Figure 9A-B). We validated several of these phosphorylation sites by western blotting and demonstrated their dependency on Cdk1 activation (new Figure 9C). Together, these findings reinforce the notion that fundamental phospho-regulatory pathways are conserved during oocyte maturation in vertebrates.

      Reviewer #3 (Recommendations for the authors):

      (1) Page 6, the first paragraph of Results section: Please describe the method on how the authors measured and quantified the proteomes in different stages of Xenopus oocyte maturation briefly. Without the experimental design, it is very hard to evaluate the results in the following paragraphs.

      As requested by the reviewer, we added a few sentences describing the method of proteomics and phosphoproteomics measurements in oocytes resuming meiosis (lines 151-158).

      (2) In the phospho-proteome, it is better to classify the amino acids for the phosphorylation such as Ser, Thr, and Tyr. Particularly how many tyrosine phosphorylations are in the list.

      Our phosphosites dataset contains 80% Ser, 19.9% Thr, and 0.01% Tyr. Phospho-Tyr are slightly less abundant than what has been described in the literature (in most cells “roughly 85-90% of protein phosphorylation happens on Ser, ~10% on Thr, and less than 0.05% on Tyr" after Sharma et al., 2014. The same observation was made regarding the distribution of phosphorylated amino acids in mouse oocytes, where phospho-Tyr abundance is relatively diminished in oocytes compared to mouse organs (Sun et al., 2024). These observations are now reported in the manuscript (lines 309-313).

      (3) In class II (Figure 3), when Cdk1 (line 326) is a major kinase, how many phosphorylation sites are a target of Cdk1 (with the Cdk1-motif)? Moreover, do the authors find any other consensus sequences for the phosphorylation? Those are either known or unknown. This information would be useful for the readers.

      We thank the reviewer for this valuable comment. To address it, we used the kinase prediction server (https://kinase-library.phosphosite.org/kinase-library/score-site) to analyze Class II phosphosites. These new results are mentioned in lines 340-349 and illustrated in a new Figure (Figure 3—figure supplement 1A). We identified 303 sites predicted to be phosphorylated by Cdk1. Of these, 166 were also predicted as Erk1/2 targets, reflecting the similarity between Cdk1 and Erk1/2 consensus motifs.

      Cdk1 substrate phosphorylation is governed by more than just the presence of a consensus sequence. In addition to its preference for the (S/T)P×(K/R) motif, Cdk1/cyclin complexes achieve specificity through docking interactions with short linear motifs (SLiMs) recognized by the cyclin subunit (as LxF motifs)(Loog & Morgan, 2005), and via the Cdk-binding subunits Cks1 or Cks2, which interact with phosphorylated threonine residues in primed substrates (Örd et al, 2019). These mechanisms promote processive multisite phosphorylation and allow Cdk1 to target substrates even at non-canonical sites. Our motif-based analysis captures only part of this complexity and may underestimate the number of true Cdk1 targets.

      To further explore kinase involvement across phosphosite classes, we extended the analysis to all clusters and identified the most enriched kinase predictions for each (lines 360-365, new Figure 3— figure supplement 1B). In Class II, the most enriched kinases included Cdk1, Erk2, and Plk1, supporting the conclusions derived from the identification of the phosphosites of this Class. But others such as Cdk2, Cdk3, Cdk5, Cdk16, KIS, JNK1, and JNK3 were also identified.

      (4) Figure 3B: Why do the authors show this kind of Table only for Class I, not Classes II-V? It would be informative to show candidate proteins in other classes.

      We chose to present the candidate proteins from Class I in a table format because the number of phosphosites (136) was too small to allow a meaningful Gene Ontology (GO) enrichment analysis. Therefore, we manually curated the data and highlighted proteins whose Class I phosphosites are associated with specific biological processes. For Classes II–V, the higher number of phosphosites allowed us to perform GO enrichment analyses. Since several of the enriched processes were shared across different classes, and some proteins have phosphosites in multiple classes, we opted to organize the results by biological processes rather than by class. We agree with the reviewer that it is indeed valuable to highlight interesting proteins with Class II–V phosphosites. We have done so in Figures 4 through 8, using graphical representations instead of tables, in order to make the data more accessible and avoid long tables. Additionally, the Supplementary Figures provide detailed phosphorylation trends for many of the proteins discussed in the main figures.

      (5) It would be nice if the authors compare this phospho-proteome in Xenopus oocyte maturation with that in mouse oocyte maturation (Sun et al. 2024) in terms of evolutional conservation of the phospho-proteomes.

      We thank the reviewer for this suggestion. As now detailed in the manuscript, we compared our Xenopus phosphoproteome with the dataset from Sun et al. (2024) on mouse oocyte maturation using the the phospho_occupancy_matlab package, available as part of our code repository (https://github.com/elizabeth-van-itallie) previously described in (Van Itallie et al, 2025). We identified 408 conserved phosphorylation sites corresponding to 320 Xenopus and 277 mouse proteins (see new paragraph: lines 824-860, new Figure 9, Methods: lines 1011-1032 and 1060-1065, and Appendix 7). Phosphorylation dynamics across meiosis were significantly correlated between the species (Pearson r = 0.39, p < 0.0001; new Figure 9A), highlighting evolutionary conservation of the phosphoproteomes. Key phosphorylation events such as Plk1 at T201, Gwl at S467, and Erk2 at T188 increased in both species, consistent with activation of the Cdk1 and MAPK pathways (Figure 6B, new Figure 9A–B). We validated experimentally several of these phosphorylation sites by western blot (Erk2, Plk1, Fak1 and Akts1) and demonstrated their dependency on Cdk1 activation (new Figure 9C). Together, these new findings support the conservation of key phospho-regulatory mechanisms across vertebrate oocyte maturation.

      Minor points:

      (1) Reference lists: Please add Sun et al (2024) shown in line 115.

      This important reference has been added (lines 115, 134, 313 and 826).

      (2) Figure 1, red arrows for the inhibition: This should be "T" shape for a better understanding of these complicated pathways.

      We agree with the reviewer’s remark, and we have modified Figure 1.

      (3) Line 236-238: The authors referred to the absence of Cdc6 in oocyte maturation in Xenopus. However, Figure 2C shows that Cdc6 belongs to a list of accumulating proteins with Orc1 and Ocr2 etc. and the authors did not discuss this discrepancy in the text. Please clarity the claim.

      We apologize for the unclear wording in our text. The section of the manuscript regarding the pre-RC components may have been misleading. The text has been revised to clarify that Cdc6 was not detected in prophase-arrested oocytes by western blot and that it accumulates during meiotic maturation after MI, enabling oocytes to replicate DNA (lines 243-250).

      (4) Line 306: Please add the link to phosphosite.org.

      The link has been added (line 319).

    1. An enamel-covered tubercle usually projecting from the occlusalsurface of a premolar tooth. It is a cusp-like elevation of enamel located inthe central groove or lingual ridge of the buccal cusp of a premolar or permanentmolar. It is usually bilateral and more common in the mandible. It occurs mostly in mandibularpremolars and consists of enamel, dentin, and pulp. There is evidence of pulp tissue withinthe tubercle in 43% of cases. The latter means that attrition may cause pulpal exposure andhence periapical infection can develop. One can also find it in shovel-shaped incisors.Radiographs may show occlusal extension of the pulp chamber.

      ❶ An enamel-covered tubercle usually projecting from the occlusal surface of a premolar tooth. ❶ Genellikle bir premolar dişin oklüzal yüzeyinden çıkan, mineyle kaplı bir tüberküldür.

      ❷ It is a cusp-like elevation of enamel located in the central groove or lingual ridge of the buccal cusp of a premolar or permanent molar. ❷ Bu, bir premolar ya da sürekli molar dişin bukkal cuspunun lingual çıkıntısında ya da merkezi olukta yer alan, cusp benzeri bir mine çıkıntısıdır.

      ❸ It is usually bilateral and more common in the mandible. ❸ Genellikle bilateraldir ve mandibulada daha sık görülür.

      ❹ It occurs mostly in mandibular premolars and consists of enamel, dentin, and pulp. ❹ En çok mandibular premolarlarda görülür ve mine, dentin ile pulpadan oluşur.

      ❺ There is evidence of pulp tissue within the tubercle in 43% of cases. ❺ Vakaların %43’ünde tüberkül içinde pulpa dokusu bulunduğuna dair kanıt vardır.

      ❻ The latter means that attrition may cause pulpal exposure and hence periapical infection can develop. ❻ Bu durum, atrizyonun pulpa açılmasına neden olabileceği ve dolayısıyla periapikal enfeksiyon gelişebileceği anlamına gelir.

      ❼ One can also find it in shovel-shaped incisors. ❼ Bu oluşuma kürek şeklindeki kesici dişlerde de rastlanabilir.

      ❽ Radiographs may show occlusal extension of the pulp chamber. ❽ Radyograflarda, pulpa odasının oklüzal yönde uzandığı görülebilir.

    2. nature, one of the oldest concepts is that dilaceration is the result of mechanical trauma tothe calcified portion of a partially formed toot

      ❶ Dilaceration is a disturbance in tooth formation that produces a sharp bend or curve in the tooth anywhere in the crown or the root. ❶ Dilaserasyon, diş oluşumu sırasında meydana gelen ve dişin taç (kron) ya da kök kısmında keskin bir eğrilik ya da bükülme ile karakterize bir bozukluktur.

      ❷ Although this anomaly is likely developmental in nature, one of the oldest concepts is that dilaceration is the result of mechanical trauma to the calcified portion of a partially formed tooth. ❷ Bu anomali büyük olasılıkla gelişimsel kaynaklı olmasına rağmen, en eski görüşlerden biri dilaserasyonun, kısmen oluşmuş bir dişin kalsifiye olmuş (sertleşmiş) kısmına gelen mekanik travma sonucu oluştuğudur.

    3. Dilaceration is a disturbance in tooth formation that produces a sharp bend or curve in thetooth anywhere in the crown or the root. Although this anomaly is likely developmental i

      ❶ Dilaceration is a disturbance in tooth formation that produces a sharp bend or curve in the tooth anywhere in the crown or the root. ❶ Dilaserasyon, diş oluşumu sırasında meydana gelen ve dişin taç (kron) ya da kök kısmında keskin bir eğrilik ya da bükülme ile karakterize bir bozukluktur.

      ❷ Although this anomaly is likely developmental in nature, one of the oldest concepts is that dilaceration is the result of mechanical trauma to the calcified portion of a partially formed tooth. ❷ Bu anomali büyük olasılıkla gelişimsel kaynaklı olmasına rağmen, en eski görüşlerden biri dilaserasyonun, kısmen oluşmuş bir dişin kalsifiye olmuş (sertleşmiş) kısmına gelen mekanik travma sonucu oluştuğudur.

    4. A paramolar cusp or tubercle is a supernumerary cusp occurring on the buccal or lingualsurface of upper or lower premolars and molars. A paramolar cusp occurring on the buccalsurface of the maxillary molars is specifically termed as a parastyle.

      ❶ A paramolar cusp or tubercle is a supernumerary cusp occurring on the buccal or lingual surface of upper or lower premolars and molars. ❶ Paramolar cusp veya tüberkül, üst veya alt premolar ve molarların bukkal ya da lingual yüzeyinde görülen süpernümerer (ek) bir tüberküldür.

      ❷ A paramolar cusp occurring on the buccal surface of the maxillary molars is specifically termed as a parastyle. ❷ Maksiller molarların bukkal yüzeyinde görülen paramolar cusp, özel olarak "parastyle" olarak adlandırılır.

    5.  Macrodontia• Any tooth larger than normal for that particular tooth type.• True macrodontia involving the whole dentition is extremely rare. More commonly, singleteeth are abnormally large because of an isolated disturbance of development.Aetiology• Unknown for a single tooth, but generalized macrodontia may be caused by a hormonalimbalance, as this has been described in pituitary gigantism. It should be remembered thatan illusion of generalized macrodontia will occur if the jaws are small relative to the size ofthe teeth.• May also be associated with hemifacial hyperplasia.• True macrodontia should not be confused with the fusion or gemination of adjacent toothunits or a supernumerary to form a single tooth.• Generalized macrodontia is also associated with KBG syndrome* (the initials are taken fromthe surnames of the families first reported with the condition). These children present withshort stature, intellectual disability, skeletal abnormalities, syndactyly, a broad face withmicrocephaly and other facial anomalies

      ① Any tooth larger than normal for that particular tooth type. ① Herhangi bir dişin, ait olduğu diş tipine göre normalden büyük olması.

      ② True macrodontia involving the whole dentition is extremely rare. More commonly, single teeth are abnormally large because of an isolated disturbance of development. ② Tüm diş dizisini etkileyen gerçek makrodonti çok nadirdir. Daha yaygın olarak, tek bir diş izole bir gelişim bozukluğundan dolayı anormal derecede büyük olur.

      ③ Aetiology: Unknown for a single tooth, but generalized macrodontia may be caused by a hormonal imbalance, as this has been described in pituitary gigantism. ③ Etiyoloji: Tek bir diş için bilinmemektedir, ancak yaygın makrodonti hormonal dengesizlik nedeniyle olabilir; örneğin hipofiz devliğinde tanımlanmıştır.

      ④ It should be remembered that an illusion of generalized macrodontia will occur if the jaws are small relative to the size of the teeth. ④ Çene yapısı dişlerin büyüklüğüne göre küçükse, yaygın makrodonti yanılsaması oluşabileceği unutulmamalıdır.

      ⑤ May also be associated with hemifacial hyperplasia. ⑤ Yarı yüz büyümesi (hemifasiyal hiperplazi) ile de ilişkilendirilebilir.

      ⑥ True macrodontia should not be confused with the fusion or gemination of adjacent tooth units or a supernumerary to form a single tooth. ⑥ Gerçek makrodonti, bitişik dişlerin füzyonu ya da geminasyonu veya süpernumerer dişin tek diş oluşturması ile karıştırılmamalıdır.

      ⑦ Generalized macrodontia is also associated with KBG syndrome (the initials are taken from the surnames of the families first reported with the condition). These children present with short stature, intellectual disability, skeletal abnormalities, syndactyly, a broad face with microcephaly and other facial anomalies. ⑦ Yaygın makrodonti KBG sendromu ile de ilişkilidir (isim, durumu ilk bildiren ailelerin soyadlarının baş harflerinden alınmıştır). Bu çocuklarda kısa boy, zihinsel engel, iskelet anormallikleri, sindaktili, mikrosefali ile geniş yüz ve diğer yüz anomalileri görülür.

    6. Regional odontodysplasia is a sporadic defect in tooth formation with segmental involvement,usually localized to one, or part of one quadrant, but it may cross the midline to affect thecontralateral central incisor. All dental tissues are involved in a bizarre dysplasia withhypoplastic teeth which are slow to erupt and which typically radiographically show a ghost-like appearance. The aetiology of the condition is unclear. High fever diseases in childhood.

      ① Regional odontodysplasia is a sporadic defect in tooth formation with segmental involvement, usually localized to one, or part of one quadrant, but it may cross the midline to affect the contralateral central incisor. ① Bölgesel odontodisplazi, genellikle bir çeyreğe ya da bir çeyreğin bir kısmına lokalize olan, segmental tutulum gösteren, diş oluşumunda rastgele ortaya çıkan bir defekttir; ancak orta hattı geçerek karşıt santral kesici dişi de etkileyebilir.

      ② All dental tissues are involved in a bizarre dysplasia with hypoplastic teeth which are slow to erupt and which typically radiographically show a ghost-like appearance. ② Tüm diş dokuları, hipoplastik ve yavaş çıkan dişlerle birlikte garip bir displaziye uğrar ve bu dişler radyografide genellikle hayaletimsi (ghost-like) bir görünüm sergiler.

      ③ The aetiology of the condition is unclear. High fever diseases in childhood. ③ Hastalığın etiyolojisi belirsizdir. Çocuklukta yüksek ateşli hastalıklar etken olabilir.

    7. studies such as for orthodontic treatment planning, or because of delayed eruption of teeth.The condition progresses into adolescence and then tends to resolve, so that by the third orfourth decade radiographic changes may no longer be found. In some families more affectedmales than females may be identified – this is a result of reduced penetrance in females andneeds to be taken into account in genetic counselling. A subset of patients with cherubism ismore severely affected with the multilocular radiolucencies affecting the whole of themandible and maxillae. In mildly affected cases regular review may that all is necessary, inmore severely affected cases surgical reduction may be considered if the patient isdistressed by their appearance

      ① Cherubism is an autosomal dominant condition. ① Cherubism otozomal dominant bir hastalıktır.

      ② Patients may present in childhood with facial swelling and/or failure of eruption of teeth, typically the mandibular molars. ② Hastalar çocuklukta yüz şişliği ve/veya dişlerin (özellikle alt azı dişlerinin) sürmemesi ile başvurabilirler.

      ③ Radiographs will reveal multilocular radiolucencies, typically involving the angles of the mandible. ③ Radyografiler, tipik olarak mandibulanın açılarında çok odacıklı radyolusens alanları gösterir.

      ④ A biopsy will reveal multinucleate giant cells in a fibrous tissue stroma. ④ Biyopside, fibröz doku stromasında çok çekirdekli dev hücreler görülür.

      ⑤ Developing teeth in the affected area tend to be displaced and fail to erupt at the normal time. ⑤ Etkilenen bölgede gelişmekte olan dişler yer değiştirebilir ve normal zamanda sürmeyebilir.

      ⑥ The maxillae can also be affected, as can the ribs. ⑥ Maksillalar ve kaburgalar da etkilenebilir.

      ⑦ The facial swelling reflects the involvement of the underlying bone. ⑦ Yüz şişliği, altta yatan kemiğin etkilenmesini yansıtır.

      ⑧ In some patients the sclera in the lower part of the eyes may be exposed to give the cherubic or heavenward gaze which gives the condition its name. ⑧ Bazı hastalarda gözlerin alt kısmındaki sklera görünür hale gelerek cherubim (melek) bakışı denilen ve hastalığa ismini veren görünüm oluşur.

      ⑨ In some cases there is no discernible facial swelling and the condition is identified as a result of routine radiographic studies such as for orthodontic treatment planning, or because of delayed eruption of teeth. ⑨ Bazı vakalarda belirgin yüz şişliği olmaz, durum ortodontik tedavi planlaması gibi rutin radyografik incelemelerle ya da diş sürme gecikmesi nedeniyle tespit edilir.

      ⑩ The condition progresses into adolescence and then tends to resolve, so that by the third or fourth decade radiographic changes may no longer be found. ⑩ Hastalık ergenlik dönemine kadar ilerler ve sonra genellikle geriler, böylece üçüncü veya dördüncü on yılda radyografik değişiklikler kaybolabilir.

      ⑪ In some families more affected males than females may be identified – this is a result of reduced penetrance in females and needs to be taken into account in genetic counselling. ⑪ Bazı ailelerde, kadınlara göre daha fazla erkek etkilenir – bu, kadınlarda azalmış penetrans sonucu olup genetik danışmanlıkta dikkate alınmalıdır.

      ⑫ A subset of patients with cherubism is more severely affected with the multilocular radiolucencies affecting the whole of the mandible and maxillae. ⑫ Cherubismli bazı hastalar daha şiddetli etkilenir; çok odacıklı radyolusens alanlar mandibula ve maksillanın tamamını tutar.

      ⑬ In mildly affected cases regular review may be all that is necessary, in more severely affected cases surgical reduction may be considered if the patient is distressed by their appearance. ⑬ Hafif vakalarda düzenli takip yeterli olabilir, daha şiddetli vakalarda hasta görünümünden rahatsızsa cerrahi küçültme düşünülebilir.

    8. Cherubism is an autosomal dominant condition. Patients may present in childhood with facialswelling and/or failure of eruption of teeth, typically the mandibular molars. Radiographs willreveal multilocular radiolucencies, typically involving the angles of the mandible. A biopsy willreveal multinucleate giant cells in a fibrous tissue stroma. Developing teeth in the affectedarea tend to be displaced and fail to erupt at the normal time. The maxillae can also beaffected, as can the ribs. The facial swelling reflects the involvement of the underlying bone.In some patients the sclera in the lower part of the eyes may be exposed to give the cherubicor heavenward gaze which gives the condition its name. In some cases there is nodiscernible facial swelling and the condition is identified as a result of routine radiographic

      ① Cherubism is an autosomal dominant condition. ① Cherubism otozomal dominant bir hastalıktır.

      ② Patients may present in childhood with facial swelling and/or failure of eruption of teeth, typically the mandibular molars. ② Hastalar çocuklukta yüz şişliği ve/veya dişlerin (özellikle alt azı dişlerinin) sürmemesi ile başvurabilirler.

      ③ Radiographs will reveal multilocular radiolucencies, typically involving the angles of the mandible. ③ Radyografiler, tipik olarak mandibulanın açılarında çok odacıklı radyolusens alanları gösterir.

      ④ A biopsy will reveal multinucleate giant cells in a fibrous tissue stroma. ④ Biyopside, fibröz doku stromasında çok çekirdekli dev hücreler görülür.

      ⑤ Developing teeth in the affected area tend to be displaced and fail to erupt at the normal time. ⑤ Etkilenen bölgede gelişmekte olan dişler yer değiştirebilir ve normal zamanda sürmeyebilir.

      ⑥ The maxillae can also be affected, as can the ribs. ⑥ Maksillalar ve kaburgalar da etkilenebilir.

      ⑦ The facial swelling reflects the involvement of the underlying bone. ⑦ Yüz şişliği, altta yatan kemiğin etkilenmesini yansıtır.

      ⑧ In some patients the sclera in the lower part of the eyes may be exposed to give the cherubic or heavenward gaze which gives the condition its name. ⑧ Bazı hastalarda gözlerin alt kısmındaki sklera görünür hale gelerek cherubim (melek) bakışı denilen ve hastalığa ismini veren görünüm oluşur.

      ⑨ In some cases there is no discernible facial swelling and the condition is identified as a result of routine radiographic studies such as for orthodontic treatment planning, or because of delayed eruption of teeth. ⑨ Bazı vakalarda belirgin yüz şişliği olmaz, durum ortodontik tedavi planlaması gibi rutin radyografik incelemelerle ya da diş sürme gecikmesi nedeniyle tespit edilir.

      ⑩ The condition progresses into adolescence and then tends to resolve, so that by the third or fourth decade radiographic changes may no longer be found. ⑩ Hastalık ergenlik dönemine kadar ilerler ve sonra genellikle geriler, böylece üçüncü veya dördüncü on yılda radyografik değişiklikler kaybolabilir.

      ⑪ In some families more affected males than females may be identified – this is a result of reduced penetrance in females and needs to be taken into account in genetic counselling. ⑪ Bazı ailelerde, kadınlara göre daha fazla erkek etkilenir – bu, kadınlarda azalmış penetrans sonucu olup genetik danışmanlıkta dikkate alınmalıdır.

      ⑫ A subset of patients with cherubism is more severely affected with the multilocular radiolucencies affecting the whole of the mandible and maxillae. ⑫ Cherubismli bazı hastalar daha şiddetli etkilenir; çok odacıklı radyolusens alanlar mandibula ve maksillanın tamamını tutar.

      ⑬ In mildly affected cases regular review may be all that is necessary, in more severely affected cases surgical reduction may be considered if the patient is distressed by their appearance. ⑬ Hafif vakalarda düzenli takip yeterli olabilir, daha şiddetli vakalarda hasta görünümünden rahatsızsa cerrahi küçültme düşünülebilir.

    9. Joining of two teeth of the normal series or a normal tooth and a supernumerary toothby pulp and dentine. Two canals are usually present. The tooth has arisen from two toothgerms and so the number of teeth in the dentition is normally reduced by oneunit. If, however, the normal tooth is fused to a supernumerary, the number of teethin the arch will be normal. This fusion is assumed to occur between normal andsupernumerary teeth because of the close proximity of the tooth buds

      ① Joining of two teeth of the normal series or a normal tooth and a supernumerary tooth by pulp and dentine. Two canals are usually present. ① Normal diş serisinden iki dişin ya da normal bir diş ile fazla sayıda (süpernümerer) bir dişin pulpa ve dentin aracılığıyla birleşmesi. Genellikle iki kanal bulunur.

      ② The tooth has arisen from two tooth germs and so the number of teeth in the dentition is normally reduced by one unit. ② Diş, iki diş tomurcuğundan gelişmiştir ve bu nedenle diş sayısı genellikle bir adet azalır.

      ③ If, however, the normal tooth is fused to a supernumerary, the number of teeth in the arch will be normal. ③ Ancak, normal diş süpernümerer dişle birleşmişse, çene içindeki diş sayısı normal olur.

      ④ This fusion is assumed to occur between normal and supernumerary teeth because of the close proximity of the tooth buds. ④ Bu füzyonun, diş tomurcuklarının birbirine yakınlığı nedeniyle normal ve süpernümerer dişler arasında gerçekleştiği varsayılır.

    10. Failed or eruption disturbance of permanent tooth.• Routine radiographic survey.• As part of a syndrome such as cleidocranial dysplasia*

      ① Failed eruption or eruption disturbance of permanent tooth may occur. ① Kalıcı dişin çıkmaması veya çıkış bozukluğu meydana gelebilir.

      ② Routine radiographic survey is important to assess such conditions. ② Bu tür durumları değerlendirmek için rutin radyografik inceleme önemlidir.

      ③ Eruption disturbances can also be part of syndromes such as cleidocranial dysplasia. ③ Çıkış bozuklukları, cleidocranial displazi gibi sendromların bir parçası da olabilir.

    11. Supernumerer teeth resembles the real teeth is called SUPPLEMENTAL- If supplemental teeth does not resemble the shape and size of the teeth named asRUDİMENTAL teeth- If supernumerary teeth is at buccal side is termed PARAMOLARS- If supernumerary teeth is at distal side of 3.molar is termed as DİSTOMOLARS/RETROMOLARS.- Surnumerary teeth in the midline are called MESIODENS and 75% remain impacted

      ① Supernumerary teeth that resemble the real teeth are called SUPPLEMENTAL. ① Gerçek dişlere benzeyen fazla dişlere SUPPLEMENTAL (ek diş) denir.

      ② If supplemental teeth do not resemble the shape and size of the teeth, they are named RUDIMENTAL teeth. ② Eğer ek dişler dişlerin şekil ve boyutuna benzemiyorsa, bunlara RUDIMENTAL (körelmiş) dişler denir.

      ③ If supernumerary teeth are on the buccal side, they are termed PARAMOLARS. ③ Fazla dişler yanak (buccal) tarafında ise PARAMOLARS olarak adlandırılır.

      ④ If supernumerary teeth are at the distal side of the 3rd molar, they are termed DISTOMOLARS or RETROMOLARS. ④ Fazla dişler 3. moların distal tarafında ise DISTOMOLARS ya da RETROMOLARS olarak adlandırılır.

      ⑤ Supernumerary teeth in the midline are called MESIODENS, and 75% remain impacted. ⑤ Ortadaki fazla dişlere MESIODENS denir ve %75’i gömülü (impacted) kalır.

    12. In most cases, the single central incisor ismoved to one side of the midline with either creation of space for a prosthodonticreplacement or the adjacent lateral incisors are recontoured.

      ② In most cases, the single central incisor is moved to one side of the midline with either creation of space for a prosthodontic replacement or the adjacent lateral incisors are recontoured. ② Çoğu durumda, tek santral insikor orta hattın bir tarafına kaydırılır; ya protez için yer açılır ya da komşu lateral insikolar yeniden şekillendirilir.

    13. Ectodermal dysplasia describes a group of developmental, often inherited, disordersinvolving the ectodermally derived structures, i.e. the hair, teeth, nails, skin and sweatglands. Teeth can be missing and/or shapes can be aberrant (usually conical) and bothdentitions are involved. In general these patients will show hypodontia or even anodontia. Themost common is the X-linked hypohidrotic form (short arm of X chromosome).

      ① Ectodermal dysplasia describes a group of developmental, often inherited, disorders involving the ectodermally derived structures, i.e. the hair, teeth, nails, skin and sweat glands. ① Ektodermal displazi, genellikle kalıtsal olan ve ektoderm kaynaklı yapıları (yani saç, dişler, tırnaklar, cilt ve ter bezleri) etkileyen bir grup gelişimsel bozukluğu tanımlar.

      ② Teeth can be missing and/or shapes can be aberrant (usually conical) and both dentitions are involved. ② Dişler eksik olabilir ve/veya şekilleri anormal olabilir (genellikle konik şekilli) ve her iki dentisyon da etkilenir.

      ③ In general these patients will show hypodontia or even anodontia. ③ Genel olarak bu hastalar hipodonti veya hatta anodonti gösterebilir.

      ④ The most common is the X-linked hypohidrotic form (short arm of X chromosome). ④ En yaygın olanı X’e bağlı hipohidrotik formdur (X kromozomunun kısa kolu).

    Annotators

    1. Author response:

      Reviewer #1 (Public review):

      Summary:

      The authors use the theory of planned behavior to understand whether or not intentions to use sex as a biological variable (SABV), as well as attitude (value), subjective norm (social pressure), and behavioral control (ability to conduct behavior), across scientists at a pharmacological conference. They also used an intervention (workshop) to determine the value of this workshop in changing perceptions and misconceptions. Attempts to understand the knowledge gaps were made.

      Strengths:

      The use of SABV is limited in terms of researchers using sex in the analysis as a variable of interest in the models (and not a variable to control). To understand how we can improve on the number of researchers examining the data with sex in the analyses, it is vital we understand the pressure points that researchers consider in their work. The authors identify likely culprits in their analyses. The authors also test an intervention (workshop) to address the main bias or impediments for researchers' use of sex in their analyses.

      Weaknesses:

      There are a number of assumptions the authors make that could be revisited:

      (1) that all studies should contain across sex analyses or investigations. It is important to acknowledge that part of the impetus for SABV is to gain more scientific knowledge on females. This will require within sex analyses and dedicated research to uncover how unique characteristics for females can influence physiology and health outcomes. This will only be achieved with the use of female-only studies. The overemphasis on investigations of sex influences limits the work done for women's health, for example, as within-sex analyses are equally important.

      The Sex and Gender Equity in Research (SAGER) guidelines (1) provide guidance that “Where the subjects of research comprise organisms capable of differentiation by sex, the research should be designed and conducted in a way that can reveal sex-related differences in the results, even if these were not initially expected.”. This is a default position of inclusion where the sex can be determined and analysis assessing for sex related variability in response. This position underpins many of the funding bodies new policies on inclusion.

      However, we need to place this in the context of the driver of inclusion. The most common reason for including male and female samples is for those studies that are exploring the effect of a treatment and then the goal of inclusion is to assess the generalisability of the treatment effect (exploratory sex inclusion)(2). The second scenario is where sex is included because sex is one of the variables of interest and this situation will arise because there is a hypothesized sex difference of interest (confirmatory sex inclusion).

      We would argue that the SABV concept was introduced to address the systematic bias of only studying one sex when assessing treatment effect to improve the generalisability of the research. Therefore, it isn’t directly to gain more scientific knowledge on females. However, this strategy will highlight when the effect is very different between male and female subjects which will potentially generate sex specific hypotheses.

      Where research has a hypothesis that is specific to a sex (e.g. it is related to oestrogen levels) it would be appropriate to study only the sex of interest, in this case females. The recently published Sex Inclusive Research Framework gives some guidance here and allows an exemption for such a scenario classifying such proposals “Single sex study justified” (3).

      We plan to add an additional paragraph to the introduction to clarify the objectives behind inclusion and how this assists the research process.

      (2) It should be acknowledged that although the variability within each sex is not different on a number of characteristics (as indicated by meta-analyses in rats and mice), this was not done on all variables, and behavioral variables were not included. In addition, across-sex variability may very well be different, which, in turn, would result in statistical sex significance. In addition, on some measures, there are sex differences in variability, as human males have more variability in grey matter volume than females. PMID: 33044802.

      The manuscript was highlighting the common argument used to exclude the use of females, which is that females are inherently more variable as an absolute truth. We agree there might be situations, where the variance is higher in one sex or another depending on the biology. We will extend the discussion here to reflect this, and we will also link to the Sex Inclusive Research Framework (3) which highlights that in these situations researchers can utlise this argument provided it is supported with data for the biology of interest.

      (3) The authors need to acknowledge that it can be important that the sample size is increased when examining more than one sex. If the sample size is too low for biological research, it will not be possible to determine whether or not a difference exists. Using statistical modelling, researchers have found that depending on the effect size, the sample size does need to increase. It is important to bare this in mind as exploratory analyses with small sample size will be extremely limiting and may also discourage further study in this area (or indeed as seen the literature - an exploratory first study with the use of males and females with limited sample size, only to show there is no "significance" and to justify this as an reason to only use males for the further studies in the work.

      The reviewer raises a common problem: where researchers have frequently argued that if they find no sex differences in a pilot then they can proceed to study only one sex. The SAGER guidelines (1), and now funder guidelines (4, 5), challenge that position. Instead, the expectation is for inclusion as the default in all experiments (exploratory inclusion strategy) to allow generalisable results to be obtained. When the results are very different between the male and female samples, then this can be determined. This perspective shift (2) requires a change in mindset and understanding that the driver behind inclusion is of generalisability not exploration of sex differences. This will be added to the introduction as an additional paragraph exploring the drivers behind inclusion.

      We agree with the reviewer that if the researcher is interested in sex differences in an effect (confirmatory inclusion strategy, aka sex as a primary variable) then the N will need to be higher. However, in this situation, one, of course, must have male and female samples in the same experiment to allow the simultaneous exploration to assess the dependency on sex.

      Reviewer #2 (Public review):

      Summary:

      The investigators tested a workshop intervention to improve knowledge and decrease misconceptions about sex inclusive research. There were important findings that demonstrate the difficulty in changing opinions and knowledge about the importance of studying both males and females. While interventions can improve knowledge and decrease perceived barriers, the impact was small.

      Strengths:

      The investigators included control groups and replicated the study in a second population of scientists. The results appear to be well substantiated. These are valuable findings that have practical implications for fields where sex is included as a biological variable to improve rigor and reproducibility.

      Thank you for assessment and highlighting these strengths. We appreciate your recognition of the value and practical implications of this work.

      Weaknesses:

      I found the figures difficult to understand and would have appreciated more explanation of what is depicted, as well as greater space between the bars representing different categories.

      We plan to review the figures and figure legends to improve clarity of the data.

      Reviewer #3 (Public review):

      Summary:

      This manuscript aims to determine cultural biases and misconceptions in inclusive sex research and evaluate the efficacy of interventions to improve knowledge and shift perceptions to decrease perceived barriers for including both sexes in basic research.

      Overall, this study demonstrates that despite the intention to include both sexes and a general belief in the importance of doing so, relatively few people routinely include both sexes. Further, the perceptions of barriers to doing so are high, including misconceptions surrounding sample size, disaggregation, and variability of females. There was also a substantial number of individuals without the statistical knowledge to appropriately analyze data in studies inclusive of sex. Interventions increased knowledge and decreased perception of barriers. Strengths:

      (1) This manuscript provides evidence for the efficacy of interventions for changing attitudes and perceptions of research.

      (2) This manuscript also provides a training manual for expanding this intervention to broader groups of researchers.

      Thank you for highlighting these strengths. We appreciate your recognition that the intervention was effect in changing attitudes and perception. We deliberately chose to share the material to provide the resources to allow a wider engagement.

      Weaknesses:

      The major weakness here is that the post-workshop assessment is a single time point, soon after the intervention. As this paper shows, intention for these individuals is already high, so does decreasing perception of barriers and increasing knowledge change behavior, and increase the number of studies that include both sexes? Similarly, does the intervention start to shift cultural factors? Do these contribute to a change in behavior?

      Measuring change in behaviour following an intervention is challenging and hence we had implemented an intention score as a proxy for behaviour. We appreciate the benefit of a long-term analysis, but it was beyond the scope of this study and would need a larger dataset size to allow for attrition. We agree that the strategy implemented has weaknesses. We plan to extend the limitation section in the discussion to include these.

      References

      (1) Heidari S, Babor TF, De Castro P, Tort S, Curno M. Sex and Gender Equity in Research: rationale for the SAGER guidelines and recommended use. Res Integr Peer Rev. 2016;1:2.

      (2) Karp NA. Navigating the paradigm shift of sex inclusive preclinical research and lessons learnt. Commun Biol. 2025;8(1):681.

      (3) Karp NA, Berdoy M, Gray K, Hunt L, Jennings M, Kerton A, et al. The Sex Inclusive Research Framework to address sex bias in preclinical research proposals. Nat Commun. 2025;16(1):3763.

      (4) MRC. Sex in experimental design - Guidance on new requirements https://www.ukri.org/councils/mrc/guidance-for-applicants/policies-and-guidance-for-researchers/sex-in-experimental-design/: UK Research and Innovation; 2022

      (5) Clayton JA, Collins FS. Policy: NIH to balance sex in cell and animal studies. Nature. 2014;509(7500):282-3.

    1. Author response:

      Public Reviews:

      Reviewer #1 (Public review):

      Summary:

      This manuscript presents a compelling study identifying RBMX2 as a novel host factor upregulated during Mycobacterium bovis infection.

      The study demonstrates that RBMX2 plays a role in:

      (1) Facilitating M. bovis adhesion, invasion, and survival in epithelial cells.

      (2) Disrupting tight junctions and promoting EMT.

      (3) Contributing to inflammatory responses and possibly predisposing infected tissue to lung cancer development.

      By using a combination of CRISPR-Cas9 library screening, multi-omics, coculture models, and bioinformatics, the authors establish a detailed mechanistic link between M. bovis infection and cancer-related EMT through the p65/MMP-9 signaling axis. Identification of RBMX2 as a bridge between TB infection and EMT is novel.

      Strengths:

      This topic and data are both novel and significant, expanding the understanding of transcriptomic diversity beyond RBM2 in M. bovis responsive functions.

      Weaknesses:

      (1) The abstract and introduction sometimes suggest RBMX2 has protective anti-TB functions, yet results show it facilitates pathogen adhesion and survival. The authors need to rephrase claims to avoid contradiction.

      We sincerely appreciate the reviewer's valuable feedback regarding the need to clarify RBMX2's role throughout the manuscript. We have carefully revised the text to ensure consistent messaging about RBMX2's function in promoting M. bovis infection. Below we detail the specific modifications made:

      (1) Introduction Revisions:

      Changed "The objective of this study was to elucidate the correlation between host genes and the susceptibility of M.bovis infection" to "The objective of this study was to identify host factors that promote susceptibility to M.bovis infection"

      Revised "RBMX2 polyclonal and monoclonal cell lines exhibited favorable phenotypes" to "RBMX2 knockout cell lines showed reduced bacterial survival"

      Replaced "The immune regulatory mechanism of RBMX2" with "The role of RBMX2 in facilitating M.bovis immune evasion"

      (2) Results Revisions:

      Modified "RBMX2 fails to affect cell morphology and the ability to proliferate and promotes M.bovis infection" to "RBMX2 does not alter cell viability but significantly enhances M.bovis infection"

      Strengthened conclusion in Figure 4: "RBMX2 actively disrupts tight junctions to facilitate bacterial invasion"

      (3) Discussion Revisions:

      Revised screening description: "We screened host factors affecting M.bovis susceptibility and identified RBMX2 as a key promoter of infection"

      Strengthened concluding statement: "In summary, RBMX2 drives TB pathogenesis by compromising epithelial barriers and inducing EMT"

      These targeted revisions ensure that:

      All sections consistently present RBMX2 as promoting infection; the language aligns with our experimental finding; potential protective interpretations have been eliminated. We believe these modifications have successfully addressed the reviewer's concern while maintaining the manuscript's original structure and scientific content. We appreciate the opportunity to improve our manuscript and thank the reviewer for this constructive suggestion.

      (2) >While p65/MMP-9 is convincingly implicated, the role of MAPK/p38 and JNK is less clearly resolved.

      We sincerely appreciate the reviewer's insightful comment regarding the roles of MAPK/p38 and JNK in our study. Our experimental data clearly demonstrated that RBMX2 knockout significantly reduced phosphorylation levels of p65, p38, and JNK (Fig. 5A), indicating potential involvement of all three pathways in RBMX2-mediated regulation.

      Through systematic functional validation, we obtained several important findings:

      In pathway inhibition experiments, p65 activation (PMA treatment) showed the most dramatic effects on both tight junction disruption (ZO-1, OCLN reduction) and EMT marker regulation (E-cadherin downregulation, N-cadherin upregulation);

      p38 activation (ML141 treatment) exhibited moderate effects on these processes;

      JNK activation (Anisomycin treatment) displayed minimal impact.

      Most conclusively, siRNA-mediated silencing of p65 alone was sufficient to:

      Restore epithelial barrier function

      Reverse EMT marker expression

      Reduce bacterial adhesion and invasion

      These results establish a clear hierarchy in pathway importance: p65 serves as the primary mediator of RBMX2's effects, while p38 plays a secondary role and JNK appears non-essential under our experimental conditions. We have now clarified this relationship in the revised Discussion section to strengthen this conclusion.

      This refined understanding of pathway hierarchy provides important mechanistic insights while maintaining consistency with all our experimental data. We thank the reviewer for this valuable suggestion that helped improve our manuscript.

      (3) Metabolomics results are interesting but not integrated deeply into the main EMT narrative.

      Thank you for this constructive suggestion. In this article, we detected the metabolome of RBMX2 knockout and wild-type cells after Mycobacterium bovis infection, which mainly served as supporting evidence for our EMT model. However, we did not conduct an in-depth discussion of these findings. We have now added a detailed discussion of this section to further support our EMT model.

      ADD:Meanwhile, metabolic pathways enriched after RBMX2 deletion, such as nucleotide metabolism, nucleotide sugar synthesis, and pentose interconversion, primarily support cell proliferation and migration during EMT by providing energy precursors, regulating glycosylation modifications, and maintaining redox balance; cofactor synthesis and amino sugar metabolism participate in EMT regulation through influencing metabolic remodeling and extracellular matrix interactions; chemokine and cGMP-PKG signaling pathways may further mediate inflammatory responses and cytoskeletal rearrangements, collectively promoting the EMT process.

      (4) A key finding and starting point of this study is the upregulation of RBMX2 upon M. bovis infection. However, the authors have only assessed RBMX2 expression at the mRNA level following infection with M. bovis and BCG. To strengthen this conclusion, it is essential to validate RBMX2 expression at the protein level through techniques such as Western blotting or immunofluorescence. This would significantly enhance the credibility and impact of the study's foundational observation.

      Thank you for your comment. We have supplemented the experiments in this part and found that Mycobacterium bovis infection can significantly enhance the expression level of RBMX2 protein.

      (5) The manuscript would benefit from a more in-depth discussion of the relationship between tuberculosis (TB) and lung cancer. While the study provides experimental evidence suggesting a link via EMT induction, integrating current literature on the epidemiological and mechanistic connections between chronic TB infection and lung tumorigenesis would provide important context and reinforce the translational relevance of the findings.

      We sincerely appreciate the valuable comments from the reviewer. We fully agree with your suggestion to further explore the relationship between tuberculosis (TB) and lung cancer. In the revised manuscript, we will add a new paragraph in the Discussion section to systematically integrate the current literature on the epidemiological and mechanistic links between chronic tuberculosis infection and lung cancer development, including the potential bridging roles of chronic inflammation, tissue damage repair, immune microenvironment remodeling, and the epithelial-mesenchymal transition (EMT) pathway. This addition will help more comprehensively interpret the clinical implications of the observed EMT activation in the context of our study, thereby enhancing the biological plausibility and clinical translational value of our findings.

      ADD:There is growing epidemiological evidence suggesting that chronic TB infection represents a potential risk factor for the development of lung cancer. Studies have shown that individuals with a history of TB exhibit a significantly increased risk of lung cancer, particularly in areas of the lung with pre-existing fibrotic scars, indicating that chronic inflammation, tissue repair, and immune microenvironment remodeling may collectively contribute to malignant transformation 74. Moreover, EMT not only endows epithelial cells with mesenchymal features that enhance migratory and invasive capacity but is also associated with the acquisition of cancer stem cell-like properties and therapeutic resistance 75. Therefore, EMT may serve as a crucial molecular link connecting chronic TB infection with the malignant transformation of lung epithelial cells, warranting further investigation in the intersection of infection and tumorigenesis.

      Reviewer #2 (Public review):

      Summary:

      I am not familiar with cancer biology, so my review mainly focuses on the infection part of the manuscript. Wang et al identified an RNA-binding protein RBMX2 that links the Mycobacterium bovis infection to the epithelial-Mesenchymal transition and lung cancer progression. Upon mycobacterium infection, the expression of RBMX2 was moderately increased in multiple bovine and human cell lines, as well as bovine lung and liver tissues. Using global approaches, including RNA-seq and proteomics, the authors identified differential gene expression caused by the RBMX2 knockout during M. bovis infection. Knockout of RBMX2 led to significant upregulations of tight-junction related genes such as CLDN-5, OCLN, ZO-1, whereas M. bovis infection affects the integrity of epithelial cell tight junctions and inflammatory responses. This study establishes that RBMX2 is an important host factor that modulates the infection process of M. bovis.

      Strengths:

      (1) This study tested multiple types of bovine and human cells, including macrophages, epithelial cells, and clinical tissues at multiple timepoints, and firmly confirmed the induced expression of RBMX2 upon M. bovis infection.

      (2) The authors have generated the monoclonal RBMX2 knockout cell lines and comprehensively characterized the RBMX2-dependent gene expression changes using a combination of global omics approaches. The study has validated the impact of RBMX2 knockout on the tight-junction pathway and on the M. bovis infection, establishing RBMX2 as a crucial host factor.

      Weaknesses:

      (1) The RBMX2 was only moderately induced (less than 2-fold) upon M. bovis infection, arguing its contribution may be small. Its value as a therapeutic target is not justified. How RBMX2 was activated by M. bovis infection was unclear.

      Thank you for your valuable and constructive comments. In this study, we primarily utilized the CRISPR whole-genome screening approach to identify key factors involved in bovine tuberculosis infection. Through four rounds of screening using a whole-genome knockout cell line of bovine lung epithelial cells infected with Mycobacterium bovis, we identified RBMX2 as a critical factor.

      Although the transcriptional level change of RBMX2 was less than two-fold, following the suggestion of Reviewer 1, we examined its expression at the protein level, where the change was more pronounced, and we have added these results to the manuscript.

      Regarding the mechanism by which RBMX2 is activated upon M. bovis infection, we previously screened for interacting proteins using a Mycobacterium tuberculosis secreted and membrane protein library, but unfortunately, we did not identify any direct interacting proteins from M. tuberculosis (https://doi.org/10.1093/nar/gkx1173).

      (2) Although multiple time points have been included in the study, most analyses lack temporal resolution. It is difficult to appreciate the impact/consequence of M. bovis infection on the analyzed pathways and processes.

      We appreciate the valuable comments from the reviewers. Although our study included multiple time points post-infection, in our experimental design we focused on different biological processes and phenotypes at distinct time points:

      During the early phase (e.g., 2 hours post-infection), we focused on barrier phenotypes; during the intermediate phase (e.g., 24 hours post-infection), we concentrated more on pathway activation and EMT phenotypes;

      And during the later phase (e.g., 48–72 hours post-infection), we focused more on cell death phenotypes, which were validated in another FII article (https://doi.org/10.3389/fimmu.2024.1431207).

      We also examined the impact of varying infection durations on RBMX2 knockout EBL cellular lines via GO analysis. At 0 hpi, genes were primarily related to the pathways of cell junctions, extracellular regions, and cell junction organization. At 24 hpi, genes were mainly associated with pathways of the basement membrane, cell adhesion, integrin binding and cell migration By 48 hpi, genes were annotated into epithelial cell differentiation and were negatively regulated during epithelial cell proliferation. This indicated that RBMX2 can regulate cellular connectivity throughout the stages of M. bovis infection.

      For KEGG analysis, genes linked to the MAPK signaling pathway, chemical carcinogen-DNA adducts, and chemical carcinogen-receptor activation were observed at 0 hpi. At 24 hpi, significant enrichment was found in the ECM-receptor interaction, PI3K-Akt signaling pathway, and focal adhesion. Upon enrichment analysis at 48 hpi, significant enrichment was noted in the TGF-beta signaling pathway, transcriptional misregulation in cancer, microRNAs in cancer, small cell lung cancer, and p53 signaling pathway.

      Reviewer #3 (Public review):

      Summary:

      This study investigates the role of the host protein RBMX2 in regulating the response to Mycobacterium bovis infection and its connection to epithelial-mesenchymal transition (EMT), a key pathway in cancer progression. Using bovine and human cell models, the authors have wisely shown that RBMX2 expression is upregulated following M. bovis infection and promotes bacterial adhesion, invasion, and survival by disrupting epithelial tight junctions via the p65/MMP-9 signaling pathway. They also demonstrate that RBMX2 facilitates EMT and is overexpressed in human lung cancers, suggesting a potential link between chronic infection and tumor progression. The study highlights RBMX2 as a novel host factor that could serve as a therapeutic target for both TB pathogenesis and infection-related cancer risk.

      Strengths:

      The major strengths lie in its multi-omics integration (transcriptomics, proteomics, metabolomics) to map RBMX2's impact on host pathways, combined with rigorous functional assays (knockout/knockdown, adhesion/invasion, barrier tests) that establish causality through the p65/MMP-9 axis. Validation across bovine and human cell models and in clinical tissue samples enhances translational relevance. Finally, identifying RBMX2 as a novel regulator linking mycobacterial infection to EMT and cancer progression opens exciting therapeutic avenues.

      Weaknesses:

      Although it's a solid study, there are a few weaknesses noted below.

      (1) In the transcriptomics analysis, the authors performed (GO/KEGG) to explore biological functions. Did they perform the search locally or globally? If the search was performed with a global reference, then I would recommend doing a local search. That would give more relevant results. What is the logic behind highlighting some of the enriched pathways (in red), and how are they relevant to the current study?

      We appreciate the reviewer's thoughtful questions regarding our transcriptomic analysis. In this study, we employed a localized enrichment approach focusing specifically on gene expression profiles from our bovine lung epithelial cell system. This cell-type-specific analysis provides more biologically relevant results than global database searches alone.

      Regarding the highlighted pathways, these represent:

      (1) Temporally significant pathways showing strongest enrichment at each stage:

      • 0h: Cell junction organization (immediate barrier response)

      • 24h: ECM-receptor interaction (early EMT initiation)

      • 48h: TGF-β signaling (chronic remodeling)

      (2) Mechanistically linked to our core findings about RBMX2's role in:

      • Epithelial barrier disruption

      • Mesenchymal transition

      • Chronic infection outcomes

      We selected these particular pathways because they:

      (1) Showed the most statistically significant changes (FDR <0.001)

      (2) Formed a coherent biological narrative across infection stages

      (3) Were independently validated in our functional assays

      This targeted approach allows us to focus on the most infection-relevant pathways while maintaining statistical rigor.

      (2) While the authors show that RBMX2 expression correlates with EMT-related gene expression and barrier dysfunction, the evidence for direct association remains limited in this study. How does RBMX2 activate p65? Does it bind directly to p65 or modulate any upstream kinases? Could ChIP-seq or CLIP-seq provide further evidence for direct RNA or DNA targets of RBMX2 that drive EMT or NF-κB signaling?

      We sincerely appreciate the reviewer's in-depth questions regarding the mechanisms by which RBMX2 activates p65 and its association with EMT. Although the molecular mechanism remains to be fully elucidated, our study has provided experimental evidence supporting a direct regulatory relationship between RBMX2 and the p65 subunit of the NF-κB pathway. Specifically, we investigated whether the transcription factor p65 could directly bind to the promoter region of RBMX2 using CHIP experiments. The results demonstrated that the transcription factor p65 can physically bind to the RBMX2 region.

      Furthermore, dual-luciferase reporter assays were conducted, showing that p65 significantly enhances the transcriptional activity of the RBMX2 promoter, indicating a direct regulatory effect of RBMX2 on p65 expression.

      These findings support our hypothesis that RBMX2 activates the NF-κB signaling pathway through direct interaction with the p65 protein, thereby participating in the regulation of EMT progression and barrier function.

      In our subsequent work papers, we will also employ experiments such as CLIP to further investigate the specific mechanisms through which RBMX2 exerts its regulatory functions.

      (3) The manuscript suggests that RBMX2 enhances adhesion/invasion of several bacterial species (e.g., E. coli, Salmonella), not just M. bovis. This raises questions about the specificity of RBMX2's role in Mycobacterium-specific pathogenesis. Is RBMX2 a general epithelial barrier regulator or does it exhibit preferential effects in mycobacterial infection contexts? How does this generality affect its potential as a TB-specific therapeutic target?

      Thank you for your valuable comments. When we initially designed this experiment, we were interested in whether the RBMX2 knockout cell line could confer effective resistance not only against Mycobacterium bovis but also against Gram-negative and Gram-positive bacteria. Surprisingly, we indeed observed resistance to the invasion of these pathogens, albeit weaker compared to that against Mycobacterium bovis.

      Nevertheless, we believe these findings merit publication in eLife. Moreover, RBMX2 knockout does not affect the phenotype of epithelial barrier disruption under normal conditions; its significant regulatory effect on barrier function is only evident upon infection with Mycobacterium bovis.

      Importantly, during our genome-wide knockout library screening, RBMX2 was not identified in the screening models for Salmonella or Escherichia coli, but was consistently detected across multiple rounds of screening in the Mycobacterium bovis model.

      (4) The quality of the figures is very poor. High-resolution images should be provided.

      Thank you for your feedback; we provided higher-resolution images.

      (5) The methods are not very descriptive, particularly the omics section.

      Thank you for your comments; we have revised the description of the sequencing section.

      (6) The manuscript is too dense, with extensive multi-omics data (transcriptomics, proteomics, metabolomics) but relatively little mechanistic integration. The authors should have focused on the key mechanistic pathways in the figures. Improving the narratives in the Results and Discussion section could help readers follow the logic of the experimental design and conclusions.

      Thank you for your valuable comments. We have streamlined the figures and revised the description of the results section accordingly.

    1. Author response:

      Public Reviews:

      Reviewer #1 (Public review):

      Summary:

      In this interesting and original paper, the authors examine the effect that heat stress can have on the ability of bacterial cells to evade infection by lytic bacteriophages. Briefly, the authors show that heat stress increases the tolerance of Klebsiella pneumoniae to infection by the lytic phage Kp11. They also argue that this increased tolerance facilitates the evolution of genetically encoded resistance to the phage. In addition, they show that heat can reduce the efficacy of phage therapy. Moreover, they define a likely mechanistic reason for both tolerance and genetically encoded resistance. Both lead to a reorganization of the bacterial cell envelope, which reduces the likelihood that phage can successfully inject their DNA.

      Strengths:

      I found large parts of this paper well-written and clearly presented. I also found many of the experiments simple yet compelling. For example, the experiments described in Figure 3 clearly show that prior heat exposure can affect the efficacy of phage therapy. In addition, the experiments shown in Figures 4 and 6 clearly demonstrate the likely mechanistic cause of this effect. The conceptual Figure 7 is clear and illustrates the main ideas well. I think this paper would work even without its central claim, namely that tolerance facilitates the evolution of resistance. The reason is that the effect of environmental stressors on stress tolerance has to my knowledge so far only been shown for drug tolerance, not for tolerance to an antagonistic species.

      Weaknesses:

      I did not detect any weaknesses that would require a major reorganization of the paper, or that may require crucial new experiments. However, the paper needs some work in clarifying specific and central conclusions that the authors draw. More specifically, it needs to improve the connection between what is shown in some figures, how these figures are described in the caption, and how they are discussed in the main text. This is especially glaring with respect to the central claim of the paper from the title, namely that tolerance facilitates the evolution of resistance. I am sympathetic to that claim, especially because this has been shown elsewhere, not for phage resistance but for antibiotic resistance. However, in the description of the results, this is perhaps the weakest aspect of the paper, so I'm a bit mystified as to why the authors focus on this claim. As I mentioned above, the paper could stand on its own even without this claim.

      Thank you for your feedback. We understand your concern regarding the central claim that tolerance facilitates the evolution of resistance, while the paper can stand on its own without this claim, we think it provides an important layer to the interpretation of our findings. Considering your comments, we plan to revise the title and adjust to “Heat Stress Induces Phage Tolerance in Bacteria”.

      More specific examples where clarification is needed:

      (1) A key figure of the paper seems to be Figure 2D, yet it was one of the most confusing figures. This results from a mismatch between the accompanying text starting on line 92 and the figure itself. The first thing that the reader notices in the figure itself is the huge discrepancy between the number of viable colonies in the absence of phage infection at the two-hour time point. Yet this observation is not even mentioned in the main text. The exclusive focus of the main text seems to be on the right-hand side of the figure, labeled "+Phage". It is from this right-hand panel that the authors seem to conclude that heat stress facilitates the evolution of resistance. I find this confusing, because there is no difference between the heat-treated and non-treated cells in survivorship, and it is not clear from this data that survivorship is caused by resistance, not by tolerance/persistence. (The difference between tolerance and resistance has only been shown in the independent experiments of Figure 1B.)

      Thank you for your helpful comment. Figure 2d presents colony counts from a plating assay following the phage killing experiment in Figure 2c. Bacteria collected after 0 and 2 hours of phage exposure were plated on both phage-free (−phage) and phage-containing (+phage) plates. The “−phage” condition reflects total survivors, while the “+phage” condition indicates the resistant subset.

      As seen in Figure 2d (left part), heat-treated bacteria showed markedly higher survival on phage-free plates than untreated cells, which were largely eliminated by phage. However, resistant colony counts on phage-containing plates were similar between two groups (as shown in figure 2d right part), suggesting that heat stress increased survival but did not promote resistance.

      To clarify, we have revised the labels in Figure 2d as follows: “Total” will replace “-phage” to indicate the total survivors from the phage killing assay, and “Resisters” will replace “+phage” to indicate the resistant survivors, which are detected on phage-containing plates. This adjustment should eliminate any confusion and better reflect the experimental design.

      Figure 2F supports the resistance claim, but it is not one of the strongest experiments of the paper, because the author simply only used "turbidity" as an indicator of resistance. In addition, the authors performed the experiments described therein at small population sizes to avoid the presence of resistance mutations. But how do we know that the turbidity they describe does not result from persisters?

      I see three possibilities to address these issues. First, perhaps this is all a matter of explaining and motivating this particular experiment better. Second, the central claim of the paper may require additional experiments. For example, is it possible to block heat induced tolerance through specific mutations, and show that phage resistance does not evolve as rapidly if tolerance is blocked? A third possibility is to tone down the claim of the paper and make it about heat tolerance rather than the evolution of heat resistance.

      Thank you for your thoughtful comment. We appreciate the opportunity to clarify the interpretation of Figure 2f and the rationale behind the experimental design. We agree that turbidity alone cannot fully distinguish resistance from persistence. However, our earlier experiments (Figures 2d and 2e) demonstrated that heat-treated survivors remained largely susceptible to phage, indicating that heat stress does not directly induce resistance. This led us to hypothesize that heat enhances phage tolerance, which in turn increases the likelihood of resistance emergence during subsequent infection.

      To test this, we used a low initial bacterial population (~10³ CFU per well) to minimize the chance of pre-existing resistance. Bacteria were exposed to phages at MOIs of 1, 10, and 100 and incubated for 24 hours in 100 µL volumes. This setup ensured:

      (1) The low initial population minimizes the presence of pre-existing resistant mutants, ensuring that any phage-resistant bacteria observed arise during the infection process.

      (2) The high MOI (≥ 1) ensures that each bacterial cell has a high probability of infection by at least one phage.

      (3) The small volume (100 µL per well) maximizes the interaction between bacteria and phages, ensuring rapid infection of susceptible bacteria, which leads to clear wells. If resistant mutants arise, they will grow and cause turbidity.

      Thus, the turbidity observed in heat-treated samples reflects de novo emergence and outgrowth of resistant mutants from a tolerant population. This assay supports the idea that heat-induced tolerance increases the probability of resistance evolution, rather than directly causing resistance.

      We have revised the text to better explain this experimental logic and adjust the framing of our conclusions accordingly.

      A minor but general point here is that in Figure 2D and in other figures, the labels "-phage" and "+phage" do not facilitate understanding, because they suggest that cells in the "-phage" treatment have not been exposed to phage at all, but that is not the case. They have survived previous phage treatment and are then replated on media lacking phage.

      Thank you for your valuable comment. To clarify, we have revised the labels in Figure 2d as follows: “Total” will replace “-phage” to indicate the total survivors from the phage killing assay, and “Resisters” will replace “+phage” to indicate the resistant survivors, which are detected on phage-containing plates.

      (2) Another figure with a mismatch between text and visual materials is Figure 5, specifically Figures 5B-F. The figure is about two different mutants, and it is not even mentioned in the text how these mutants were identified, for example in different or the same replicate populations. What is more, the two mutants are not discussed at all in the main text. That is, the text, starting on line 221 discusses these experiments as if there was only one mutant. This is especially striking as the two mutants behave very differently, as, for example, in Figure 5C. Implicitly, the text talks about the mutant ending in "...C2", and not the one ending in "...C1". To add to the confusion, the text states that the (C2) mutant shows a change in the pspA gene, but in Figure 5f, it is the other (undiscussed) mutant that has a mutation in this gene. Only pspA is discussed further, so what about the other mutants? More generally, it is hard to believe that these were the only mutants that occurred in the genome during experimental evolution. It would be useful to give the reader a 2-3 sentence summary of the genetic diversity that experimental evolution generated.

      Thank you for your thoughtful comment. In our heat treatment evolutionary experiment, we isolated six distinct bacterial clones, of which two are highlighted in the manuscript as representative examples. One clone, BC2G11C1, acquired both heat tolerance and phage resistance, while another clone, BC3G11C2, became heat-tolerant but did not develop resistance to phage infection. This variation highlights the inherent diversity in evolutionary responses when exposed to selective pressures. It demonstrates that not all evolutionary pathways lead to the same outcome, even under similar stress conditions. This variability is a key observation in our study, illustrating that different genetic adaptations may arise depending on the specific mutations or genetic context, and not every strain will evolve phage resistance in parallel with heat tolerance. We have updated the manuscript to better reflect this diversity in the evolutionary trajectories observed.

      Reviewer #2 (Public review):

      Summary:

      An initial screening of pretreatment with different stress treatments of K. pneumoniae allowed the identification of heat stress as a protection factor against the infection of the lytic phage Kp11. Then experiments prove that this is mediated not by an increase of phage-resistant bacteria but due to an increase in phage transient tolerant population, which the authors identified as bacteriophage persistence in analogy to antibiotic persistence. Then they proved that phage persistence mediated by heat shock enhanced the evolution of bacterial resistance against the phage. The same trait was observed using other lytic phages, their combinations, and two clinical strains, as well as E. coli and two T phages, hence the phenomenon may be widespread in enterobacteria.

      Next, the elucidation of heat-induced phage persistence was done, determining that phage adsorption was not affected but phage DNA internalization was impaired by the heat pretreatment, likely due to alterations in the bacterial envelope, including the downregulation of envelope proteins and of LPS; furthermore, heat treated bacteria were less sensitive to polymyxins due to the decrease in LPS.

      Finally, cyclic exposure to heat stress allowed the isolation of a mutant that was both resistant to heat treatment, polymyxins, and lytic phage, that mutant had alterations in PspA protein that allowed a gain of function and that promoted the reduction of capsule production and loss of its structure; nevertheless this mutant was severely impaired in immune evasion as it was easily cleared from mice blood, evidencing the tradeoffs between phage/heat and antibiotic resistance and the ability to counteract the immune response.

      Strengths:

      The experimental design and the sequence in which they are presented are ideal for the understanding of their study and the conclusions are supported by the findings, also the discussion points out the relevance of their work particularly in the effectiveness of phage therapy and allows the design of strategies to improve their effectiveness.

      Weaknesses:

      In its present form, it lacks the incorporation of some relevant previous work that explored the role of heat stress in phage susceptibility, antibiotic susceptibility, tradeoffs between phage resistance and resistance against other kinds of stress, virulence, etc., and the fact that exposure to lytic phages induces antibiotic persistence.

      Thank you for your insightful comments. I appreciate your suggestion regarding the inclusion of relevant previous works. I have now incorporated additional citations to discuss these points, including studies on the relationship between heat stress and antibiotic resistance, as well as the tradeoffs between phage resistance and other stress factors.

      Reviewer #3 (Public review):

      PspA, a key regulator in the phage shock protein system, functions as part of the envelope stress response system in bacteria, preventing membrane depolarization and ensuring the envelope stability. This protein has been associated in the Quorum Sensing network and biofilm formation. (Moscoso M., Garcia E., Lopez R. 2006. Biofilm formation by Streptococcus pneumoniae: role of choline, extracellular DNA, and capsular polysaccharide in microbial accretion. J. Bacteriol. 188:7785-7795; Vidal JE, Ludewick HP, Kunkel RM, Zähner D, Klugman KP. The LuxS-dependent quorum-sensing system regulates early biofilm formation by Streptococcus pneumoniae strain D39. Infect Immun. 2011 Oct;79(10):4050-60.)

      It is interesting and very well-developed.

      (1) Could the authors develop experiments about the relationship between Quorum Sensing and this protein?

      (2) It would be interesting to analyze the link to phage infection and heat stress in relation to Quorum. The authors could study QS regulators or AI2 molecules.

      Thank you for your insightful comments and for bringing up the role of PspA in quorum sensing and biofilm formation. However, we would like to clarify a potential misunderstanding: the PspA discussed in our manuscript refers to phage-shock protein A, a key regulator in the bacterial envelope stress response system. This is distinct from the pneumococcal surface protein A, which has been associated with quorum sensing and biofilm formation in Streptococcus pneumoniae (as referenced in your comment).

      To avoid any confusion for readers, we will ensure that our manuscript explicitly states “phage-shock protein A (PspA)” at its first mention. We appreciate your feedback and hope this clarification addresses your concern.

      (3) Include the proteins or genes in a table or figure from lytic phage Kp11 (GenBank: ON148528.1).

      Thank you for your helpful suggestion. We have now included a figure, as appropriate summarizing the proteins of the lytic phage Kp11 (GenBank: ON148528.1) in supplementary Figure S1.

      Recommendations for the authors:

      Reviewer #1 (Recommendations for the authors):

      Issues unrelated to those discussed in the public review

      (1) Figure 4a and its caption describe an evolution experiment, but they do not mention how many cycles of high-temperature treatment and growth this experiment lasted. I assume it lasted for more than one cycle, because the methods section mentions "cycles", but the number is not provided.

      Thank you for pointing this out. The evolutionary experiment shown in Figure 5a involved 11 cycles of high-temperature treatment and growth. We have now explicitly stated this in the figure legend to ensure clarity: BC: Batch culture, G: Evolution cycle number, C: Colony. BC2G11C1 refers to the first colony from batvh culture 2 after 11 rounds of heat treatment.

      (2) It is not clear what Figure 5F is supposed to show. What are the gray boxes? The caption claims that the figure shows non-synonymous mutations, but the only information it contains is about genes that seem to be affected by mutation. Judging from the mismatch between the main text and the figure, the mutants with these mutations may actually be mislabeled.

      Thank you for your careful review. Figure 5f highlights the non-synonymous mutations identified in the evolved strains. The gray boxes represent the ancestral strain’s whole genome without mutations, serving as a control. The corresponding labels indicate the specific mutations found in each evolved strain. We have clarified this in the figure caption to improve clarity. Additionally, we have carefully reviewed the labeling to ensure accuracy and consistency between the figure, main text, and sequencing data.

      (3) I think that the acronym NC, which is used in just about every figure, is explained nowhere in the paper. Spell out all acronyms at first use.

      Thank you for pointing this out. We have rivewed ensure that NC is clearly defined at its first mention in the text and figure legends to improve clarity. Additionally, we have reviewed the manuscript to ensure that all acronyms are properly introduced when first used.

      (4) The same holds for the acronym N.D. This is an especially important oversight because N.D. could mean "not determined" or "not detectable", which would lead to very different interpretations of the same figure.

      Thank you for your careful review. We have clarified the meaning of N.D., which stands for non-detectable, at its first use to avoid ambiguity and ensure accurate interpretation in the figure legend. Additionally, we have reviewed the manuscript to ensure that all acronyms are clearly defined.

      (5) The panel labels (a,b, etc.) in all figure captions are very difficult to distinguish from the rest of the text, and should be better highlighted, for example by using a bold font. However, this is a matter of journal style and will probably be fixed during typesetting.

      Thank you for your suggestion. We have adjusted the figure captions to better distinguish panel labels, such as using bold font, to improve readability and final formatting will follow the journal’s style during typesetting.

      (6) Line 224: enhanced insusceptibility -> reduced susceptibility.

      Thank you for your suggestion. We have revised “enhanced insusceptibility” to “reduced susceptibility” for clarity and precision.

      (7) Line 259: mice -> mouse.

      Thank you for catching this. We have corrected “mice” to “mouse”.

      Reviewer #2 (Recommendations for the authors):

      I have no concerns about the experimental design and conclusions of your work; however, I strongly recommend incorporating several relevant pieces of the literature related to your work, in the discussion of your manuscript, specifically:

      (1) Previous studies about the role of heat stress in phage infections, see:

      Greenrod STE, Cazares D, Johnson S, Hector TE, Stevens EJ, MacLean RC, King KC. Warming alters life-history traits and competition in a phage community. Appl Environ Microbiol. 2024 May 21;90(5):e0028624. doi: 10.1128/aem.00286-24. Epub 2024 Apr 16. PMID: 38624196; PMCID: PMC11107170.

      Thank you for your thoughtful comment. We have ensured to incorporate the study by Greenrod et al. (2024) into the discussion to enrich the context of our findings. As this article pointed out, a temperature of 42°C can indeed limit phage infection in bacteria, acting as a barrier from the phage’s perspective. Our study builds on this by demonstrating that bacteria pre-treated with high temperatures exhibit tolerance to phage infection. These findings, together with the work you referenced, underscore the importance of heat stress or elevated temperature in host-phage interactions, with 42°C being particularly relevant in the context of fever. We will make sure to clarify this connection in our revised manuscript.

      (2) The effect of heat stress and the tolerance/resistance against other antibiotics besides polymyxins, see:

      Lv B, Huang X, Lijia C, Ma Y, Bian M, Li Z, Duan J, Zhou F, Yang B, Qie X, Song Y, Wood TK, Fu X. Heat shock potentiates aminoglycosides against gram-negative bacteria by enhancing antibiotic uptake, protein aggregation, and ROS. Proc Natl Acad Sci U S A. 2023 Mar 21;120(12):e2217254120. doi: 10.1073/pnas.2217254120. Epub 2023 Mar 14. PMID: 36917671; PMCID: PMC10041086.

      Thank you for bringing this study to our attention. We have incorporated the findings from Lv et al. (2023) into the discussion of our manuscript, highlighting how sublethal temperatures may facilitate the killing of bacteria by antibiotics like kanamycin. This is consistent with our data showing enhanced susceptibility of heat-shocked bacteria to kanamycin. The study also provides insights into the potential role of PMF, which is relevant to our work on PspA, and strengthens the broader context of heat stress influencing both antibiotic resistance and tolerance.

      (3) Perhaps the most relevant overlooked fact was that recently it was demonstrated for E. coli, Klebsiella and Pseudomonas that pretreatment with lytic phages induced antibiotic persistence! Please discuss this finding and its implications for your work, see:

      Fernández-García L, Kirigo J, Huelgas-Méndez D, Benedik MJ, Tomás M, García-Contreras R, Wood TK. Phages produce persisters. Microb Biotechnol. 2024 Aug;17(8):e14543. doi: 10.1111/1751-7915.14543. PMID: 39096350; PMCID: PMC11297538.

      Sanchez-Torres V, Kirigo J, Wood TK. Implications of lytic phage infections inducing persistence. Curr Opin Microbiol. 2024 Jun;79:102482. doi: 10.1016/j.mib.2024.102482. Epub 2024 May 6. PMID: 38714140.

      Thank you for suggesting this important reference. We agree that the phenomenon of phage-induced bacterial persistence is highly relevant to our study. While our manuscript focuses on the role of heat stress in bacterial tolerance and resistance, we acknowledge that bacterial persistence against phages is an established concept. We have incorporated this finding into our discussion, emphasizing how persistence and tolerance can overlap in their effects on bacterial survival, especially under stress conditions like heat treatment. This will provide a more comprehensive understanding of how phage interactions with bacteria can lead to both persistence and resistance.

      (4) Finally, you observed a tradeoff pf the pspA* mutant increased phage/heat/polymyxin resistance and decreased immune evasion (perhaps by being unable to counteract phagocytosis), those tradeoffs between gaining phage resistance but losing resistance to the immune system, virulence impairment and resistance against some antibiotics had been extensively documented, see:

      Majkowska-Skrobek G, Markwitz P, Sosnowska E, Lood C, Lavigne R, Drulis-Kawa Z. The evolutionary trade-offs in phage-resistant Klebsiella pneumoniae entail cross-phage sensitization and loss of multidrug resistance. Environ Microbiol. 2021 Dec;23(12):7723-7740. doi: 10.1111/1462-2920.15476. Epub 2021 Mar 27. PMID: 33754440.

      Gordillo Altamirano F, Forsyth JH, Patwa R, Kostoulias X, Trim M, Subedi D, Archer SK, Morris FC, Oliveira C, Kielty L, Korneev D, O'Bryan MK, Lithgow TJ, Peleg AY, Barr JJ. Bacteriophage-resistant Acinetobacter baumannii are resensitized to antimicrobials. Nat Microbiol. 2021 Feb;6(2):157-161. doi: 10.1038/s41564-020-00830-7. Epub 2021 Jan 11. PMID: 33432151.

      García-Cruz JC, Rebollar-Juarez X, Limones-Martinez A, Santos-Lopez CS, Toya S, Maeda T, Ceapă CD, Blasco L, Tomás M, Díaz-Velásquez CE, Vaca-Paniagua F, Díaz-Guerrero M, Cazares D, Cazares A, Hernández-Durán M, López-Jácome LE, Franco-Cendejas R, Husain FM, Khan A, Arshad M, Morales-Espinosa R, Fernández-Presas AM, Cadet F, Wood TK, García-Contreras R. Resistance against two lytic phage variants attenuates virulence and antibiotic resistance in Pseudomonas aeruginosa. Front Cell Infect Microbiol. 2024 Jan 17;13:1280265. doi: 10.3389/fcimb.2023.1280265. Erratum in: Front Cell Infect Microbiol. 2024 Mar 06;14:1391783. doi: 10.3389/fcimb.2024.1391783. PMID: 38298921; PMCID: PMC10828002.

      Thank you for highlighting these important studies. We have incorporated the work by Majkowska-Skrobek et al. (2021), Gordillo Altamirano et al. (2021), and García-Cruz et al. (2024) into the discussion to provide further context to the evolutionary trade-offs observed in our study. The findings in these studies, which describe the cross-sensitization to antimicrobials and the loss of multidrug resistance in phage-resistant bacteria, align with our observations of trade-offs in the pspA mutant. Specifically, our results show that while the pspA mutant exhibits increased resistance to phage, heat, and polymyxins, it also experiences a decrease in immune evasion and potential virulence. These trade-offs are significant in understanding the broader consequences of developing resistance to phages and other stressors.

    1. Note de synthèse : L'emprise psychotique et la Folie à Deux

      Ce document explore la notion d'emprise psychotique, en se basant sur la « Folie à Deux » comme modèle principal, et la distingue de l'emprise perverse classique.

      La présentation met en lumière les mécanismes, les typologies, les implications médico-légales et les dynamiques relationnelles sous-jacentes à ce phénomène complexe.

      1. Introduction à la Folie à Deux (Folie A2) et son lien avec l'emprise

      La Folie à Deux est une entité clinique décrite initialement par Lasègue et Falret en 1877.

      Elle se caractérise par le développement d'idées délirantes chez un « patient secondaire » sous l'influence d'un « patient primaire » déjà délirant. Les conditions nécessaires incluent une relation étroite et isolée des influences extérieures.

      • Exemple clinique : L'histoire de Sarah et Chloé L'exemple introductif illustre la dynamique de la Folie à Deux : Sarah, une mère anxieuse et contrôlante, et sa fille Chloé, souffrant de pathologies qui renforcent les défenses obsessionnelles de la mère.

      Leur relation fusionnelle et isolée conduit au développement d'un délire de persécution et de spoliation centré sur une tante.

      Initialement, la mère tente de raisonner sa fille, mais face à la violence de Chloé et à leur isolement, elle finit par céder et adhérer aux idées délirantes de sa fille. Cette adhésion conduit à un passage à l'acte violent envers la tante, entraînant leur hospitalisation.

      À la séparation, la mère se restaure rapidement, devenant critique des événements, tandis que la fille met plus de temps à se rétablir.

      Ce cas met en évidence l'influence du patient primaire (la fille) sur le patient secondaire (la mère) dans un contexte d'isolement et de pression.

      2. Typologies de la Folie à Deux L'analyse proposée distingue deux types principaux de Folie à Deux :

      • Folie à Deux Imposée (de Lasègue et Falret) :
      • Le patient primaire est actif dans le délire, et le patient secondaire est plus passif, délirant "par reflet" ou "sous la pression".
      • À la séparation, le patient secondaire retrouve rapidement son état antérieur et sa capacité critique.

      • Ceci est considéré comme une emprise psychotique incomplète, car les effets de la pathologie ne sont pas durables chez le sujet secondaire une fois la relation rompue.

      Folie à Deux Communiquée (de Marandon de Montyel) :

      • Le patient secondaire est un sujet prédisposé qui développe une maladie psychiatrique au contact du sujet délirant.
      • Les troubles persistent même après la séparation.
      • Ceci est considéré comme une emprise psychotique complète, car elle aboutit à un second sujet primaire capable de "contaminer" d'autres individus.

      3. Mécanismes psychopathologiques de la Folie à Deux Deux mécanismes principaux expliquent la dynamique et le maintien de la relation dans la Folie à Deux :

      • Projection de l'hostilité :
      • Dans l'exemple de Sarah et Chloé, l'hostilité de Chloé envers sa mère (due à l'incapacité de s'émanciper) ne peut s'exprimer directement.

      Elle est alors projetée sur un objet externe à la relation (la tante), ce qui permet de maintenir la dyade mère-fille et d'apaiser les tensions internes.

      • L'acceptation du mécanisme projectif par le patient secondaire est cruciale ; toute résistance entraîne une augmentation de l'agressivité et de la violence.

      • "L'acceptation du délire apaise en fait a permis qu'il y ait au final plus de plus d'épisodes de violence dans la relation puisque toute la violence était redirigée à l'extérieur."

      • Identification à l'ennemi (ou à l'agresseur) :

      • Inspiré des travaux de Freud et Ferenczi sur l'identification à l'agresseur (notamment chez les enfants victimes d'abus).

      • Il s'agit d'adopter le point de vue de l'agresseur, d'introjecter sa culpabilité ou d'anticiper ses besoins, dans le but d'apaiser l'agresseur et de se sauvegarder physiquement et psychiquement.

      • Dans la Folie à Deux, l'acceptation du délire par le patient secondaire apaise les violences (physiques) dans la relation, la violence étant redirigée vers l'extérieur du couple.

      4. L'emprise psychotique en miroir avec l'emprise classique (perverse)

      L'emprise psychotique est conceptualisée comme une forme spécifique d'emprise, distincte mais comparable à l'emprise perverse classique.

      Points communs de l'emprise (générique) :

      • Relation asymétrique : Un sujet réduit au statut d'objet, dont l'espace psychique est occupé par l'autre.

      • Déni d'altérité et de critique : L'accès à la critique est impossible ; l'objectif est une fusion totale et l'adhésion aux idées de l'autre.

      • Phases de captation et de domination : L'appropriation de l'autre se fait par séduction/fascination, suivie d'une phase de conditionnement par manipulation (verbale, physique), l'alternance séduction-agression étant au cœur de ce processus.

      • Séquelles durables : La victime peut avoir des difficultés à s'extraire de la dynamique et des séquelles à long terme dans ses interactions futures.

      • Distinction entre Emprise Perverse (Dracula) et Emprise Psychotique (Don Quichotte) :

      • CaractéristiqueEmprise Perverse (Dracula)Emprise Psychotique (Don Quichotte)Objectif /

      MotivationSiphonnement du narcissisme du partenaire ("se nourrit du sang de ses victimes"), jouissance perverse.Décollage de la réalité, sortie de la réalité.

      Le sujet n'est pas motivé par la jouissance de l'autre mais par la maladie elle-même qui guide le voyage pathologique et les interactions.

      Mécanisme sous-jacentMet en place des mécanismes proactifs pour produire ses effets, vise à combler des angoisses narcissiques.

      La maladie guide le "voyage pathologique" et les interactions. Les angoisses sont plus archaïques, des angoisses de "néantisation" très précoces dans le développement psychique.

      Nature de la contrainteLe sujet "pervers" met volontairement l'autre sous emprise pour se nourrir narcissiquement.

      Le patient primaire psychotique met l'autre sous emprise "sous l'effet de la maladie", enfermé dans une bulle délirante.DynamiqueAlternance séduction-agression volontaire pour le conditionnement.

      "L'exposition des mécanismes" (en thérapie) peut aider à s'en prémunir.Alternance fusion (adhésion du secondaire au délire) et agression (résistance du secondaire) ; vise une fusion complète. Mécanisme de projection d'hostilité.

      L'enjeu pour la victime est la menace de basculer complètement dans la folie du primaire.Implications médico-légalesLa victime est sous contrainte morale mais n'est pas "délirante" elle-même.

      Peut être irresponsable pénalement selon la "contrainte irrésistible" (article 122 du code pénal).

      Si passage à l'acte, l'acte peut être imputé au délire si les deux sujets agissent dans ce cadre.

      Le discernement peut être aboli (article 121 du code pénal), ce qui peut mener à une irresponsabilité pénale des deux sujets.Définition de l'emprise psychotique :

      C'est "une relation asymétrique où le sujet primaire psychotique met sous emprise un sujet secondaire dans des conditions d'isolement prolongé avec un déni d'altérité (comme dans l'emprise perverse) mais un déni plus global de réalité qui va se mettre en place, une volonté de fusion et d'adhésion au délire du partenaire dirigé par la maladie, une montée de l'agressivité dans les résistances abaissée par les mécanismes projectifs et une angoisse plus archaïque de néantisation chez les sujets."

      5. Implications Médico-Légales

      • Folie à Deux Imposée (emprise psychotique incomplète) : Le patient secondaire n'est pas malade au sens psychiatrique mais agit sous une contrainte morale irrésistible.

      L'article 122 du code pénal sur l'absence de responsabilité en cas de contrainte peut s'appliquer.

      Un arrêt de la Cour d'appel de Rennes (2017) concernant la compagne d'un gourou sectaire illustre cette situation : la séparation a suffi à mettre fin au délire de la partenaire, qui a été déclarée pénalement irresponsable sous le motif de la contrainte.

      • Folie à Deux Communiquée (emprise psychotique complète) : Si un passage à l'acte violent se produit dans le cadre du délire, l'acte peut être imputé au délire.

      L'expert psychiatre peut conclure à une abolition du discernement sur le modèle de l'article 121 du code pénal, menant potentiellement à l'irresponsabilité pénale des deux sujets.

      6. Réflexion élargie sur l'emprise

      L'emprise n'est pas spécifique à la perversion ou à la Folie à Deux ; elle peut se manifester sous diverses formes (paranoïaque, obsessionnelle, perverse) et est souvent liée à des difficultés développementales précoces et des attachements insécures.

      Plus les difficultés sont précoces et sévères (ex: dans l'environnement parental), plus le risque de développer une maladie psychiatrique (comme la schizophrénie) et de recourir à une modalité relationnelle d'emprise est élevé.

      Cependant, il est important de distinguer une modalité durable et problématique d'interaction d'un recours ponctuel et occasionnel à un type d'emprise (ex: en période de stress aigu), qui ne caractérise pas un fonctionnement pathologique durable.

    1. Synthèse : Les biais cognitifs en psychologie clinique avec Albert Moukheiber

      Ce webinaire, animé par Albert Moukheiber (docteur en neurosciences et psychologue clinicien), explore la nature des biais cognitifs et leur impact, en particulier dans le contexte de la psychothérapie.

      L'intervenant souligne l'importance pour tous les praticiens de comprendre comment leur propre perception influence le travail avec les patients.

      I. Les fondements de la cognition et l'incertitude inhérente

      Albert Moukheiber commence par établir une "règle générale de notre cognition" : nous baignons tous et tout le temps dans ce qu'on appelle un certain degré d'incertitude (incomplétude informationnelle).

      Cette incertitude est due à trois facteurs principaux :

      • Ressources limitées : Notre capacité à traiter l'information est finie.

      • Perception partielle : Nous ne recevons pas toutes les informations de notre environnement.

      • Complexité du monde : Le monde est trop complexe pour être entièrement appréhendé.

      Bien que cette incomplétude soit constante, elle est souvent masquée par nos mécanismes cognitifs.

      II. La perception comme construction : Bottom-up et Top-down

      Traditionnellement, la perception était expliquée par un modèle "bottom-up" : les données sensorielles (ex: photons pour la vue) sont reçues par les récepteurs (rétine), transformées en signaux électriques, puis traitées par le cortex pour reconstruire le monde.

      • Cependant, à partir de 2014-2015, une nouvelle hypothèse a émergé : le cerveau ne fait pas que reconstruire, il prédit aussi le réel, y compris dans le présent.

      L'exemple des voitures de taille identique sur une image en perspective est utilisé pour illustrer cette prédiction : notre cerveau "agrandit" la voiture éloignée pour la rendre cohérente avec notre connaissance implicite du monde ("plus c'est loin, plus c'est petit").

      Cela révèle l'existence de deux mécanismes perceptifs :

      • Bottom-up : Réception et intégration de l'information sensorielle.
      • Top-down : Le cerveau projette et utilise nos "modèles mentaux" ou "connaissances du monde" pour interpréter et compléter l'information manquante.

      L'exemple de la vision périphérique en couleur (alors que peu de récepteurs de couleur y sont présents) est donné comme illustration du top-down :

      "Toutes les couleurs que vous voyez dans votre vision périphérique c'est des couleurs top down que votre cerveau est en train d'inventer".

      Moukhheiber parle d'hallucination contrôlée : "On est en train d'halluciner le monde mais avec des règles très contrôlées qui nous permettent de fonctionner les uns avec les autres".

      Il insiste : "on ne voit pas le monde tel qu'il est mais plutôt tel que nous sommes", tout en précisant qu'il ne faut pas tomber dans un relativisme absolu, car "il y a des règles qui régissent ça".

      Plus une situation est ambiguë, plus nous pouvons lui attribuer un sens personnel.

      III. L'interprétation et la "stabilisation de l'ambiguïté"

      • Le passage de la perception à l'interprétation est illustré par l'illusion de la danseuse qui tourne, un "stimuli ambigu bistable" (manque de marqueur de profondeur). Selon qu'elle est vue tourner dans un sens ou dans l'autre, cela dépend de nos mécanismes top-down et de nos "a priori".

      La réalité, elle, est un "stimuli ambigu multistable", c'est-à-dire qu'il y a de multiples façons de stabiliser son ambiguïté.

      Les traits de personnalité sont fonctionnellement des descriptions de "comment une personne stabilise l'ambiguïté du monde".

      Ex: Une personne jalouse interprétera le non-réponse d'un partenaire comme une tromperie, là où une personne non jalouse pensera à une occupation.

      L'optimisme ou le pessimisme sont des façons de stabiliser l'ambiguïté du futur.

      Une grande partie de la psychopathologie est vue comme une modification de la manière dont on stabilise l'ambiguïté du monde.

      • Dans les troubles anxieux, il y a une tendance à "catastrophiser", à stabiliser l'ambiguïté des enjeux futurs comme "ça va être mauvais" et à avoir des "biais du faux consensus" (penser que mes croyances sont partagées par tous).

      • Dans les TOC, on retrouve la "masturbation" (le piège du devoir, je dois vérifier sinon quelque chose de mauvais va se passer) et la "pensée binaire" (si ce n'est pas parfait, c'est nul).

      • Dans la dépression, il y a des "biais de sélection et de confirmation", où l'on se rappelle davantage les événements négatifs.

      • Nous utilisons des heuristiques, des "solutions approximatives", pour agir rapidement face à l'incertitude, même si elles sont parfois imprécises.

      Les biais cognitifs ne sont pas intrinsèquement négatifs ; ils sont une "rencontre entre une stratégie cognitive et un contexte".

      L'optimisme, par exemple, peut être négatif au casino, mais essentiel pour l'apprentissage de la marche chez un bébé.

      IV. La cognition incarnée et le modèle biopsychosocial

      • Moukhheiber critique la vision purement "cérébrocentrée" de la cognition. Les neurosciences modernes considèrent une cognition incarnée, où l'humain n'est pas juste un cerveau.

      Il y a une boucle de rétroaction constante entre le mental, le physique et l'environnement. Pour comprendre le fonctionnement humain, il faut tenir compte de ces trois dimensions.

      L'expérience des chatons de Hein et Held (années 40) démontre que la vision n'est pas seulement le résultat de l'œil et du cerveau, mais de l'organisme entier en interaction avec son environnement.

      Cette perspective conduit à remettre en question le modèle biomédical (un pathogène = une maladie à soigner) appliqué à la santé mentale.

      L'exemple de la femme développant un trouble anxieux suite à du sexisme au travail montre que le "pathogène" peut être externe, dans l'environnement, et qu'il est absurde de vouloir "soigner" uniquement l'individu.

      L'homosexualité n'a cessé d'être une maladie quand la société a été soignée, pas l'individu homosexuel.

      Le modèle proposé est le modèle biopsychosocial (psyché, corps, environnement). La question centrale en thérapie devient : "Est-ce que j'agis sur le patient ou sur l'environnement ?"

      Ex: Une personne dépressive peut l'être à cause de son cerveau, de son hygiène de vie (manque de sommeil, pollution), ou de son environnement toxique.

      V. Les biais spécifiques à la pratique clinique La prise de décision médicale et thérapeutique est également sujette aux biais.

      Albert Moukheiber énumère plusieurs biais pertinents :

      • Biais de cadrage : La manière dont l'information est présentée impacte sa réception (ex: annoncer un diagnostic de "borderline" versus rassurer sur la possibilité de guérison).

      • Biais de commission : Préférer faire quelque chose plutôt que ne rien faire. Moukheiber confie parfois à ses patients que le temps seul peut les aider à aller mieux, sans intervention active de sa part.

      • Biais de disponibilité : Privilégier les hypothèses récemment rencontrées ou les plus saillantes (ex: un diagnostic d'anxiété de performance car c'est un cas fréquent, manquant un possible TND).

      • Biais de négligence du taux de base : Négliger la prévalence d'un phénomène dans la population générale (ex: attribuer le burnout à des facteurs individuels alors qu'il y a une explosion des cas liée à l'hygiène de vie collective ou aux pressions sociétales).

      • Biais de confirmation : Tendance à chercher des informations qui confirment nos hypothèses initiales (ex: creuser pour confirmer un diagnostic de bipolarité chez un adolescent, ignorant d'autres explications).

      • Règle de conjonction (ou rasoir d'Ockham inversé) : Créer un tableau clinique complexe avec de multiples diagnostics au lieu de chercher une explication plus simple et parsimonieuse (ex: diagnostiquer un trouble anxieux, un TSA et une personnalité histrionique, alors qu'une phobie sociale pourrait expliquer un grand nombre de symptômes).

      • Biais de surconfiance : Surestimer ses propres capacités ou connaissances (ex: un médecin rejetant l'avis d'un psychologue).

      • Biais de représentativité : Associer des stéréotypes à une personne en fonction de son origine, ethnie, genre, etc. (ex: une femme faisant une attaque cardiaque diagnostiquée à tort comme une attaque de panique, le "syndrome méditerranéen").

      • Satisficing (ou "satisfaction de la recherche") : Arrêter de chercher une fois qu'une première explication est trouvée, manquant d'autres diagnostics (ex: diagnostiquer un trouble anxieux et manquer des TOCs associés).

      • Diagnostic momentum : Un diagnostic posé il y a longtemps sur un patient persiste dans le dossier et est transmis d'équipe en équipe, même s'il n'est plus d'actualité.

      VI. Conclusion : Humilité, changement d'avis et écoute du vécu subjectif

      Moukhheiber conclut par deux citations :

      • "Une des idées les plus dangereuses qu'une personne pourrait avoir c'est de se dire 'Si tout le monde était comme moi le monde serait un endroit meilleur'."

      Il insiste sur le besoin de différentes "a priori" et différentes "stabilisations de l'ambiguïté" pour une vision plus riche du monde.

      Il est crucial d'écouter le vécu subjectif des patients, surtout des jeunes, car leurs "a priori" diffèrent de ceux des adultes, ce qui peut rendre leurs comportements incompréhensibles sans une explication.

      • "Qu'est-ce que réfléchir ? C'est une façon élégante de dire changer d'avis." Le clinicien doit être capable de changer d'avis pour mieux écouter le patient et éviter les biais.

      • Il est impossible de ne pas tomber dans les biais, même pour les experts. La solution réside dans la métacognition ("penser contre son cerveau"), en connaissant les biais et les pièges du raisonnement, mais surtout en demandant de l'aide aux autres (le "paradoxe de Salomon" : on est bon pour conseiller les autres, nul pour se conseiller soi-même).

      La complexité des sujets fait qu'on ne peut être expert partout, d'où l'importance de la collaboration et de l'humilité.

    1. Compte-rendu de la Conférence "Emprise"

      Ce document synthétise les points clés de la conférence sur l'emprise, en distinguant ce qu'elle n'est pas, ce qu'elle est, comment elle opère, qui l'exerce, et qui en est la proie.

      1. Ce que l'emprise n'est pas

      L'oratrice commence par définir l'emprise par la négation, afin de la distinguer de concepts proches mais différents :

      • L'Influence : Selon l'école de Palo Alto, "on ne peut pas ne pas communiquer", et "communiquer c'est influencer". L'influence est une caractéristique normale de la communication (ex: influenceurs, publicitaires). L'emprise débute lorsque l'influence "s'accompagne de coercition d'obligation".
      • La Stratégie : La stratégie, même si elle implique des "manœuvres", a des "buts éthiquement recevables" et la personne ciblée "a donné son accord". Contrairement à la manipulation, il est possible de "soulever le capot du moteur et dire ce que je suis en train de faire".

      2. Définition de l'Emprise

      Le terme "emprise" a des origines diverses, toutes liées à l'idée de "prendre" ou de "dominer" :

      • Étymologie : En chevalerie, c'était le contrat unissant un chevalier à son suzerain (relation de pouvoir). En administration, c'est la prise de terrain par expropriation ou occupation. En architecture, c'est la projection d'une construction sur une surface.
      • En psychologie : L'emprise est un "envahissement", une "main mise". Elle est définie comme "une relation de pouvoir et de domination qui est fondé sur la fascination et sur la peur".
      • Conséquences sur la proie : L'emprise "exproprie [...] la proie de sa subjectivité propre", c'est-à-dire sa façon de voir le monde, et de son "agentivité", sa capacité d'agir. En somme, elle exproprie la personne "de soi-même".

      3. Comment l'Emprise Opère

      L'emprise utilise diverses tactiques pour fragiliser et contrôler la victime (appelée "la proie" par l'oratrice, l'auteur étant "le prédateur") :

      Mise sous stress constant : * Renforcement intermittent : Inspiré par la cage de Skinner, le prédateur alterne récompenses et punitions de manière imprévisible ("un coup tu l'as un coup tu l'as pas"). Cela génère un "stress constant" et une "addiction", car la victime est constamment en attente. Ce stress érode le corps et l'esprit. * Mise en confusion cognitive : La victime ne "sait plus quel bout va devant". Cela se fait par la manipulation mentale : * Culpabilisation : Le prédateur rend la victime responsable de ses propres émotions ou situations, souvent en se positionnant en victime ("j'ai voyagé très très longtemps pour venir jusqu'ici... j'espère que vous allez m'écouter"). * Retournement : L'art de faire croire à la proie que "ce n'est pas le prédateur qui a fait une bêtise ou qui a généré une difficulté, c'est la proie". * Décontextualisation-Retournement-Essentialisation : Le prédateur oublie le contexte qu'il a créé, isole la réaction de la proie, et l'essentialise en un trait de caractère permanent et pathologique. L'exemple donné est celui de Monsieur Dupont qui, après avoir agressé Madame Dupont, la décontextualise en alcoolique parce qu'elle boit un whisky pour se calmer. * Gaslighting : "L'art de faire que l'autre doute de sa santé mentale." Cette manipulation est "extrêmement répandue" et vise à faire croire à la victime qu'elle est folle ou dérangée ("ce n'est pas moi qui dis n'importe quoi, c'est toi qui es folle"). * Mise en confusion émotionnelle : Notamment par l'alternance des "chauds et des froids", renvoyant au mécanisme du renforcement intermittent. Le prédateur ne répond pas de la même manière à la même situation, perturbant émotionnellement la proie.

      4. Qui met sous Emprise

      • Trois types de personnalités peuvent exercer une emprise :
      • Personnalités très obsessionnelles : Leur besoin de gérer une forte angoisse par des rituels intangibles et immuables peut amener leur entourage à "se plier à ces rituels" pour éviter des crises. Cette adaptation forcée conduit la victime à "s'exproprier de soi-même".
      • Personnalités paranoïques : Caractérisées par la méfiance, l'orgueil, la psychorigidité et la fausseté du jugement. Pour le paranoïaque, "qui n'est pas avec lui est contre lui" et doit être attaqué. L'entourage finit par adapter son comportement pour "ne pas pouvoir se faire attaquer par le paranoïaque", perdant ainsi sa spontanéité et son identité propre.
      • Pervers narcissiques (PN) : C'est le type le plus approfondi, car ils exercent l'emprise "pour mettre sous emprise, parce que ça le fait jouir".
      • Buts du PN : Il cherche à "asservir l'autre au sens le plus fort du terme", à "le déshumaniser", lui enlever sa subjectivité et son désir. Il cherche à posséder sa proie "comme un objet" pour :
      • Passer à l'acte son "envie hostile" (jalousie), détruisant l'autre.
      • Utiliser la proie comme "un élément de prestige" (ex: partenaire ou collaborateur prestigieux).
      • Flatter son "narcissisme malade", car il "confond son pouvoir avec son pouvoir de destruction". Sa force est mesurée à sa capacité à détruire l'autre.
      • Fonction de "poubelle psychique" : Le PN, derrière un masque de perversité, est d'une "extrême fragilité". Incapable de supporter d'être mauvais ou d'avoir failli, il projette tout ce qui est négatif sur la proie : "tout ce qui est bien c'est moi, tout ce qui est mal c'est toi". Il est en fait "plus dépendant de sa proie que sa proie de lui".
      • Partage de la folie : Citant Harold Searles, l'oratrice explique que le PN, en tant que psychotique ou pré-psychotique, cherche à "faire partager sa folie à l'autre", à "donner sa folie à l'autre par identification projective pour se sentir moins dingue". Le gaslighting, en particulier, sert à cela.

      5. Les Étapes de la Relation d'Emprise (Vue de la Proie)

      La relation d'emprise se déroule en plusieurs phases, souvent difficiles à discerner pour la proie et le monde extérieur :

      • La Séduction : Le prédateur "travestit l'existant", se "grime totalement" pour ressembler au partenaire idéal perçu. Il joue un "rôle de composition" complètement mensonger. La proie est séduite, "se laisse aller à croire au rêve bleu", rencontrant le prince charmant ou le collaborateur idéal.
      • Le Ferrage : Une fois la proie "engagée", survient le "moment chaos", le "ferrage", où la proie ne peut plus reculer "sans y laisser des plumes". Exemples : les enfants, un CDI, un bail commun, un mariage, des confidences compromettantes, des services rendus.
      • La Destruction-Séduction : La phase la plus longue, visant à "détruire, asservir, déshumaniser la proie". Cependant, lorsque la destruction dure trop longtemps, la proie envisage de partir. À ce moment, le PN réactive la séduction, permettant à la proie de "souffler un peu" et de se dire que "ça marche" si elle s'adapte. Cette alternance de destruction et de séduction rend la relation "addicte".
      • Difficulté de discernement : Pour les observateurs extérieurs (ex: juges), la proie apparaît incohérente et stressée, tandis que le prédateur est "beau, parfumé, en costume et tout à fait cohérent", rendant le prédateur plus crédible.

      6. La Relation d'Emprise (Vue du Prédateur)

      Le prédateur, souvent décrit comme un "œuf dur qui a une faille" (Kernberg), est intrinsèquement fragile :

      • Faille narcissique : Son "moi" est fissuré dès la petite enfance. Pour le maintenir entier, il fusionne son "moi" avec son "idéal du moi", cherchant à être une "personne idéale qui n'a aucun défaut". Il passe sa vie à "réparer la coque qui fuit de toute part", à "replatrer le narcissisme qui fout le camp".
      • Vide existentiel : Malgré ses efforts, il se sent "vide, sans couleur, sans saveur, sans odeur".
      • Repérage de la proie : Il repère une proie "riche" de qualités qu'il aimerait posséder. Il manque d'"empathie aimante" mais a une "empathie d'objets", repérant les failles de la proie.
      • Fantasme de fusion : Il se précipite sur la proie dans le fantasme archaïque que s'il la possède, il "va fusionner avec elle et en quelque sorte lui voler ses qualités".
      • Constat d'échec et destruction : Une fois la proie séduite, le PN constate qu'il est "toujours aussi vide, toujours aussi nul", et que sa proie est toujours mieux que lui. Il s'offre alors un "lot de consolation" et passe à l'acte son "envie hostile", la "désinguant à la mesure de ce qu'il en est jaloux". La proie sert alors de "poubelle psychique".

      7. Qui est la Proie

      • Potentiellement tout le monde : "On peut tous se faire avoir", la séduction et la manipulation fonctionnant sur chacun.
      • Caractéristiques générales : La proie est souvent "riche", "généreuse", "solaire", "intelligente" et a souvent "du prestige".
      • Capital économique : Peut entretenir le prédateur.
      • Capital symbolique : Savoir, diplômes, prestige social. Le prédateur peut tenter de s'approprier cette culture "par délégation".
      • Capital relationnel : Réseau social et professionnel.
      • Qualités converties en défauts : Les proies sont souvent "altruistes", de "bonne volonté", "intelligentes", "capables de se remettre en question", "qui cherchent à comprendre" les motivations d'autrui, et développent une "certaine naïveté" en imaginant que "tout le monde est comme ça". Ces qualités, comme l'amour, la compréhension, le pardon, sont transformées en défauts sous emprise.
      • Vulnérabilités (non fragilités) : Les proies ont des vulnérabilités issues de leur histoire (peur de l'abandon, soif d'attention/amour, carence affective). Il est crucial de les considérer comme des "vulnérabilités" (potentiel activable) et non des "fragilités" (potentiel déjà actif), pour ne pas renforcer le gaslighting exercé par le prédateur. Le prédateur "saute à pieds joints sur les vulnérabilités qui finit par transformer en fragilité".

      8. L'Accompagnement Thérapeutique des Proies

      Déconstruire le gaslighting : Contrairement à la psychothérapie habituelle où l'on renvoie la personne à sa responsabilité, dans l'accompagnement des proies, il faut d'abord "parler de l'autre" pour "démonter le gaslighting", mettre à jour et "détricoter" les manipulations. Reconnaître les vulnérabilités : C'est seulement après avoir déconstruit les manipulations et l'impact du prédateur que l'on peut aborder les vulnérabilités de la proie, pour comprendre "par quelle vulnérabilité il vous accroche". L'objectif est de ne pas confirmer la croyance de la proie qu'elle est "dingue" ou "névrosée".

    1. "Conférence CRIAVS - Emprise", organisée par Nelson Paris, pédopsychiatre sexologue et responsable du CRIAVS Lorraine à Nancy.

      Synthèse de la Conférence CRIAVS - Emprise Cette conférence explore la notion d'emprise, en particulier chez l'enfant, en la mettant en regard avec la théorie de l'attachement et le rôle de la figure maternelle/parentale.

      Elle soulève des questions cruciales sur la limite entre un attachement sain et une relation d'emprise, en soulignant les spécificités de l'enfant en tant que victime et les défis cliniques associés.

      Thèmes Principaux et Idées Clés :

      1. L'Attachement à la Figure Maternelle/Parentale et la Notion d'Emprise Précoce

      • Distinction Attachement vs. Emprise : L'orateur introduit la difficulté de distinguer l'attachement, essentiel au développement de l'enfant, de l'emprise, qui a une connotation négative. L'objectif est de "discuter dans une journée qui est dédiée à l'adulte à l'enfant enfin voilà on parle d'un petit peu de tout en terme d'emprise donc de reprendre ce qui concerne plutôt le début de la vie euh avec donc la notion d'emprise de mettre en opposition l'emprise et peut-être l'attachement euh et d'essayer d'y comprendre qu'est-ce qui pourrait être du domaine du normal de la normale".
      • Évolution de la Terminologie de la Figure Maternelle : La notion de "figure maternelle" a évolué de la diade mère-père vers le concept de "caregiver" (Bowlby), qui peut être toute personne significative prenant soin de l'enfant, indépendamment du lien biologique ou administratif. Les évolutions sociétales (congé paternité, couples homosexuels) élargissent cette définition.
      • Rôle Essentiel de la Figure Maternelle/Caregiver : Le caregiver apporte réconfort, affection, alimentation ("rôle nourricier") et soins. L'absence de dimension affective, même avec des soins de nursing impeccables, peut être dévastatrice pour le développement de l'enfant, conduisant à des décès ou des psychoses, comme le montrent des études en orphelinat.
      • Le Lien Parent-Enfant Avant la Naissance : Le lien avec l'enfant se construit avant même la naissance, avec un "lien positif" (enfant attendu, voulu) ou parfois "négatif" (grossesses issues de violences sexuelles, ou traumas transgénérationnels des parents). Un exemple clinique frappant est celui d'une mère victime d'inceste qui qualifie son fils avant sa naissance de "violeur comme tous les autres", influençant le développement de l'enfant et conduisant à des actes de violence.
      • L'Interdépendance et le Lâcher-Prise : La relation parent-enfant est une interdépendance où chacun apporte à l'autre. Cependant, il est crucial que cette relation évolue et que le parent accepte le "lâcher-prise" à mesure que l'enfant grandit et devient moins dépendant. La difficulté de certains parents à lâcher le rôle nourricier ou le "petit dernier" peut poser problème et mener à des situations d'emprise.

      2. La Théorie de l'Attachement (Bowlby, Winnicott)

      • Le Socle Relationnel : L'attachement est le "socle quand même relationnel des êtres humains". La durée, la disponibilité et la qualité des réponses du caregiver sont fondamentales.
      • Fonctionnement de l'Attachement : Le nourrisson manifeste des besoins (câlins, pleurs) et la qualité des réponses du caregiver détermine le type d'attachement. Un attachement sécure est le "socle de la sécurité pour pouvoir explorer le monde".
      • Expériences de Harlow (Bébés Macaques) : Ces études classiques illustrent l'importance du réconfort et de la sécurité. Les bébés macaques privilégient la mère en tissu (chaleur, réconfort) même si la mère en fil de fer fournit la nourriture. En situation inconnue, la présence d'un "facteur de réassurance" (couverture) permet l'exploration.
      • Types d'Attachement :
      • Sécure (50-60%) : Permet l'exploration du monde.
      • Évitant : L'enfant ne reçoit pas de réponses adéquates, recherchant une indépendance inadaptée (ex: enfant qui ne pleure pas, car il n'a jamais de réponse parentale). "C'est là un exemple typique de cette recherche d'indépendance complètement inadaptée qui était une réponse aux besoins maternels plus qu'au besoins de l'enfant et où finalement l'enfant était à ce moment-là un objet et n'a pas été pris en compte comme un être à part entière".
      • Ambivalent/Résistant : Réponses incohérentes et instables.
      • Désorganisé : Présence de violence (maltraitance, violence conjugale, sexuelle), l'enfant craint sa figure d'attachement et reproduit la violence.
      • Rôle de l'Attachement dans le Développement : L'attachement influence le développement intellectuel (impossibilité d'apprendre en étant tétanisé), les relations sociales, et la capacité à créer du lien. Les attachements insécures sont à la base de troubles de la personnalité et augmentent le risque d'être "plus facilement victime ou auteur d'emprise".

      3. Spécificités de l'Emprise chez l'Enfant

      • Dépendance Naturelle de l'Enfant : L'enfant est intrinsèquement dépendant des adultes et "ne peut pas s'extraire de ce milieu-là". Il n'a pas l'autonomie critique pour juger les situations.
      • Intégration des Repères Parentaux : Les repères de l'enfant sont ceux inculqués par les adultes, ce qui rend difficile toute critique de ce qui est "normal" ou "pas normal".
      • Recherche d'Affection et Conflits de Loyauté : L'enfant recherche naturellement l'affection du parent, ce qui alimente l'emprise sans même nécessiter une phase de séduction explicite. Les conflits de loyauté rendent difficile pour un enfant de critiquer un parent, même en présence d'un système familial dysfonctionnel.
      • Naïveté et Vulnérabilités : L'enfant présente une plus grande naïveté et une confiance naturelle envers les adultes, augmentant sa vulnérabilité. Les "événements d'adversité" (ACE) fragilisent l'attachement et augmentent le risque d'être impliqué dans des relations d'emprise.
      • Vulnérabilité et Emprise (même avec un attachement sécure) : Un attachement sécure est un facteur protecteur, mais des facteurs de stress accumulés (ex: infidélité, perte d'emploi, maladie) peuvent rendre n'importe qui vulnérable et tolérer des situations inacceptables, menant potentiellement à l'emprise.

      4. Situations Cliniques d'Emprise en Pédopsychiatrie

      • Münchausen par Procuration : Maladie simulée ou produite délibérément par un parent chez son enfant, souvent pour obtenir une reconnaissance ou pour répondre à un besoin psychique propre du parent (ex: culpabilité face à une maladie génétique transmise). L'enfant n'est pas scolarisé, renforçant le lien. Le risque est le "nomadisme médical".
      • Le diagnostic exige une évaluation en équipe pluridisciplinaire, en prenant le temps de comprendre la dynamique familiale et de ne pas faire de signalement trop rapide.
      • L'orateur estime que le Münchausen par procuration, notamment dans ses formes psychiques, relève de l'emprise, car il s'agit d'un "système relationnel" où l'enfant ne pense plus par lui-même.
      • Aliénation Parentale : Concept débattu où un parent utilise l'enfant pour nuire à l'autre parent et l'exclure de la vie de l'enfant.
      • Controverse : Initialement décrit par Richard Gardner, sa validité scientifique est contestée. Le risque majeur de l'utilisation de ce terme est que "l'enfant n'est plus entendu".
      • Impact Judiciaire : Des études aux États-Unis montrent que l'invocation de l'aliénation parentale par le père divise par deux la probabilité que les accusations de violence faites par la mère soient reconnues, et presque par quatre quand il s'agit de violence envers les enfants, et quasiment jamais pour les accusations de violence sexuelle (2%). Cela peut conduire à ce que des enfants soient confiés à des parents violents ou agresseurs sexuels.
      • L'orateur souligne la nécessité d'une prise en charge globale du système familial si ce concept est retenu, afin d'éviter des préjudices à l'enfant.
      • Inceste : Caractérisé par une "emprise généralisée" où le silence est imposé pour assurer l'impunité de l'agresseur. La structure familiale est "contaminée", et souvent, même lorsque l'enfant parle et est cru, "il se passe rien" (45% des confidents ne font rien). Les agressions ont lieu en présence d'autres membres de la famille dans près d'un cas sur deux, menant à une banalisation et des "distorsions" de la réalité.
      • Loverboy (Prostitution des Mineurs) : Un adolescent (le proxénète) exploite une jeune fille (souvent sa petite amie) par la prostitution, en utilisant le "champ émotionnel" plutôt que la menace directe.
      • Mise en place : Création d'une dépendance affective et financière, isolement de la victime, et potentiellement incitation à la prise de psychotropes.
      • Exploitation : Demandes de prostitution de plus en plus fréquentes, avec un mécanisme de "remboursement" des dépenses créant une dette illusoire.
      • Profil des Victimes : Tous les milieux peuvent être touchés, mais les jeunes filles "carencées avec des attachements insécures" sont plus à risque. Le recrutement se fait souvent dans des foyers, et les victimes peuvent percevoir cette relation comme une forme d'amour ou une "meilleure vie".
      • Défis de l'Accompagnement : La prise en charge est complexe, nécessitant une présence durable et la recherche d'un lien pour développer la "capacité critique" de la victime, sans enfermer, car la récidive est fréquente.

      Conclusion Générale :

      La conférence insiste sur la complexité de l'emprise, particulièrement chez l'enfant, qui est naturellement dépendant et vulnérable. Les troubles de l'attachement, souvent transmis de génération en génération, constituent un facteur de risque majeur pour devenir victime ou auteur d'emprise.

      Cependant, l'emprise peut aussi survenir chez des individus avec un attachement sécure, en cas d'accumulation de facteurs de stress et de vulnérabilités.

      L'orateur souligne l'importance d'une approche pluridisciplinaire et d'une prise en charge attentive pour protéger les enfants et déconstruire les mécanismes de l'emprise.

      La prudence est de mise concernant certains concepts controversés comme l'aliénation parentale, dont l'invocation peut nuire aux victimes et détourner l'attention des violences subies.

    1. Note de Synthèse : Les Enfants, Sentinelles des Inégalités d'Exposition aux Contaminations Industrielles et aux Pesticides

      Date : 2024-2025 Source : Extraits de "La production sociale des inégalités de santé (14) - Nathalie Bajos", cours de Giovanni Prété.

      • Résumé Exécutif : Le sociologue Giovanni Prété, lors du séminaire de Nathalie Bajos sur les inégalités sociales de santé, propose de considérer les enfants comme des "sentinelles des inégalités d'exposition aux contaminations industrielles".

      Son exposé démontre comment les dispositifs de réparation des risques industriels, établis au 20ème siècle, reposent sur des postulats discutables : la distinction nette entre contaminations professionnelles et environnementales, et la concentration de la réparation sur les travailleurs adultes, excluant souvent les riverains et les enfants.

      Des recherches croissantes documentent les effets des pollutions industrielles sur la santé des enfants et les inégalités sociales qui les traversent, notamment concernant les pesticides.

      Prété souligne que la production de connaissances et la reconnaissance des maladies pédiatriques liées à ces expositions sont entravées par des obstacles méthodologiques, politiques et sociaux, notamment la difficulté à établir la causalité, le manque de données fines, et le sentiment de culpabilité des familles.

      Thèmes Principaux et Idées Clés :

      1. La Contamination du Monde et l'Émergence d'un Nouvel Univers Chimique :

      • L'industrialisation a conduit à une augmentation sans précédent de la production de richesses, mais aussi à une "diffusion massive de substances polluantes contaminant la vie humaine et la vie non-humaine." (Prété, citant Jarig et Lerou)
      • La production chimique de synthèse a explosé : "multipliée par 1000 en tonnages entre 1930 et 2000, puis par depuis 2000". Il y aurait "aujourd'hui 194 millions de molécules publiées dont probablement 100 000 environ commercialisées en Europe." (Prété, citant Remy Sama)
      • Cette contamination entraîne des pathologies chroniques, difficiles à dénombrer précisément en raison de leur non-spécificité et des "temps de latence longs" (plusieurs décennies).

      2. Les Postulats Discutables des Dispositifs de Réparation Historiques :

      • Cloisonnement Santé Environnementale / Santé au Travail : Les dispositifs de réparation (accidents du travail 1898, maladies professionnelles 1919) reposent sur une distinction rigide entre maladies professionnelles et environnementales, excluant le travail de l'environnement.
      • Conséquence concrète : les modes de réparation diffèrent. Un travailleur exposé au mercure peut bénéficier d'une présomption d'origine, tandis qu'un riverain exposé à la même substance via l'eau doit engager des "démarches civiles bien plus longues à faire aboutir et bien plus incertaines."
      • Ce cloisonnement se manifeste également dans l'organisation des politiques de prévention (inspection du travail vs. inspecteurs des installations classées).
      • Exclusion des Enfants des Dispositifs de Réparation : Historiquement, les enfants travailleurs étaient reconnus comme victimes de l'industrialisation (ex: étude de Percival Pott sur le cancer du scrotome des ramoneurs en 1775, loi sur les ramoneurs en 1788).
      • Cependant, à mesure que les enfants ont été progressivement exclus du monde professionnel (interdictions successives du travail des enfants en France : moins de 8 ans en 1841, moins de 13 ans en 1890, moins de 16 ans en 1967), ils ont été "de moins en moins considérés comme des victimes des transformations du travail via l'industrialisation et leurs expositions et réparations sont écartées des dispositifs assurantiels mis en place en France en 1998 et en 1919."

      3. Les Enfants comme Sentinelles et les Effets des Contaminations Industrielles sur leur Santé :

      • Vulnérabilité Spécifique des Enfants :Les expositions in utero sont "préoccupantes pour le futur en développement" car c'est une "période de sensibilité accrue aux agents tératogènes et aux expositions environnementales" qui peuvent influencer la santé à l'âge adulte (concept de l'origine développementale de la santé des maladies, David Barker).
      • Après la naissance, les jeunes enfants sont plus exposés aux contaminants (temps passé au sol, ingestion d'objets) et ont un "apport plus élevé en nourriture, en eau et en air par unité de poids corporel", rendant les faibles expositions potentiellement très impactantes.
      • Preuves Scientifiques Croissantes : Il est "admis aujourd'hui le rôle étiologique c'est-à-dire causal des expositions prénatales ou infantiles à certains facteurs de risque dit environnementaux mais qui incluent des facteurs professionnels" pour des pathologies comme les leucémies infantiles (radiations ionisantes, radon, pesticides, solvants).
      • Inégalités Sociales Face aux Maladies Pédiatriques Industrielles :Inégalités d'exposition : "les populations socio-économiquement défavorisées et les populations minoritaires supportent en général un fardeau disproportionné de l'exposition aux pollutions industrielles" (ex: corrélation incinérateurs/faibles revenus/immigrés). Ces inégalités peuvent impliquer des "expositions cumulées" (professionnelles, air intérieur, transports). Cependant, certains cas montrent des gradients non univoques (ex: certaines pollutions chimiques persistantes plus fortes chez les mères favorisées).
      • Inégalités de vulnérabilité : "les populations socio-économiquement défavorisées et les populations minoritaires sont plus vulnérables aux conséquences d'une exposition à des pollutions industrielles même quand elles sont plus faiblement exposées." Cela s'explique par une moins bonne santé initiale, un moindre recours à la prévention/soins, et une capacité réduite à échapper aux expositions (ex: difficulté à déménager).
      • "les enfants pauvres sont victimes d'une double peine" : plus vulnérables à la pollution de l'air en tant qu'enfants, et cette vulnérabilité est "exacerbée par leur statut socio-économique."

      4. Controverses et Obstacles à la Reconnaissance :

      • Débats sur l'ampleur et la causalité : Il existe des "débats sur l'ampleur de l'augmentation des maladies pédiatriques possiblement lié à des pollutions industrielles et sur le rôle des facteurs environnementaux". La Société française de lutte contre les cancers et les leucémies de l'enfant et de l'adolescent a par exemple affirmé publiquement "qu'il n'y a pas d'épidémie de cancer pédiatrique" et a relativisé le rôle des facteurs environnementaux, en contradiction avec d'autres scientifiques et associations pointant des augmentations dans d'autres pays et l'existence de "clusters inquiétants" (ex: Sainte-Pazanne).
      • Difficultés méthodologiques :Mesure de la santé : fragmentation des bases de données en France, absence de registres complets pour certaines pathologies (malformations, problèmes périnataux).
      • Mesure de l'environnement : manque de données environnementales "à des échelles suffisamment fines pour pouvoir objectiver des effets de santé et encore moins des inégalités sociales environnementales."
      • Obstacles politiques et sociaux à la production de connaissances :Les dangers des pesticides sont connus mais leur diffusion a été justifiée par une "fiction d'action publique" d'utilisation sans risque, basée sur des études de toxicologie.
      • Les données épidémiologiques sont arrivées tardivement et se sont concentrées sur les travailleurs masculins permanents, délaissant les femmes, intérimaires, saisonniers, et les expositions indirectes ou les populations difficiles à suivre (migrants, enfants).
      • Les industriels et organisations professionnelles "font obstacle délibérément à la circulation de l'information sur les pesticides" (composition exacte des produits, données d'utilisation à l'échelle de la parcelle), rendant la recherche "longue, coûteuse et décourageante".

      5. La Traduction Politique Réductrice des Connaissances et la Reconnaissance du Droit des Enfants :

      • Limitation des tableaux de maladies professionnelles : Malgré l'accumulation de données épidémiologiques, la création de tableaux de maladies professionnelles liées aux pesticides (cancer du sang, Parkinson, cancer de la prostate) s'est faite "après à chaque fois des négociations visant à limiter leur périmètre." Ils n'incluent pas toutes les pathologies documentées et, surtout, "ne prennent pas en compte les riverains".
      • Marginalisation des riverains : Les mobilisations pour un fonds d'indemnisation de toutes les victimes des pesticides n'ont pas abouti "devant les craintes du gouvernement de voir d'autres victimes environnementales s'en inspirer."
      • Création du droit pour les victimes pédiatriques professionnelles :Une avancée majeure : le Fonds d'Indemnisation des Victimes des Pesticides (FIVP) est désormais "chargé d'instruire les demandes de réparation concernant les enfants dont les problèmes de santé pourraient être liés à une exposition professionnelle au pesticides de leurs parents dans la période prénatale."
      • Ce droit ne bénéficie pas d'une présomption d'origine ; les familles doivent soumettre une demande évaluée par un groupe d'experts.
      • Cette création est liée aux mobilisations associatives et politiques, à l'évolution de la figure de l'enfant dans les sociétés industrielles ("sacralisés" et "valeur plus grande sur le marché de l'assurance", Viviana Zelizer), et aux expertises collectives de l'INCERM (2013, 2021) établissant un "présomption forte de lien entre certaines pathologies (leucémies, tumeurs cérébrales, troubles du neurodéveloppement, malformations congénitales) et l'exposition des parents au pesticides en milieu professionnel."

      6. Sous-Déclaration et Obstacles au Recours des Familles :

      • Seuls "22 [dossiers] concernés des maladies pédiatriques sur les 1970 dossiers reçus par le fond d'anémisation des victimes des pesticides entre 2020 et 2023", ce qui illustre un phénomène de "non recours au droit et de sous-déclaration et de sous-reconnaissance."
      • Facteurs sociaux influençant le parcours de reconnaissance :Faible communication institutionnelle : Le fond a eu une "communication très faible" auprès des associations et professionnels de santé. "Pour activer un droit il faut connaître ce droit."
      • Manque d'information des professionnels de santé : Les médecins (oncopédiatres, chirurgiens pédiatriques) informent rarement les familles d'une étiologie professionnelle possible, car ils sont peu formés sur les causes, centrés sur le soin, et "la question de la causalité du fait des incertitudes qu'elle renferme à l'échelle individuelle met des médecins dans une situation inconfortable."
      • Inégalités sociales face à la médecine : La capacité des familles à questionner l'étiologie dépend de leurs "ressources sociales et culturelles assez importantes pour réduire la symétrie d'information et de savoir entre les médecins et les patients."
      • Enjeux de Responsabilité et de Culpabilité :Les familles médiatisées (Gratalou, Marivin) ont des situations d'exposition "particulières" (exposition accidentelle au glyphosate, exposition salariée en fleuristerie) qui leur offrent des "prises pour construire une représentation limitée (...) de leur responsabilité dans la maladie de leur enfant", facilitant leurs démarches.
      • Les "travailleurs indépendants ont un sentiment de responsabilité plus fort et une difficulté plus grande à recourir en fond que les salariés." En particulier, les "exploitants agricoles rencontrés qui ayant utilisé délibérément des pesticides (...) peuvent se refuser à entrer dans une démarche médico-administrative impliquant de reconnaître pour eux-même et pour l'extérieur que leurs pratiques ont pu empoisonner leurs enfants." (Exemple de l'entretien avec une conjointe d'agriculteur).
      • La prise en charge institutionnelle (FIVP) et le rôle des associations ou consultations spécialisées peuvent être des "levier[s] direct[s] de déculpabilisation des familles" en politisant les maladies pédiatriques et en soulignant qu'elles sont la "conséquence de choix de développement industriel collectif."

      7. Conclusion : Les Enfants, Sentinelles des Politiques Publiques :

      Malgré les incertitudes scientifiques et la complexité multifactorielle des phénomènes, les maladies pédiatriques "révèlent des lacunes des politiques de protection des travailleurs et de l'environnement."

      "leur mise en évidence les doutes qu'elles soulèvent devraient être une invitation non pas à l'attente à l'inaction mais à une réflexion sur notre dépendance au produits chimiques et à une action collective pour s'en affranchir." (Prété)

    1. Document de synthèse : Les inégalités sociales et la santé sexuelle - L'exemple de l'avortement en France et dans le monde

      • Ce document de synthèse s'appuie sur la séance 2 du cours de Nathalie Bajos, "La production sociale des inégalités de santé", qui aborde les enjeux de sexualité et de santé sexuelle, en se concentrant sur l'exemple de l'avortement.

      Il vise à explorer les déterminants sociaux des pratiques liées à l'avortement, ses implications pour la santé des femmes, et les défis contemporains, notamment en France.

      I. L'avortement dans le monde : Une réalité universelle face à des législations hétérogènes

      La légalisation de l'avortement ne supprime pas sa pratique ; elle en modifie les conditions, avec des conséquences directes sur la santé des femmes.

      Légalisation et accès :

      • La carte de 2024 montre une grande variabilité des conditions d'accès à l'avortement dans le monde. La majorité de l'Europe, l'Australie, le Canada et l'Argentine l'autorisent "sur demande" (vert clair), mais cette notion est complexe et sujette à l'appréciation des professionnels de santé, révélant des rapports de pouvoir.

      • Dans d'autres régions, l'avortement est limité à la protection de la vie de la mère (rouge, ex : Brésil), ou totalement interdit.

      • Le cas des États-Unis (révocation de Roe v. Wade en juin 2022) illustre la fragilité des droits acquis, avec des États qui restreignent rapidement l'accès. Une étude a montré une augmentation de 7% des taux de mortalité infantile dans les mois suivant la révocation, principalement due à des anomalies congénitales qui auraient été précédemment interrompues.

      L'avortement malgré l'interdiction :

      • "Que l'avortement soit autorisé ou non, de toute façon les femmes y ont recours." Les restrictions n'empêchent pas les avortements, mais les forcent à être pratiqués dans des conditions sanitaires problématiques, entraînant une morbidité et une mortalité élevées.
      • Les données de l'Institut Allen Gutmacher (New York) confirment cette tendance : les taux d'avortement ne varient pas significativement entre les pays où il est autorisé, restreint ou interdit. Par exemple, même quand il est interdit, le taux de recours est de 39%.
      • Sous-déclaration : Les chiffres concernant l'avortement, surtout dans les pays où il est illégal, sont sous-déclarés, rendant les estimations minimales.

      Conséquences sanitaires des avortements non sécurisés :

      • L'OMS estime à plus de 60 millions d'avortements réalisés chaque année, dont près d'un sur deux n'est pas réalisé dans des conditions sanitaires satisfaisantes (soit au moins 35 millions).
      • Parmi ces avortements non sécurisés, un tiers sont réalisés par des personnes non formées utilisant des méthodes dangereuses (ex: aiguilles à tricoter), entraînant des perforations utérines et des décès.
      • Entre 5 et 13% des décès maternels sont attribués à des avortements non sécurisés.
      • Environ 7 millions de femmes sont hospitalisées chaque année pour des complications liées à un avortement non sécurisé.
      • L'interdiction de l'avortement est directement associée à des dizaines de milliers de problèmes de santé graves et à des décès de femmes.

      II. L'avortement en France : Un droit constitutionnalisé mais toujours sous tension

      En France, malgré la constitutionnalisation de la "liberté garantie" d'avorter le 28 février 2024 (suite à la loi Veil de 1975 et ses extensions), l'avortement reste un enjeu de santé publique et social.

      • Un processus en plusieurs étapes : Pour comprendre le recours à l'avortement, il est nécessaire de décomposer le processus :
      • Activité sexuelle sans intention de fécondité.
      • Absence ou échec de contraception.
      • Décision d'interrompre ou de poursuivre la grossesse.
      • Accès aux soins pour l'IVG.
      • Évolution de l'activité sexuelle et de la contraception :
      • L'activité sexuelle est plus fréquente et diversifiée aujourd'hui, avec un recul de l'âge de la première maternité, augmentant le nombre d'épisodes potentiellement concernés par une grossesse non prévue.
      • Le paysage contraceptif est en pleine évolution et pose problème :
      • Augmentation des femmes sans contraception : En 2023, près de 9% des femmes n'utilisent aucune méthode contraceptive, une proportion plus élevée chez les femmes immigrées et celles en bas de l'échelle sociale.
      • Déclin de la pilule : L'utilisation de la pilule a chuté de 56,4% en 2000 à moins de 50% en 2010, s'accélérant après la crise des pilules de 3ème et 4ème générations en 2012. Ce déclin est lié à une défiance générale envers les produits hormonaux et un mouvement vers des méthodes "plus naturelles" mais moins efficaces.
      • Réticence à la stérilisation et au stérilet : La stérilisation reste très faible en France par rapport à d'autres pays. Le stérilet (DIU), bien que promu par l'OMS comme méthode de première intention, a longtemps été prescrit avec réticence aux femmes nullipares en France, par crainte infondée de risques pour la fertilité. Il y a eu une "norme contraceptive française qui interdit la stérilisation" et stigmatise l'accès au stérilet pour les jeunes femmes.
      • Les méthodes de longue durée (DIU, implant) ont augmenté, mais des inégalités subsistent : l'implant est plus souvent prescrit aux femmes étrangères, reflétant des représentations stéréotypées des professionnels de santé sur leur capacité à gérer une contraception quotidienne.

      Augmentation des grossesses non souhaitées et des IVG : * La baisse de l'efficacité globale de la couverture contraceptive s'accompagne d'une augmentation du nombre de grossesses non souhaitées entre 2016 et 2023. * La France observe une augmentation des taux d'avortement depuis 2015 (particulièrement chez les 20-24 ans, mais présente dans toutes les tranches d'âge). * Le "paradoxe contraceptif" : Jusqu'à récemment, malgré une baisse des grossesses non prévues au niveau mondial (grâce à une meilleure contraception), les taux d'avortement sont restés stables. Cela s'explique par le fait qu'en cas de grossesse non prévue, les femmes l'interrompent plus facilement. Cependant, la tendance actuelle en France est à l'augmentation des grossesses non prévues en raison d'une moins bonne couverture contraceptive.

      III. La norme procréative et la décision d'avorter

      Le recours à l'IVG est profondément ancré dans des normes sociales, notamment la "norme procréative" et la "norme contraceptive".

      • La norme procréative : Elle dicte les "bonnes conditions" pour avoir des enfants (âge, nombre, stabilité relationnelle et financière). L'IVG est souvent un moyen de s'y conformer. "Le recours à l'IVG c'est une façon de respecter la norme procréative."
      • Évolution des représentations de la maternité :En 2023, une majorité de personnes (hommes et femmes) considèrent qu'une femme peut réussir sa vie sans avoir d'enfant.
      • Cette perception a connu une "évolution absolument spectaculaire" : en 2006, 28% des femmes pensaient qu'elles pouvaient réussir leur vie sans enfant, contre plus de 80% en 2023. Cette évolution est particulièrement marquée chez les jeunes générations et reflète un recul de la norme hétérosexuelle et une diversification de la sexualité.
      • La décision d'avorter est socialement construite :Le choix de poursuivre ou d'interrompre une grossesse est fortement influencé par le milieu social. Par exemple, une jeune femme issue d'un milieu favorisé en prépa à Paris aura plus souvent recours à l'IVG pour préserver une trajectoire professionnelle brillante.
      • À l'inverse, une jeune femme du même âge issue d'une zone défavorisée pourrait choisir de poursuivre la grossesse, car la maternité peut lui procurer un statut social que ses études ne lui apporteraient pas. "Ces études ne l'amèneront nulle part et ne lui permettront pas d'acquérir un statut social via une position professionnelle intéressante." La "bonne" décision varie selon les attentes sociales et les opportunités offertes par le milieu.

      IV. La pratique de l'avortement et la culpabilité des femmes

      Malgré la légalisation, l'avortement reste un acte médicalement et socialement complexe, qui génère encore de la culpabilité.

      • Évolution des représentations de l'IVG :
      • La perception selon laquelle il "ne devrait presque plus y avoir d'interruption volontaire de grossesse aujourd'hui" a fortement diminué entre 2010 et 2023. Aujourd'hui, plus de 50% des femmes de 18-24 ans considèrent que les IVG sont inévitables.
      • Cependant, les hommes montrent moins de changement dans leurs représentations.
      • Émotions ressenties après l'IVG :
      • Les femmes ressentent un "soulagement extrêmement élevé" après l'IVG, mais également une "culpabilité qui reste très forte". Près de 60% des jeunes femmes ressentent de la culpabilité, un taux encore plus élevé chez les 35-44 ans.
      • Les hommes semblent moins affectés par la culpabilité, notamment chez les plus jeunes.
      • Culpabilisation par les professionnels de santé :
      • Une femme sur cinq (20%) âgée de 20-24 ans déclare avoir entendu des "propos culpabilisants" de la part de professionnels de santé au moment de l'IVG.
      • Les IVG ne sont pas toutes jugées "légitimes" de la même manière par les professionnels : une IVG suite à un échec de stérilet est mieux perçue qu'une deuxième IVG ou une IVG en l'absence de contraception, qui peuvent être stigmatisées.
      • Le fait que l'avortement reste un "droit qui n'est pas comme les autres" est symboliquement lié à la persistance d'une "clause de conscience superfétatoire" pour les professionnels de santé, spécifique à l'IVG et à la stérilisation, bien qu'une clause de conscience générale existe déjà. Cette spécificité envoie un message symbolique fort.
      • Enjeux contemporains de l'avortement en France :
      • Peu gratifiant professionnellement : L'avortement est un acte "peu gratifiant professionnellement", ne favorisant pas les carrières médicales (contrairement à la PMA).
      • Problème de démographie médicale : Moins de médecins s'engagent dans cette pratique, en partie par manque de "conscience politique" chez les jeunes générations.
      • Difficultés d'accès : Persistance de problèmes d'accès, notamment dans les "déserts médicaux", affectant la rapidité et la qualité de la prise en charge.
      • Préférence pour l'IVG médicamenteuse : L'IVG médicamenteuse est de plus en plus privilégiée, parfois au détriment de l'IVG chirurgicale, limitant le choix des femmes et posant des problèmes en cas de retour à domicile difficile.
      • Le poids du discours : Les mouvements anti-avortement ont évolué : ils ne diabolisent plus les femmes comme "criminelles" mais comme des "victimes" qui manquent de moyens matériels pour poursuivre leur grossesse. Ils promeuvent l'idée d'un "syndrome post-traumatique" lié à l'avortement, bien que la littérature scientifique prouve son inexistence.
      • Persistance du stigmate : La phrase de Simone Veil, affirmant que l'avortement "était un drame et resterait toujours un drame", continue de peser. La stigmatisation de l'avortement est perçue comme un "rappel à l'ordre de genre", car les femmes qui avortent "dérogen" à leur rôle social reproductif.

      Conclusion :

      La compréhension du recours à l'avortement nécessite une analyse multidimensionnelle, intégrant les évolutions des pratiques sexuelles, des normes contraceptives et procréatives, et des interactions avec le système de santé.

      Malgré les avancées législatives, notamment en France, la culpabilité et la stigmatisation persistent, soulignant la nécessité de continuer à travailler pour que les femmes puissent avorter "sans culpabilité" et que ce droit soit pleinement intégré comme un droit de santé à part entière.

    1. Document de Synthèse : La Production Sociale des Inégalités de Santé et le Cas de l'Avortement en France

      • Ce document de synthèse s'appuie sur la présentation de Raphaël Perin, jeune sociologue, qui a mené une thèse sur les médecins et la pratique de l'avortement, et qui s'inscrit dans une nouvelle vague de recherche sociologique sur la santé sexuelle et reproductive en France, initiée notamment par Nathalie Bajos.

      La présentation met en lumière la manière dont la médecine, en prodiguant des soins, peut paradoxalement créer des inégalités de santé, en se basant sur le cas spécifique de l'avortement en France.

      1. Contexte de la Recherche et Importance du Sujet

      • Renouveau de la recherche sociologique en France : Après une longue période de quasi-absence, la recherche sociologique sur l'avortement et la contraception en France connaît un essor significatif. Nathalie Bajos souligne l'émergence d'une "vraie force de recherche dans ce domaine en France," avec de nombreuses thèses et la création d'un laboratoire dédié (Lab Genré Contraception).

      Cette masse critique de recherche permet de "produire des connaissances scientifiques et critiques sur le sujet."

      • Les inégalités de santé comme axe central : Les travaux de Raphaël Perin s'inscrivent dans la lignée des recherches de Nathalie Bajos sur les inégalités de santé, abordant spécifiquement le troisième niveau de production de ces inégalités : la prise en charge par le système de santé.

      L'objectif est de comprendre "la manière dont la médecine en soignant crée des inégalités de santé, ce qui peut paraître contre-intuitif."

      • Pertinence de l'avortement comme cas d'étude :Enjeux politiques et sanitaires : L'avortement est intrinsèquement lié à des questions politiques et sanitaires. Bien que légal en France, son accès égalitaire reste un défi. Dans les pays où il est illégal, il est une cause majeure de mortalité.
      • Portée démographique et sociale : En France, environ 220 000 IVG sont pratiquées par an, concernant "une femme sur trois au cours de sa vie, une femme sur sept recourt deux fois ou plus." Cette large portée, touchant "presque toutes les catégories sociales," en fait un terrain propice à "l'objectivation et à l'observation en série des différences de traitement par l'institution médicale."
      • Cas "contre-intuitif" d'inégalités : L'IVG est un acte médicalement sûr, sans diagnostic complexe (hors confirmation de grossesse intra-utérine) et la loi donne explicitement aux femmes le choix de la méthode. On s'attendrait donc "naïvement à ce qu'il n'y ait pas de variation et pas d'inégalité dans la prise en charge." C'est précisément ce contraste qui rend l'étude de l'avortement "particulièrement fécond[e] pour penser la production médicale des inégalités."

      2. Le Paradoxe de l'Accès à l'Avortement en France :

      Une Loi Simplifiée, une Pratique Complexe et Inégalitaire * Simplification législative théorique : La loi sur l'avortement a connu 50 ans de réformes successives, considérablement simplifiant le cadre légal. Les femmes n'ont plus l'obligation d'attendre une semaine de réflexion, de voir une psychologue, peuvent avorter à domicile, gratuitement, et à des termes plus avancés. Les étrangères non résidentes et les mineures ont également un accès facilité. * Complexité et inégalités pratiques : Malgré la loi, "en pratique l'avortement reste une pratique procréative stigmatisée, taboue" et "l'accès à l'avortement en particulier reste long, complexe, semé d'embûches et inégalitaire." La condition majeure est que l'acte doit être réalisé par un médecin ou une sage-femme, leur "marge de manœuvre dans cette application de la loi" devenant cruciale. * Méthodologie de la recherche : La thèse de Raphaël Perin s'appuie sur une enquête de 4 ans, incluant 6 mois d'observation dans trois centres d'IVG (grande métropole, ville moyenne avec équipe féministe, département rural sous-doté), des entretiens avec des professionnels de santé de toute la France et une enquête qualitative auprès de 1000 médecins.

      3. Les Inégalités d'Accès à l'Avortement en France :

      Variations selon les Médecins, les Centres et les Femmes Raphaël Perin révèle une "grande variation des parcours d'IVG, des modalités de l'avortement selon deux choses : selon les femmes qui le demandent et selon les médecins à qui elles le demandent ou les centres dans lesquels ils travaillent."

      • Variations liées aux professionnels de santé et aux centres :Rapidité du parcours : Malgré la suppression du délai d'attente obligatoire, la plupart des centres imposent un délai incompressible (1 à 2 jours, voire plus), tandis qu'une minorité permet l'avortement le jour même.
      • Terme gestationnel : Certains centres acceptent l'avortement dès le premier signe de retard de règles, d'autres contraignent les femmes à attendre que l'embryon soit visible à l'échographie, ce qui retarde la prise en charge de plusieurs semaines.
      • Limite de terme : Bien que la loi autorise jusqu'à 14 semaines, certains centres refusent au-delà de 10 ou 12 semaines pour des "raisons de refus de médecin[s] de pratiquer ce geste à des termes avancés." De plus, des "subtilités dans le calcul du terme de grossesse" peuvent entraîner des différences allant jusqu'à deux semaines d'un centre à l'autre pour la même grossesse.
      • Conditions imposées : De nombreux centres maintiennent des exigences non obligatoires, comme l'entretien psychosocial (rendu optionnel en 2001) ou la prise du premier médicament abortif au centre, ce qui est "non seulement assez infantilisante mais qui contraint le moment [...] du déclenchement de l'expulsion." Des "examens intimes et non obligatoires," comme le toucher vaginal, peuvent également être imposés.
      • Choix de la méthode : Le choix de la méthode (médicamenteuse ou instrumentale) n'est pas toujours laissé aux femmes. Si des médecins ne pratiquent pas l'IVG chirurgicale ou ne l'aiment pas, les femmes sont "contraintes ou fortement orientées" vers la méthode médicamenteuse.
      • Motivations des complications : "L'inertie d'une représentation de l'avortement comme étant un acte grave, dramatique, voire traumatique qu'il faut prévenir ou à minima défaut qu'il faut encadrer plutôt qu'un acte procréatif simple, sécurisé et banal." Ce n'est pas tant une opposition morale généralisée (le soutien au droit à l'avortement est "très fort, très répandu" parmi les médecins) qu'une réticence à le pratiquer soi-même et la conviction que "sans cet encadrement l'avortement va être traumatique pour les femmes." La phrase fréquente est : "On n'est pas là pour vider des utérus", signifiant que le cœur du travail est l'accompagnement et l'éducation, pas la simple interruption de grossesse.
      • Variations selon les femmes (valeur sociale) :Exemples flagrants de différenciation : Des cas concrets illustrent des traitements radicalement différents. Une étudiante infirmière blanche de 20 ans, sympathique, se voit accorder une exception pour avorter le jour même en urgence pour ne pas manquer ses partiels. Une femme noire nigériane anglophone de 28 ans issue d'un quartier populaire, demandant la même chose car habitant loin, se voit refuser catégoriquement, l'infirmière affirmant qu'aucune exception n'est possible.
      • Jugements moraux et "valeur sociale" : Inspiré de la sociologie de la différenciation des pratiques médicales, le concept de "valeur sociale" condense "les jugements moraux que portent les professionnels de santé sur les patients et patientes selon leur comportement et selon leurs caractéristiques sociales et en particulier leur position dans les rapports de classe de race et d'âge."
      • Critères de la "bonne avortante" : Les femmes les plus jeunes qui "ne peuvent vraiment pas avoir d'enfants aussitôt" et celles qui "ressemblent socialement aux professionnels de santé (plutôt les femmes blanches francophones de classe moyenne ou supérieure)" bénéficient d'une meilleure prise en charge. Les professionnelles de santé elles-mêmes accèdent à l'IVG avec un minimum de contraintes. Le "respect des normes sexuelles et procréatives" est également clé : avorter peu (une ou deux fois), adopter une contraception jugée efficace, avorter précocement, et afficher "un peu de détresse mais pas trop." Les "bonnes avortantes ont plus de chance d'être prises en charge rapidement, hors délais ou de pouvoir choisir les modalités de leur avortement."
      • Conclusion partielle : "Toutes les femmes ont droit à l'avortement en France mais certaines y ont plus droit que d'autres."

      4. La Domination Médicale et ses Mécanismes

      • La capacité des médecins à contrôler les modalités de l'avortement malgré la loi qui les place en "prestataire de service" est expliquée par le concept de "domination médicale."
      • Définition de la domination médicale : C'est un "rapport social spécifique" qui diffère du simple pouvoir. Le pouvoir est la capacité d'influencer autrui ; la domination est une forme particulière de pouvoir où celui-ci est "soit invisible, soit reconnu comme légitime, naturel ou bénéfique," intériorisé par les dominés et les dominants. Il s'agit d'une "asymétrie structurelle qui dépasse les simples contextes individuels de soins" et qui permet aux médecins de contrôler les comportements des patients.
      • Causes de l'asymétrie structurelle :Vulnérabilité physique ou psychologique des patients (maladie, grossesse).
      • Détention d'un savoir expert par les médecins.
      • Monopole légal de l'accès aux biens de santé (médicaments, infrastructures, droit de pratiquer).
      • La combinaison de ces facteurs crée une situation de "dépendance autant que de domination."
      • Mécanismes de contrôle des comportements :En amont : Interprétation de la loi : Les médecins définissent les règles du cadre de l'IVG (nombre et contenu des consultations, durée des parcours). L'exemple le plus frappant est la datation de la grossesse. La loi ne définit pas comment dater une grossesse jusqu'à 14 semaines. Bien que l'échographie soit utilisée, elle donne une image (taille du fœtus) et non un âge gestationnel précis. Les médecins fixent une "taille maximale de fœtus" au-delà de laquelle ils n'autorisent plus l'avortement, et cette taille varie d'un centre à l'autre selon leurs préférences morales ou politiques. Il peut y avoir "une différence allant jusqu'à 10 jours d'un centre à un autre de ce que c'est qu'une grossesse de 14 semaines." Cela rend le contrôle "complètement invisible cette dimension de pouvoir et de marge de manœuvre."
      • Dans l'interaction : Micro-techniques de pouvoir : Ces techniques s'appuient sur le "capital symbolique des médecins" (experts compétents et désintéressés).
      • Conseils : Présenter une option comme "la meilleure" pour la patiente ("l'implant c'est génial," "l'aspiration je vous le déconseille").
      • Menaces de complications sanitaires : Faire craindre des risques sur la fertilité pour encourager l'adoption d'une contraception, même si ces risques sont infondés (ex: "3 IVG pas de contraception vous risquez de pas réussir à en faire").
      • Appel à la loi ou au protocole : Invoquer une contrainte objective pour nier leur marge de manœuvre ("c'est la loi, c'est obligatoire, c'est le protocole").
      • Maîtrise du temps : Jouer sur les délais pour influencer le comportement ou le choix de méthode (proposer l'IVG médicamenteuse "tout de suite" et l'instrumentale "dans une ou deux semaines").
      • Le mensonge : Ces techniques "s'appuie[nt] assez largement sur le mensonge," qui, bien que commun, est difficile à "analyser le fait que les médecins mentent" en raison de leur capital symbolique.
      • Le consentement : Le consentement tel que pratiqué "ne correspond pas du tout à une adhésion libre et éclairée." L'asymétrie de la domination médicale "brouille la question du consentement." Il est "largement produit en amont de l'interaction et dans l'interaction médicale."

      5. Apprentissage de la Domination Médicale et Intersectionnalité

      • Socialisation des médecins : Devenir médecin, c'est aussi "intérioriser une des manière de faire, de penser et de sentir qui correspondent à leur position dans le rapport de domination," c'est "apprendre à exercer le pouvoir et à s'y sentir légitime." Cette socialisation peut inclure un "apprentissage pratique, scolaire presque du paternalisme," même si initialement les internes peuvent ne pas être à l'aise avec cette autorité.
      • Hétérogénéité de la profession médicale : Il est crucial de souligner que la médecine n'est pas homogène. Les parcours professionnels, les influences non professionnelles (génération, expérience personnelle de l'avortement, socialisation politique et engagement féministe) définissent des manières différentes d'exercer. Les médecins formés aux rapports sociaux de pouvoir ont de meilleures chances de ne pas reproduire les inégalités.
      • Intersection de la domination médicale et des rapports sociaux : La capacité des femmes à contrôler les modalités de leur avortement varie "plus ou moins selon qui elles sont." Les micro-techniques de pouvoir et le mensonge sont appliqués différemment.
      • Exemple de la consultation post-IVG : Une femme blanche de 25 ans se voit offrir le choix d'un examen de confirmation du succès de l'IVG. Une femme racisée voilée de 30 ans, avec un taux d'hormone tout aussi bon, se voit imposer un examen vaginal et une échographie, sans choix. La médecin justifie cela en estimant que la première femme est "plus structurée mentalement" et peut comprendre sans examen, tandis que la seconde n'aurait pas les "capacités mentales pour le comprendre," une différence basée uniquement sur "les caractéristiques sociales de ces deux femmes."
      • Inégalités du consentement et violences médicales : Le consentement "libre et éclairé" est une norme contraignante face à "certaines femmes." Celles "qui occupent une position dominée dans les rapports de classe et de race, les plus jeunes, celles qui s'écartent aussi des normes sanitaires et sexuelles ne sont pas jugés aussi responsable et capable de prendre des décisions éclairées." Le paternalisme devient un "devoir professionnel" envers elles. Les "violences médicales" (familiarité excessive, humiliation, sexualisation des patientes par des médecins hommes) sont plus susceptibles de survenir lorsque les patientes sont "en position socialement dominée" (femmes, enfants, femmes racisées, classes populaires précaires, personnes handicapées, minorités de genre ou sexuelles).
      • Racisme et altérité : Les femmes racisées et allophones sont non seulement "moins bien traitées médicalement" (stéréotypes racialisants, non-prise en compte de l'allophonie, refus de l'interprétariat), mais aussi "moins bien soignées en raison de la non prise en compte de leur halophonie [...] mais aussi parce qu'elles sont traitées avec moins de respect dans l'interaction." Des cas de "prises en charges ouvertement racistes" sont observés.

      6. Implications et Perspectives

      • Au-delà des inégalités territoriales : Les inégalités liées à l'avortement ne se limitent pas à l'offre de soins mais sont profondément ancrées dans les "pratiques concrètes des professionnels de santé," même ceux favorables aux droits à l'avortement.

      • Intérêt scientifique, médical et politique de l'analyse sociologique :Formation des médecins : L'analyse souligne l'importance de former les médecins aux rapports sociaux de pouvoir pour atténuer les inégalités de santé.

      • Politiques publiques et luttes pour les droits reproductifs : Le discours sociologique complète les discours existants en France :

      • Le "discours glorificateur des pouvoirs publics" qui "tendent à exagérer les acquis à considérer comme achever la lutte pour l'avortement."

      • Le "regard sombre porté à raison sur l'état actuel du droit à l'avortement et de ses évolutions" qui, en se concentrant sur ce qui pourrait être perdu, "conduit parfois à oublier ce qu'il reste à améliorer."

      • La recherche fournit des pistes pour une politique "non seulement défensive de ne pas perdre le droit à l'avortement mais de continuer à rendre ce droit plus effectif, plus égalitaire ou à continuer à le développer."

      • Redéfinition des inégalités de santé : Les inégalités de santé ne se limitent pas à l'accès aux soins ou aux différences de mortalité, mais incluent "la manière d'être traité, d'être considéré et de contrôler les conditions et les modalités de ces soins."

      • La médecine comme productrice de hiérarchies sociales : La domination médicale et la différenciation des pratiques créent des différences d'accès aux traitements et, au-delà, contribuent, aux côtés d'autres institutions, "au processus de production et d'intériorisation des hiérarchies sociales."

      La médecine "participe à les former en faisant de ces différences des marqueurs signifiant de supériorité ou d'infériorité et en y socialisant les patients."

      • En somme, il ne s'agit pas seulement de voir "ce que l'ordre social fait à la médecine," mais aussi "ce que la médecine fait à l'ordre social," en instituant et reproduisant des inégalités non seulement sanitaires mais aussi sociales.
    1. Note de synthèse : La production sociale des inégalités de santé au travail

      Introduction

      • Ce document de synthèse s'appuie sur la conférence de Nathalie Bajos (2024-2025) intitulée "La production sociale des inégalités de santé (13)", qui explore la question majeure des risques et accidents du travail, ainsi que des maladies professionnelles. L'objectif est de mettre en lumière l'ampleur et la complexité de ce phénomène, souvent sous-estimé et invisible, et d'analyser les mécanismes sociaux qui favorisent la production des inégalités de santé liées au travail.

        1. L'ampleur et l'invisibilité des risques et accidents du travail
      • La conférence souligne que le travail, dans tous les pays du monde, affecte la santé des individus. Il existe une causalité complexe et bidirectionnelle entre l'exposition professionnelle et l'état de santé, l'état de santé pouvant également influencer les trajectoires professionnelles.

      • Les chiffres officiels, bien que sous-estimés, témoignent de l'ampleur du problème :
      • En 2023, on comptait 1287 décès liés au travail, 555 803 accidents du travail et 47 434 maladies professionnelles.
      • Nathalie Bajos insiste sur le fait que ces chiffres ne représentent que « la partie visible de l'iceberg ». La sous-estimation est due au fait que les problèmes ne sont pas toujours connus, déclarés ou reconnus comme professionnels. Le système de l'assurance maladie, axé sur la gestion financière des rentes, contribue à cette sous-déclaration.
      • L'invisibilité sociale des accidents du travail et des maladies professionnelles est un problème majeur depuis au moins 30 ans.

      1.1. L'évolution préoccupante des conditions de travail

      • Les conditions de travail se sont dégradées en France et dans de nombreux pays européens depuis le début des années 1990. Cette dégradation est attribuée à :
      • L'intensification du travail : marquée par des délais courts et des rythmes de travail plus élevés, générant chez les actifs le sentiment d'être « empêché de fournir un travail de qualité ».
      • Le « travail pressé » : un nouveau modèle qui s'est imposé dans tous les secteurs, où plus de la moitié des actifs occupés doivent travailler « toujours ou souvent dans des délais très stricts et très courts ».
      • Le management par objectif et le « toyotisme » dévoyé : Initié pour sortir du taylorisme en fixant des objectifs aux équipes, ce modèle a souvent conduit à une rigidification avec des indicateurs de performance et du reporting permanent, « la fin de l'autonomie et compliqué à l'envie le travail des salariés ». Ce phénomène touche aussi bien le secteur privé que le public.
      • Contrastes avec les organisations apprenantes : Les pays d'Europe du Nord ont développé des organisations apprenantes où les salariés participent activement à l'élaboration des objectifs et disposent d'autonomie, ce qui se traduit par une plus grande satisfaction.

      1.2. Données sur les expositions physiques et psychosociales

      • Expositions physiques : Elles sont en hausse en Europe depuis les années 1990. En France, la proportion de salariés subissant au moins trois contraintes physiques a triplé en 30 ans (passant de 22% des ouvriers en 1984 à 62%).
      • En 2022, 35% des hommes et plus de 30% des femmes sont exposés à au moins trois contraintes physiques intenses (mouvements douloureux/fatigants, bruit intense, produits dangereux, fumées/poussières).
      • Les hommes sont plus exposés en moyenne, notamment aux produits dangereux et au bruit.
      • Les ouvriers sont systématiquement les plus touchés par ces contraintes physiques par rapport aux autres catégories socioprofessionnelles.
      • L'exposition aux produits cancérogènes reste élevée, notamment chez les ouvriers qualifiés (plus de 30% en Île-de-France en 2003).
      • La France se caractérise par une situation plus défavorable que la moyenne européenne et d'autres pays comme l'Allemagne ou les Pays-Bas concernant les postures douloureuses, le port de charges lourdes, l'exposition à des produits toxiques ou les mouvements répétitifs.
      • Risques psychosociaux (RPS) : Les nouveaux modes d'organisation du travail et les exigences croissantes de performance individuelle ont favorisé leur développement.
      • Les RPS ont dépassé pour la première fois les troubles musculo-squelettiques comme problème de santé le plus important lié au travail.
      • Travailler sous pression est plus fréquent chez les cadres (>40%), tandis que le sentiment d'inutilité est plus élevé chez les ouvriers.
      • L'exposition répétée au stress est clairement identifiée comme liée aux troubles mentaux, ainsi que l'intensité du travail, les contraintes horaires, les relations hiérarchiques, le manque de reconnaissance, et les violences au travail.
      • Coût économique : Les maladies et accidents liés au travail coûtent à l'Union européenne environ 476 milliards d'euros par an, soit 3% du PIB de l'UE, soulignant que cet enjeu est non seulement social mais aussi économique.

      2. Les facteurs de risque identifiés et leurs conséquences

      • De nombreuses études épidémiologiques identifient des facteurs de risque spécifiques associés à diverses pathologies :
      • Expositions mécaniques : postures inconfortables, mouvements répétitifs, manipulation de charges lourdes, vibrations (douleurs lombaires, troubles musculo-squelettiques).
      • Produits chimiques et biologiques : poussières, fumées, produits dangereux (cancers, maladies respiratoires).
      • Risques psychosociaux : intensité du travail, stress, manque d'autonomie, contraintes horaires, mauvaises relations hiérarchiques (troubles mentaux, dépression, burn-out).
      • Ces risques ont des effets à long terme sur le corps et la santé, souvent cumulatifs et se renforçant mutuellement.

      3. Les obstacles à la reconnaissance et à la visibilisation

      • Malgré l'ampleur du problème, plusieurs facteurs contribuent à l'invisibilité et à la méconnaissance des liens entre conditions de travail et santé :
      • 3.1. Phénomènes de sélection et limites méthodologiques

      • Effet du travailleur sain : Les personnes en mauvaise santé sont susceptibles d'éviter les expositions professionnelles et sont moins maintenues en emploi, ou ne sont pas embauchées, ce qui biaise les statistiques sur la santé au travail en les sous-estimant.

      • Temps de latence des pathologies : L'impact à court terme des conditions de travail est majoritairement étudié, alors que des pathologies comme les cancers ou maladies cardiovasculaires ont un temps de latence très long, rendant difficile la preuve d'un lien causal.
      • Incomplétude des données épidémiologiques :
      • Elles ne couvrent pas tous les problèmes de santé au travail.
      • Le choix des sujets d'étude et les méthodes d'analyse peuvent invisibiliser certains cancers professionnels, notamment chez les femmes. Les matrices emploi-exposition, majoritairement construites à partir d'emplois masculins, sont peu pertinentes pour les populations féminines, en particulier celles des milieux défavorisés (ex: agentes de nettoyage).

      3.2. Mécanismes sociaux et politiques d'invisibilisation

      • Selon Véronique Dobas Le Tourneux, la méconnaissance ne résulte pas seulement de problèmes techniques ou pathologiques, mais aussi de mécanismes sociaux et politiques qui conduisent à ne pas voir ou à masquer les risques.
      • Au niveau des travailleurs :
      • Déni face au risque : Les travailleurs peuvent nier le caractère pathogène de leur travail (ex: virilité dans le bâtiment, coiffeuses niant les dermatoses pour des raisons pratiques).
      • Pression et peur de perdre l'emploi : Les rapports de domination en entreprise et la précarité (notamment pour les intérimaires) dissuadent les salariés de signaler les risques (ex: maintenance des centrales nucléaires où les intérimaires sont exposés à des radiations élevées sans suivi médical adéquat).
      • Au niveau des entreprises :
      • Masquage des effets néfastes : Les entreprises peuvent chercher à masquer les dangers liés aux produits ou aux modes de management.
      • Système assurantiel et gestion individualisée : La loi de 1898, axée sur l'indemnisation financière, tend à individualiser le problème et à ne pas « questionner les conditions de survenu de l'événement ni par conséquent l'organisation du travail ».
      • Invisibilisation médiatique et politique : Les accidents du travail sont souvent traités comme des « faits isolés » ou des « faits divers » par la presse locale et les politiques, les privant de leur « dimension collective et de leur inscription dans des organisations du travail ».
      • Secteurs et populations concernées : Les secteurs les plus touchés (construction, agroalimentaire, intérim, transport, soin à la personne) et les populations les plus vulnérables (ouvriers, femmes employées, jeunes, intérimaires, peu qualifiés, sans-papiers) sont déjà marqués par une certaine précarité, ce qui « invite à passer sous silence aussi les blessures que ces populations subissent ». Le faible poids des syndicats dans ces secteurs est également un facteur.
      • Déclin de la médecine du travail : Le rôle des médecins du travail, acteurs centraux de la prévention, est de plus en plus réduit par les réorganisations légales et managériales.

      4. L'analyse des processus de survenue des accidents du travail (Véronique Dobas Le Tourneux)

      • Le travail de Véronique Dobas Le Tourneux met en lumière l'importance de « déconstruire un peu les processus qui conduisent à la survenue de ces événements » pour des politiques de prévention plus efficaces.
      • Baisse historique des accidents du travail : Si le nombre d'accidents a baissé depuis les années 1950 (due à l'évolution des structures d'emploi et aux améliorations de sécurité), cette baisse tend à se stabiliser depuis les années 1990.
      • Les accidents comme "événements sentinelles" : Même les accidents mineurs sont importants car ils peuvent alerter sur des situations de travail à risque et avoir des effets significatifs sur la vie quotidienne et la santé des individus.
      • La sous-déclaration administrative : Elle est due aux mécanismes de cotisation des entreprises (indexées sur le nombre d'accidents déclarés), à l'auto-culpabilisation des victimes, à la pression des collègues, et au manque de suivi des travailleurs en situation irrégulière ou précaires (intérimaires, sans-papiers).
      • Véronique Dobas Le Tourneux distingue trois types de situations d'accident :
      • Accidents bénins dans un contexte de travail préservé : Souvent dans les emplois administratifs, ces accidents sont généralement déclarés et reconnus, permettant une visibilité et la mise en place de mesures préventives.
      • Accidents relevant de risques permanents et connus : Les salariés connaissent les risques et les moyens de s'en protéger, mais les « injonctions de production » les empêchent de respecter les consignes (ex: pauses non prises). Le risque est en quelque sorte intégré par l'employeur. Ces accidents sont généralement déclarés sans difficulté.
      • Accidents dans des contextes de « mise en danger » ou de « prise de risque organisé » : C'est la situation la plus grave, touchant principalement les apprentis, jeunes peu qualifiés, nouvellement embauchés, et intérimaires. Ils ont une marge de manœuvre limitée. Les récits des salariés font état de « prises de risque forcées ».
      • Exemples : Un ouvrier déchargeant des tubes d'acier longs et lourds sans matériel adapté malgré un signalement ; une employée de restaurant glissant avec des chaussures inadaptées à cause d'une surcharge de travail et de contraintes vestimentaires.
      • Ces situations combinent « exigences productives et commerciales », « surcharge de travail » et « déstructuration des collectifs de travail ».
      • C'est dans ce type d'accident que les cas de non-déclaration sont les plus nombreux, alors que la gravité est la plus élevée.
      • Thomas Coutre est cité : « les choix en matière d'organisation du travail sont et ont toujours été produit socialement par un système de pouvoir conditionné par les rapports de forces sociaux. Et sous cet angle la notion d'efficacité économique n'est pas un concept abstrait et neutre mais résulte indissociablement du jeu conjoint des techniques de production et de domination. »
      • L'analyse de Véronique Dobas Le Tourneux souligne l'importance de s'éloigner de la perspective du « comportement individuel à risque » pour comprendre les accidents, et de se concentrer sur les « prises de risque organisées » induites par l'organisation du travail.
      • Conclusion et perspectives

      • La question des risques du travail est un phénomène complexe et multifactoriel qui requiert une approche holistique :

      • Nécessité de contextualiser : Il est fondamental de prendre en compte le contexte des conditions de travail et de l'organisation du travail, au-delà des aspects purement techniques.
      • Manque de données : Des données plus fines sont nécessaires, notamment sur les intérimaires, les dimensions de genre (bien qu'elles soient de plus en plus prises en compte) et les dimensions raciales, encore très absentes, alors que ces populations sont souvent les plus exposées.
      • Frontières du travail à redéfinir : La sociologue Maë Simonet est citée pour interroger la définition actuelle du travail, construite autour d'un sujet masculin, rémunéré, et productif. Il est crucial de penser conjointement le travail rémunéré et le « travail gratuit, visible et invisible » (domestique, associatif, soins, bénévolat), majoritairement exercé par les femmes et souvent source de risques et d'accidents non reconnus.
      • Recommandations politiques :
      • Développer des politiques de santé et sécurité au travail à la hauteur de la complexité du problème, avec des mesures préventives et réparatrices.
      • Aller au-delà du cadre actuel de reconnaissance et de réparation des accidents du travail et maladies professionnelles (loi de 1898).
      • Accroître les moyens pour la recherche (postes, financements) sur ce sujet.
      • Mettre en place des mesures législatives interdisant certains produits dangereux.
      • Renforcer le respect par les employeurs de leur devoir de protection de la santé physique et mentale des travailleurs, et le rôle de l'inspection du travail.
      • Enjeux macro-sociaux et politiques : Les causes profondes des inégalités de santé au travail résident dans les choix de société et les modèles d'organisation du travail aux niveaux français, européen et mondial.
    1. Note: This response was posted by the corresponding author to Review Commons. The content has not been altered except for formatting.

      Learn more at Review Commons


      Reply to the reviewers

      Note: This preprint has been reviewed by subject experts for Review Commons. Content has not been altered except for formatting.

      Reply to the Reviewers

      I thank the Referees for their...

      Referee #1

      1. The authors should provide more information when...

      Responses + The typical domed appearance of a hydrocephalus-harboring skull is apparent as early as P4, as shown in a new side-by-side comparison of pups at that age (Fig. 1A). + Though this is not stated in the MS 2. Figure 6: Why has only...

      Response: We expanded the comparison

      Minor comments:

      1. The text contains several...

      Response: We added...

      Referee #2

    2. Note: This preprint has been reviewed by subject experts for Review Commons. Content has not been altered except for formatting.

      Learn more at Review Commons


      Referee #2

      Evidence, reproducibility and clarity

      Enterovirus genomes contain an AUG triplet at the 3'-border of the IRES, often far upstream of the initiation codon for the principal ORF that encodes the viral polyprotein. Prior in vitro and in vivo studies have shown that this upstream AUG triplet (uAUG) initiates translation of a short polypeptide ("UP") encoded by an upstream ORF (uORF) that promotes viral infection in gut epithelial cells (Refs. 5, 6). In the present thorough and rigorously controlled study, O'Connor et al. extend these observations, thereby providing further insights into the regulatory and coding potential of translation of in alternate reading frames in viral mRNAs.

      They first undertook detailed analyses of almost 10000 enterovirus genomic sequences and determined that one third contained additional AUG triplets in the vicinity of the uAUG, collectively designated upstream uAUGs (uuAUGs), that could potentially initiate translation of uuORFs that are mostly very short but that in a few instances encode UP-related polypeptides.

      Systematic studies involving (a) ribosomal profiling and (b) the use of a dual luciferase reporter system showed that uuAUG triplets are recognized by ribosomes in infected cells and are functional albeit inefficient initiation codons. The uuAUG triplet in the enterovirus CVA-13 (Flores strain) initiates translation of an 8aa-long non-UP-like peptide, and the functional importance of this uuAUG was assayed by substituting it by a GUG triplet to downregulate uuORF translation. This mutation had no effect of infection in HeLa cells, but the uuAUG-containing (wt) virus had a competitive advantage over the mutant in mixed mutant/wt infections in terminally differentiated neuronal cells and in differentiated human intestinal organoids. This differential effect was similar to the previously reported competitive advantage conferred by UP expression during enterovirus infection in differentiated cells (Ref. 5). The function of non-UP-like proteins initiating at uuAUG codons remains unknown. However, elimination of stop codons that modify their length of uORFs modulated upstream ORF expression, although the mechanism responsible for this effect remains unknown. These results suggest that the interplay between initiation, termination and recycling steps on the 5'UTR of enteroviruses has the potential to affect viral pathogenicity.

      The data in the manuscript are strong, well controlled and validated. Elements of the manuscript could be presented more clearly.

      Minor comments

      1. Line 56. Domain 1 is a cloverleaf i.e. not just a stemloop.
      2. Fig. 4A, 5B, 8C. It would be informative to add an additional 5'-terminal nucleotide to the structure of the SL-VI region to show the Kozak context of the uuAUG codon.
      3. Figs. 8C, 8E, 8F. It might be more reader-friendly to replace structural models of sections of enterovirus 5'UTRs by a schematic representations to show uuORFs, uORFs, ppORFs etc and how altered stop codons affect their overlap. The corresponding section of the manuscript could also be presented in a more straightforward manner.
      4. Lines 473-4. This statement is incorrect, because eIF4G is required for IRES-dependent initiation. 2A-mediated cleavage of eIF4G does not abrogate IRES function because it splits off the non-essential N-terminal (eIF4E-binding) region from the critical C-terminal region that binds directly to enterovirus IRESs and recruits eIF4A (Ref. 7; PMID: 19470487).
      5. Ref. 27 is annotated incorrectly

      Significance

      The study reinforces and extends the authors' previous conclusions (Ref. 5, 13, 28, 31) that the genomes of positive-sense RNA viruses can and do have coding properties that are more complex than simply encoding a single open reading frame. Careful examination of a large panel of enterovirus genomes revealed a great diversity in coding potential, and the authors are right to suggest that further correlation of coding potential (particularly alternate ORFs/alternate reading frames) with pathogenic phenotypes is merited, particularly for variants of a single virus.

      This study also provides insights into the influence of alternative upstream open reading frames on viral fitness using strong experimental models (viral infection of differentiated cells and organoids in addition to HeLa cells), and appropriate methods (e.g. an innovative competition assay to compare the competitive advantage of co-infecting variants of a virus, sophisticated reporter assays). Although the mechanistic basis for the influence of uuORFs on enterovirus infection of cells remains to be fully elucidated, these studies indicate that the topic strongly merits further study. In consequence, this report will be of interest both to molecular virologists and to scientists with an interest in gene expression mechanisms.

    3. Note: This preprint has been reviewed by subject experts for Review Commons. Content has not been altered except for formatting.

      Learn more at Review Commons


      Referee #1

      Evidence, reproducibility and clarity

      This study provides a detailed analysis of upstream and "upstream upstream" open reading frames in enteroviruses from the Cosackiepol and Alphacoxsackie species. The work includes a comprehensive bioinformatic analysis of uORF and uuORF diversity and conservation across the EVs, along with characterization of these ORFs by Riboseq and reporter assays. The authors also include a characterization of the uORFs through the mutation of these ORFs in both cell lines and iPSC derived cells.

      The manuscript is detailed, the experiments rigorous, and their description clear. The work provides a number of orthogonal experiments to support the claims of the study.

      Significance

      General assessment: This work is of high quality, and an important addition to the literature on uORFs, though it doesn't provide much mechanistic insight into the function of these ORFs. It falls short in pushing our understanding of uORF function forward.

      • I wonder if the authors can expand their studies to address the potential mechanisms by which these ORFs function, whether through their translation or translation products.
      • Have the authors considered exploring the possible functions similar to cellular transcripts, e.g. what they reference in the discussion regarding ATF4, by modulating stress responses and assessing expression of uORF and ppORF? These studies would greatly enhance the additional insights the manuscript provides.
      • A more comprehensive accounting of the ORF diversity across the EV's would be a valuable analysis. Are there ORFs in the negative strand (as have been characterized in influenza), or elsewhere in the positive strand, that may have functions?

      In Fig. 7A: "iPCS" -> "iPSC"

      Advance: This work builds on the authors' previous characterization of the uORFs of related EV's. It provides further support consistent with their previous findings that these uORFs are of importance of these regions in the replication of the virus, especially in differentiated target tissues, suggesting they contribute to the pathogenesis of the virus as part of the known important role the IRES regions are known to play. How the translation, or the products of translation, function to confer this phenotype remains elusive.

      Audience: This will be of interest to virologists working on cryptic translational elements in viruses, which are found in many viruses, and sure to be discovered in more as we begin to appreciate their important role, however the findings are not likely to be especially relevant to very broad audience.

    1. Note de synthèse : La production sociale des inégalités de santé sexuelle chez les minorités de genre et sexuelles

      Cette synthèse s'appuie sur la présentation d'Emmanuel Bobati, sociologue et chercheur au CNRS, spécialiste des minorités sexuelles et de genre.

      Il aborde la production sociale des inégalités de santé, en particulier de santé sexuelle, chez les personnes LGBT (Lesbiennes, Gays, Bisexuels, Transgenres) en soulignant l'importance d'une approche critique des catégories utilisées et la nécessité d'inscrire la prévention dans des contextes sociaux et des trajectoires de vie complexes.

      Thèmes principaux et idées clés :

      Visibilité et vulnérabilité des recherches sur les minorités sexuelles et de genre en santé :

      • Les recherches sur les personnes LGBT sont souvent vulnérables, particulièrement dans des contextes politiques incertains pour leurs droits et leur santé.

      • Les minorités sexuelles et de genre sont fréquemment "laissées de côté" dans les recherches en santé, même si elles sont présentes dans les échantillons. Leurs inégalités sociales liées à leur sexualité ou trajectoire de genre sont peu visibles et thématisées.

      • Le domaine de la santé sexuelle est le principal champ où ces minorités sont prises en compte, et c'est souvent grâce à cette approche que les études sur l'homosexualité (depuis les années 80) et plus récemment sur les transidentités se sont développées.

      Historique et évolution des enquêtes sur la santé sexuelle des minorités :

      • Historiquement, la lutte contre le VIH/SIDA s'est focalisée sur les hommes gays cisgenres (personnes qui ne sont pas trans). L'enquête "Presse gay" (lancée par Michael Polac en 1984) en est un exemple.

      • Les femmes trans ont été particulièrement touchées par le VIH/SIDA, avec des taux de prévalence potentiellement supérieurs à ceux des hommes gays, ce qui a été confirmé empiriquement. Cependant, elles n'ont été intégrées aux politiques de santé publique qu'à partir des années 2010.

      • Les femmes lesbiennes sont "très largement sous-enquêtées dans le domaine de la santé sexuelle" malgré une prévalence d'infections sexuellement transmissibles (IST) plus élevée que chez les femmes hétérosexuelles.

      • Les enquêtes sur la sexualité en population générale, comme "Analyse des comportements sexuels en France" (1992) et "Contexte de la sexualité en France" (2006, codirigée par Nathalie Bajos), ont souligné les inégalités socio-sexuelles entre hommes et femmes, ainsi qu'entre hétérosexuels et homosexuels. Cependant, elles n'incluaient pas encore les personnes trans, ce qui est prévu pour l'enquête "Contexte des sexualités en France 2023" de l'INSERM.

      • L'enquête "Trans et santé sexuelle" (INSERM, 2010) a spécifiquement porté sur les populations trans, utilisant des méthodes mixtes (quantitatives et qualitatives).

      • L'approche constructiviste du risque et la production sociale des inégalités de santé sexuelle :

      • Les recherches s'intéressent à la "production sociale des inégalités de santé sexuelle", allant au-delà des comportements sexuels ou des "facteurs de risque" pour comprendre les conditions sociales de production de ces risques.

      • "Aucun groupe social n'est naturellement plus exposé au risque qu'un autre. Cette exposition est le résultat de logique sociale et notamment de rapports sociaux de domination."

      • Cette approche, qualifiée de "constructiviste du risque" ou "socio-culturelle du risque en santé sexuelle", met en lumière le fait qu'en raison des inégalités sexuelles et de genre, les personnes LGBT "ont plus de risque de rencontrer des risques que les personnes hétérosexuelles et cisgenres".

      Le genre comme rapport social et la transition comme mobilité sociale :

      • L'hypothèse centrale de la recherche de Bobati est que "les personnes trans sont en quelque sorte des transfuges", si l'on considère le genre comme un rapport social, à l'instar de la classe sociale (suivant les féministes matérialistes comme Christine Delphy, Colette Guillaumin, Danielle Kergoat).

      • La transition de genre peut être envisagée comme une "forme de mobilité sociale", une "mobilité de genre et conjointement une mobilité de sexualité".

      • Le concept de "passing" (se faire passer pour) est souvent utilisé pour le genre et la race, contrairement à la "mobilité sociale" pour la classe. Bobati critique cette distinction car elle tend à "naturaliser le genre et la race", impliquant une authenticité manquante.

      • Les populations trans sont des "populations minorisées", stigmatisées, opprimées et discriminées, et leur minorisation est due à leur mobilité même. Genre et sexualité sont "indissociables" dans cette minorisation.

      Les trajectoires trans et leurs implications pour la santé sexuelle :

      Il existe différentes trajectoires de transition :

      • Femmes trans qui transitionnent tardivement (autour de la cinquantaine) : Souvent après une première vie d'homme hétérosexuel, mariés et parents.

      • Femmes trans qui transitionnent jeunes : Plus à risque de marginalisation, isolement et précarité (difficultés à trouver un emploi stable, dépendance parentale). Elles sont plus concernées par le travail du sexe.

      • Hommes trans : Transitionnent majoritairement jeunes, dans de meilleures conditions sociales et matérielles que les jeunes femmes trans (moins de ruptures familiales, moins d'expérience de grande précarité). Leur trajectoire est plus homogène.

      • Ces trajectoires socio-sexuelles distinctes influencent la sexualité et le rapport au risque.

      Deux dimensions cruciales pour étudier la santé sexuelle des LGBT :

      • Hiérarchisation des risques (condition minoritaire) : Les risques liés à la santé sexuelle ne sont pas toujours la priorité principale pour les personnes LGBT confrontées à d'autres risques sociaux et psychosociaux :
      • Stigmatisation, marginalisation, précarisation, violence, discrimination.
      • Risque de "réassignation" (être renvoyé à son sexe d'origine) dans les interactions sociales et sexuelles, particulièrement pour les femmes trans.
      • Risque de violence dans la relation médicale, entraînant une réticence à consulter pour la santé sexuelle.
      • Ces risques sont inégalement vécus : les jeunes femmes trans sont les plus touchées par le risque de précarisation.
      • Socialisations sexuelles et préventives (mobilité sociale) :Avant la transition :Femmes trans transitionnant tardivement : Souvent hommes hétérosexuels avec une socialisation préventive minimale (compagne gérant la contraception).
      • Femmes trans ayant été gays : Ont une meilleure conscience du risque VIH/SIDA grâce à leur socialisation dans les milieux gays où la prévention est plus intégrée.
      • Hommes trans : Majoritairement lesbiens, avec une faible préoccupation de prévention (les lesbiennes étant peu ciblées par les politiques de santé publique en la matière).
      • Après la transition (mobilité sexuelle) :Les femmes trans tendent à s'hétérosexualiser ("l'hétérosexualité agit comme une fabrique très puissante de la féminité").
      • Les hommes trans tendent à s'homosexualiser/gayifier (un tiers ayant des relations avec des hommes après transition, plus que les hommes cisgenres). Devenir gay peut être un moyen de composer avec la "culpabilité" liée à l'ascension sociale et à la masculinité hégémonique.
      • Les dispositions préventives initiales survivent en partie à la transition. Certains "habitus de gestion du risque peuvent devenir insuffisants dans les nouvelles configurations sexuelles et relationnelles".
      • Les socialisations secondaires ne s'accomplissent pas comme les primaires. Il y a une "part d'inertie dans les trajectoires de transfuge".
      • Critique des catégories et le "paradoxe minoritaire" :
      • Le chercheur souligne le "paradoxe minoritaire" (Johan Scott) : pour déconstruire les catégories (hommes, femmes, hétéros, homos, trans, cisgenres), on est souvent contraint de les utiliser pour enquêter, communiquer et construire des politiques publiques.
      • Ces catégories sont des "labels qu'on ne questionne pas ou peu", alors qu'elles "rassemblent en fait des personnes et des groupes qui sont très différents les uns des autres" et ne sont "ni figées ni exclusives".
      • La sexualité et le genre sont pluriels et transversaux, non réductibles à un corps, une assignation ou une identité subjective. Ce sont avant tout des "rapports sociaux" qui "infusent l'ensemble de nos pratiques".
      • Il propose de penser le genre et la sexualité comme un "espace social" (inspiré de Bourdieu), au-delà des binarités homme-femme, hétéro-homo, cisgenre-trans.

      L'intersectionnalité des rapports sociaux :

      • Bobati insiste sur l'importance de l'intersectionnalité (Kimberlé Crenshaw), qui montre comment les rapports sociaux de genre, de race et de classe se coproduisent. "Selon la position sociale de race et de classe que l'on occupe on ne fait pas la même expérience du genre et de la sexualité et donc aussi de la santé sexuelle."
      • Cibler un groupe spécifique en santé publique (femmes, gays, trans, travailleurs du sexe) ne permet pas de s'adresser pertinemment à toutes les personnes du groupe, car les expériences sont diverses.
      • Les politiques de prévention destinées aux personnes trans dépendent fortement de celles destinées aux gays, lesbiennes, travailleuses du sexe ou même hommes hétérosexuels. La santé sexuelle de ces populations est interdépendante.

      L'universalisme minoritaire :

      • La présentation se termine sur le concept d'"universalisme minoritaire" (Bruno Perreau) : "protéger une minorité revient toujours à protéger bien au-delà de cette minorité".
      • La défense de la santé et des droits des LGBT bénéficie à l'ensemble de la société, "quelle que soit leur trajectoire de genre et de sexualité".

      En conclusion, la présentation d'Emmanuel Bobati met en lumière la complexité des trajectoires de genre et de sexualité et leur impact sur la santé sexuelle.

      Elle appelle à une approche sociologique fine, qui dépasse les catégories binaires et prend en compte la hiérarchisation des risques, les socialisations, les mobilités sociales et l'intersectionnalité, afin de mieux comprendre et adresser les inégalités de santé.

    1. Note d'information détaillée : La production sociale des inégalités de santé et la sexualité

      Source : Extraits de "La production sociale des inégalités de santé (9) - Nathalie Bajos (2024-2025)"

      Date de la présentation : 2024-2025

      Conférencière : Nathalie Bajos, sociologue au CNRS

      Introduction : La sexualité comme enjeu sociologique et de santé

      • Nathalie Bajos, sociologue au CNRS, aborde dans cette présentation la complexité de la sexualité humaine sous l'angle sociologique, en soulignant qu'elle n'est pas uniquement régie par des facteurs biologiques, contrairement à la sexualité animale.

      La sexualité humaine est "très large et peut se produire à tous les moments de la vie".

      L'objectif est de comprendre comment les enjeux de sexualité et de santé sont façonnés par des facteurs sociaux, notamment les risques liés à l'activité sexuelle (avortement, violences sexuelles, problèmes de santé mentale).

      L'analyse sociologique de la sexualité implique de recueillir des données sur :

      • Les actes (pratiques sexuelles diverses).
      • Les relations dans lesquelles ces pratiques prennent place (relations d'un soir, relations établies).
      • Les représentations sociales (légitimité ou interdit de certains actes), qui "évoluent comme on va le voir".
      • Les contextes sociaux particuliers, incluant les conditions de vie, les trajectoires personnelles, et surtout les rapports de domination.
      • Rapports de domination structurant les sociétés humaines
      • Nathalie Bajos insiste sur le rôle central des rapports de domination, "répéter répéter répéter encore", qui structurent toutes les sociétés humaines et qui renvoient à l'appartenance de genre, de classe et de "race".

      • Domination masculine : Le groupe social des hommes domine le groupe social des femmes, visible à travers des indicateurs comme les écarts de salaires, la sous-représentation des femmes dans les postes de pouvoir (présidentes, députées, dirigeantes d'entreprises) et la répartition des tâches domestiques.

      • Domination de classe : Les classes bourgeoises dominent les classes productrices (classes ouvrières), comme l'a souligné Karl Marx.
      • Rapports sociaux de "race" : Bien que la "race" n'existe pas en tant qu'entité biologique ("il y a une seule race humaine"), elle "tue" en raison des processus de discrimination.

      Ces rapports sociaux ne jouent pas indépendamment les uns des autres. Être une femme, par exemple, prend un sens différent selon la classe sociale ou la "race" :

      "Ce n'est pas la même chose si vous êtes une femme ouvrière noire et une femme ouvrière blanche".

      Le paradoxe de l'idéal égalitaire dans la sexualité Un paradoxe sociologique majeur réside dans la sphère de la sexualité : alors qu'un idéal égalitaire s'est diffusé dans d'autres sphères sociales (travail, famille, politique), la sexualité est la seule où cet idéal "résiste" et "peine encore à émerger".

      La majorité des gens pensent que "non les hommes et les femmes c'est pas pareil dans le domaine de la sexualité".

      L'hypothèse forte de cette résistance est que les représentations dans le domaine de la sexualité forment un "système cohérent" qui permet la "reproduction" des rapports sociaux de sexe.

      L'idée est que "le social ne s'arrête pas à la porte de la chambre à coucher" ; "Le sexuel est politique et n'est pas que intime".

      La vision biopsychologisante de la sexualité

      • La persistance d'une "vision biopsychologisante de la sexualité" est un mécanisme clé pour gérer les tensions entre un éthos égalitaire (où les hommes et les femmes devraient être égaux dans la société) et les pratiques sociales qui restent inégalitaires.

      Cette vision postule que les différences entre les femmes et les hommes sont d'origine "naturelle", justifiant ainsi les inégalités observées.

      Par exemple, une femme adhérant à l'idéal égalitaire mais subissant des inégalités dans sa carrière et les tâches domestiques peut "résoudre cette tension" en se disant : "oui mais finalement quelque part c'est normal on n'est pas pareil.

      La preuve dans le domaine de la sexualité les hommes et les femmes c'est très différent".

      Évolutions des pratiques et représentations de la sexualité en France

      L'exposé s'appuie sur quatre grandes enquêtes nationales sur la sexualité en France (1970, 1992, 2006, 2023), montrant une progression dans la prise en compte des dimensions de genre, classe et "race".

      Évolutions des pratiques :

      • Âge du premier rapport sexuel : L'écart entre filles et garçons s'est réduit au fil du temps, avec un rapprochement des courbes. Une remontée récente de l'âge d'entrée dans la sexualité est observée, attribuée non seulement au Covid-19, mais aussi aux effets de la crise économique qui a retardé l'accès des jeunes à l'autonomie sociale et financière, le premier rapport étant un "marqueur d'une entrée dans une socialisation adulte".
      • Prolongement de la vie sexuelle : La vie sexuelle se prolonge beaucoup plus aux âges avancés qu'auparavant. L'âge de la ménopause (environ 50 ans) n'est plus le "coup près du sortir entre guillemets du marché de la sexualité" pour les femmes, rompant avec une conception de la sexualité féminine liée uniquement à la reproduction. Cependant, une inégalité persiste, les hommes ayant souvent des partenaires plus jeunes.
      • Diversification des partenaires : Le nombre moyen de partenaires sexuels déclarés a "spectaculairement" augmenté entre 1992 et 2023 pour les femmes (passant de 3,4 à 7,9) et pour les hommes (de 11,2 à 16,4). L'écart persistant entre hommes et femmes s'explique par une "définition d'un partenaire sexuel [qui] n'est pas la même pour les femmes et pour les hommes". Les femmes ont tendance à ne compter que "les hommes qui ont compté", c'est-à-dire des relations potentiellement sérieuses, tandis que les hommes comptabilisent aussi les partenaires d'un soir. Cela reflète la valorisation de la sexualité masculine dans sa "grande diversité" et la construction de la sexualité féminine autour de son "rôle reproductif".
      • Sexualité en ligne : Une partie croissante de la sexualité s'exerce dans les espaces numériques, avec un pourcentage élevé de jeunes ayant envoyé des images intimes.
      • Diversification des pratiques : La masturbation, la fellation, le cunnilingus et la pénétration anale sont des pratiques de plus en plus déclarées. L'augmentation spectaculaire de la masturbation chez les femmes (de 42% en 1992 à 73% aujourd'hui) "signe la possibilité pour les femmes de vivre une sexualité beaucoup plus dégagée des enjeux liés à la relation et liés aux représentations sur le rôle reproductif des femmes".
      • Sexualité non hétérosexuelle : La sexualité non hétérosexuelle est de plus en plus fréquente, surtout chez les jeunes et les jeunes femmes. Un indicateur global de "distance avec la norme hétérosexuelle" montre que 37,6% des femmes et 18,3% des hommes de 18-29 ans s'en écartent d'une manière ou d'une autre (attraction pour le même sexe, partenaire de même sexe, identité homo/bisexuelle).
      • Évolutions des représentations :
      • Sexualité récréative : L'acceptation d'avoir des rapports sexuels sans aimer la personne est en nette augmentation, surtout chez les jeunes et les femmes, marquant une "prise de distance très claire vis-à-vis du modèle de la sexualité hétérosexuelle en couple et cetera monogame".
      • Besoins sexuels par nature : L'idée que "par nature les hommes ont plus de besoins sexuels que les femmes" est de plus en plus rejetée, en particulier par les jeunes femmes (45% des 18-29 ans la rejettent), bien qu'elle reste majoritaire dans la population générale. Cette représentation est dénoncée comme une construction sociale sans fondement biologique, servant à "contrôler la sexualité des femmes".
      • Satisfaction sexuelle :
      • Malgré les "bouleversements" dans les pratiques et représentations, la satisfaction sexuelle est restée stable, voire légèrement augmentée chez les hommes. Cela contredit l'idée d'une "guerre des sexes" ou d'une perte de repères pour les hommes face à la libération de la sexualité féminine.

      Mythes, pratiques et tensions : Exemples concrets La présentation illustre comment le mythe des besoins sexuels masculins "par nature" façonne les expériences individuelles et génère des tensions :

      • Anne (23 ans) : Adhère à l'idée que les hommes ont des besoins physiques (besoin de "se vider") et "aide" son partenaire à prendre plaisir, même sans désir, pour éviter qu'il ne tombe "malade". Cela montre une intériorisation de la vision "médicalement reconnue" de cette nécessité masculine.
      • Éric (30 ans) : Croit en des besoins masculins "plus réguliers et plus physiques" et un appétit féminin qui "s'amoindrirait avec le temps". Face à une partenaire jeune ayant de forts besoins, il l'interprète comme une exception due à son jeune âge, maintenant sa représentation du "corps mécanique" masculin et du "corps systémique" (plus psychologique) féminin.
      • Arnaud (31 ans) : Rejette l'idée que les hommes aient plus d'envies, la qualifiant de "conneries culturelles qui permettent de contrôler la sexualité des femmes". Son expérience dans les cercles homosexuels le confronte néanmoins à une "culture de la virilité" et de la "performance" qui le met en décalage.
      • Muriel (55 ans) : Ayant longtemps cru à la supériorité des besoins masculins, elle a développé un regard critique, découvrant le plaisir physique et une sexualité harmonieuse et réciproque, en phase avec ses représentations égalitaires.
      • Sexualité contrainte et violences sexuelles
      • L'adhésion à la représentation que "par nature les hommes ont plus de besoins sexuels que les femmes" est fortement liée à la "sexualité plus contrainte pour les femmes". Les femmes qui adhèrent le plus à cette idée sont celles qui déclarent le plus souvent avoir des rapports sexuels sans en avoir envie "pour lui faire plaisir".

      La présentation met en évidence un "continuum" de contrainte dans la sexualité, où les rapports imposés sont "l'expression la plus violente la plus ultime".

      • Déclarations de violences : Les rapports forcés ou tentatives de rapport forcé sont "extrêmement élevées" : 37% des femmes de 18-29 ans et 12% des hommes déclarent en avoir subi. Dans plus de 95% des cas, l'agresseur est un homme.
      • Violences en ligne : Harcèlement sexuel, réception d'images intimes non sollicitées, diffusion d'images à l'insu sont également significatives (33% des femmes, 25% des hommes de 18-29 ans).
      • Augmentation des déclarations : L'augmentation des déclarations de violences est due à une plus grande facilité à en parler (climat social, enquêtes) et à une évolution de la "définition de ce que c'est qu'une violence" (ex: viol conjugal reconnu depuis 1982).
      • Profil des victimes : Les violences touchent tous les milieux sociaux mais sont plus fréquentes dans des situations de "grandes inégalités entre les partenaires" (dépendance économique, sociale, culturelle).
      • Impact sur les minorités sexuelles : Les personnes ayant une sexualité non strictement hétérosexuelle sont beaucoup plus confrontées aux violences (45% des jeunes femmes non hétérosexuelles vs 31% des hétérosexuelles) et aux problèmes de santé mentale (dépression sévère deux fois plus élevée). Cela est lié aux "multiples discriminations" subies.

      Conclusion et enjeux pour les politiques publiques

      En résumé, il y a une "plus grande diversité des pratiques sexuelles", remettant en question la norme hétérosexuelle et signalant un "mouvement de fond vers une plus grande égalité entre les sexes et entre les sexualités".

      Cependant, des "résistances" et des "discriminations" subsistent, empêchant certains groupes de vivre leur sexualité librement.

      Les enjeux de santé liés à la sexualité (VIH/SIDA, avortement) doivent être compris et interprétés en lien avec le contexte social des sexualités, c'est-à-dire les pratiques, les représentations et les rapports de domination.

      La prévention doit dépasser la logique strictement sanitaire pour s'inscrire dans le contexte social.

      Pour les politiques publiques, cela implique :

      • La lutte contre les inégalités sociales, les stéréotypes et les discriminations.
      • L'éducation à l'égalité et aux sexualités.
      • La question centrale de l'effectivité des droits sexuels et reproductifs, dont l'application quotidienne peut encore poser problème (exemple de l'avortement).
    1. Restorative or functional intervention may be required if tooth surface loss is pathological or ifthere has been advanced loss of tooth structure. The first stage of treatment involves managingany associated conditions, such as fractured teeth or sharp cusps or incisal edges. These can beresolved by restoring and polishing sharp cusps. Then, desensitizing agents such as topicalfluoride varnishes can be applied, and at home desensitising toothpastes recommended. Manyrestorative options have been proposed, such as direct composite restorations, bonded castmetal restorations, removable partial dentures, orthodontic treatment, crown lengtheningprocedures and protective splints. The decision to restore the dentition depends on the needs ofthe patient, the severity of tooth surface loss and whether tooth surface loss is active. The use ofadhesive materials to replace lost tooth structure can be performed as a conservative and cost-effective approach before a more permanent solution of crowns or veneers is considered.

      ① Restorative or functional intervention may be required if tooth surface loss is pathological or if there has been advanced loss of tooth structure. ① Diş yüzeyi kaybı patolojik ise veya ileri derecede diş dokusu kaybı varsa, restoratif veya fonksiyonel müdahale gerekebilir.

      ② The first stage of treatment involves managing any associated conditions, such as fractured teeth or sharp cusps or incisal edges. ② Tedavinin ilk aşaması, kırık dişler veya keskin tüberküller ya da insizal kenarlar gibi ilişkili durumların yönetilmesini içerir.

      ③ These can be resolved by restoring and polishing sharp cusps. ③ Bu durumlar, keskin tüberküllerin restore edilip parlatılmasıyla çözülebilir.

      ④ Then, desensitizing agents such as topical fluoride varnishes can be applied, and at home desensitizing toothpastes recommended. ④ Daha sonra, topikal flor vernikleri gibi desensitizasyon ajanları uygulanabilir ve evde desensitizan diş macunları önerilir.

      ⑤ Many restorative options have been proposed, such as direct composite restorations, bonded cast metal restorations, removable partial dentures, orthodontic treatment, crown lengthening procedures and protective splints. ⑤ Direkt kompozit restorasyonlar, bağlanmış döküm metal restorasyonlar, çıkarılabilir parsiyel protezler, ortodontik tedavi, kron boyu uzatma prosedürleri ve koruyucu splintler gibi birçok restoratif seçenek önerilmiştir.

      ⑥ The decision to restore the dentition depends on the needs of the patient, the severity of tooth surface loss and whether tooth surface loss is active. ⑥ Dişlerin restorasyon kararı, hastanın ihtiyaçlarına, diş yüzeyi kaybının şiddetine ve kaybın aktif olup olmadığına bağlıdır.

      ⑦ The use of adhesive materials to replace lost tooth structure can be performed as a conservative and cost-effective approach before a more permanent solution of crowns or veneers is considered. ⑦ Kaybedilen diş dokusunu yerine koymak için adeziv materyallerin kullanımı, kron veya veneer gibi daha kalıcı çözümler düşünülmeden önce koruyucu ve maliyet etkin bir yaklaşım olarak yapılabilir.

    2. It is important to record severity of tooth wear for monitoring purposes, helping to differentiatebetween pathological and physiological tooth surface loss. It is essential to determine whetherthe tooth wear is ongoing or has stabilized. However where generalised, the underlying causecan be assumed to be bruxism. In fast-progressing cases, there is commonly a coexisting erosivediet contributing to tooth surface loss.

      ① It is important to record severity of tooth wear for monitoring purposes, helping to differentiate between pathological and physiological tooth surface loss. ① Takip amaçları için diş aşınmasının şiddetini kaydetmek önemlidir; bu, patolojik ve fizyolojik diş yüzeyi kaybını ayırt etmeye yardımcı olur.

      ② It is essential to determine whether the tooth wear is ongoing or has stabilized. ② Diş aşınmasının devam edip etmediğinin ya da stabilize olup olmadığının belirlenmesi esastır.

      ③ However where generalised, the underlying cause can be assumed to be bruxism. ③ Ancak, aşınma yaygın ise, altında yatan nedenin bruksizm olduğu varsayılabilir.

      ④ In fast-progressing cases, there is commonly a coexisting erosive diet contributing to tooth surface loss. ④ Hızlı ilerleyen vakalarda, genellikle diş yüzeyi kaybına katkıda bulunan eş zamanlı bir aşındırıcı diyet bulunur.

    3. ttrition may be entirely asymptomatic, or there may be dentinhypersensitivity secondary to loss of the enamel layer, or tenderness of the periodontal ligamentcaused by occlusal trauma.

      ① Attrition may be entirely asymptomatic, or there may be dentin hypersensitivity secondary to loss of the enamel layer, or tenderness of the periodontal ligament caused by occlusal trauma. ① Aşınma tamamen belirti vermeyebilir veya mine tabakasının kaybına bağlı olarak dentin hassasiyeti ya da oklüzal travmaya bağlı periodontal ligament hassasiyeti olabilir.

    4. Erosion softens the dental hard tissues making them more susceptible to attrition. Thus, iferosion and bruxism both exist, surface loss due to attrition is faster. Severe attrition in youngpatients is usually associated with erosive factors in their diets. The different physiologicalprocesses of tooth wear (abrasion, attrition and erosion) usually occur simultaneously and rarelywork individually. Therefore, it is important to understand these tooth wear processes and theirinteractions to determine causes of tooth surface loss. Demineralization of the tooth surface dueto acids can cause occlusal erosion as well as attrition. Wedge-shaped cervical lesions arecommonly found in association with occlusal erosion and attrition.

      ① Erosion softens the dental hard tissues making them more susceptible to attrition. ① Erozyon, diş sert dokularını yumuşatarak onları aşınmaya karşı daha hassas hale getirir.

      ② Thus, if erosion and bruxism both exist, surface loss due to attrition is faster. ② Bu nedenle, eğer hem erozyon hem de bruksizm birlikte mevcutsa, aşınmaya bağlı yüzey kaybı daha hızlı olur.

      ③ Severe attrition in young patients is usually associated with erosive factors in their diets. ③ Genç hastalardaki şiddetli aşınma genellikle diyetlerindeki erozyon faktörleri ile ilişkilidir.

      ④ The different physiological processes of tooth wear (abrasion, attrition and erosion) usually occur simultaneously and rarely work individually. ④ Diş aşınmasının farklı fizyolojik süreçleri (abrazyon, aşınma ve erozyon) genellikle aynı anda gerçekleşir ve nadiren tek başına çalışırlar.

      ⑤ Therefore, it is important to understand these tooth wear processes and their interactions to determine causes of tooth surface loss. ⑤ Bu nedenle, diş yüzeyi kaybının nedenlerini belirlemek için bu aşınma süreçlerini ve etkileşimlerini anlamak önemlidir.

      ⑥ Demineralization of the tooth surface due to acids can cause occlusal erosion as well as attrition. ⑥ Asitlerin neden olduğu diş yüzeyi demineralizasyonu, oklüzal erozyonun yanı sıra aşınmaya da yol açabilir.

      ⑦ Wedge-shaped cervical lesions are commonly found in association with occlusal erosion and attrition. ⑦ Kama şeklindeki servikal lezyonlar genellikle oklüzal erozyon ve aşınma ile birlikte bulunur.

    5. The etiology of dental attrition is multifactorial one of the most common causes of attritionis bruxism, one of the major causes being the use of entactogenic drugs. Bruxism is the para-functional movement of the mandible, occurring during the day or night. It can be associatedwith presence of audible sound when clenching or grinding the teeth. This is usually reported byparents or partners if the grinding occurs during sleep. In some cases, dental erosion is alsoassociated with severe dental attrition.

      ① The etiology of dental attrition is multifactorial one of the most common causes of attrition is bruxism, one of the major causes being the use of entactogenic drugs. ① Diş aşınmasının etiyolojisi multifaktöriyeldir; aşınmanın en yaygın nedenlerinden biri bruksizmdir ve önemli nedenlerden biri entaktogenik ilaçların kullanımıdır.

      ② Bruxism is the para-functional movement of the mandible, occurring during the day or night. ② Bruksizm, gündüz veya gece meydana gelen mandibulanın parafonksiyonel hareketidir.

      ③ It can be associated with presence of audible sound when clenching or grinding the teeth. ③ Dişleri sıkarken veya gıcırdatırken işitilebilir seslerin varlığı ile ilişkilendirilebilir.

      ④ This is usually reported by parents or partners if the grinding occurs during sleep. ④ Bu durum genellikle uyku sırasında gıcırdatma olursa ebeveynler veya eşler tarafından bildirilir.

      ⑤ In some cases, dental erosion is also associated with severe dental attrition. ⑤ Bazı durumlarda, şiddetli diş aşınması ile birlikte diş erozyonu da görülür.

    6. disruption or dysfunction of the joint can result in compromised function and complications suchas bruxism and clenching of the jaw may arise

      ① Apart from the location of the above cervical lesions, attrition is also a tooth loss that is apart from caries. ① Yukarıdaki servikal lezyonların yeri dışında, aşınma (attrition) da çürükten bağımsız bir diş kaybıdır.

      ② Dental attrition is tooth wear caused by tooth to tooth contact. ② Diş aşınması, dişlerin birbirine temasından kaynaklanan diş aşınmasıdır.

      ③ Attrition occurs as a result of opposing tooth surfaces contacting. ③ Aşınma, karşıt diş yüzeylerinin temas etmesi sonucu oluşur.

      ④ The contact can affect cuspal, incisal and proximal surface areas. (Well-defined wear facets appear on tooth cusps or ridges). ④ Temas, dişlerin tüberkül, kesici ve komşu yüzey bölgelerini etkileyebilir. (Diş tüberkül veya sırtlarında belirgin aşınma yüzeyleri oluşur).

      ⑤ This can be caused by several factors, including parafunctional habits such as bruxism or clenching, developmental defects, hard or rough-textured diet, and absence of posterior teeth support. ⑤ Bu, bruksizm veya sıkma gibi parafonksiyonel alışkanlıklar, gelişimsel defektler, sert veya pütürlü dokuya sahip diyet ve posterior diş desteğinin olmaması gibi çeşitli faktörlerden kaynaklanabilir.

      ⑥ If the natural teeth oppose or occlude with porcelain restorations, then accelerated attrition of the natural teeth may result. ⑥ Doğal dişler porselen restorasyonlarla karşılaştığında veya kapanış yaptığında, doğal dişlerde hızlanmış aşınma meydana gelebilir.

      ⑦ Similarly, when an edge to edge class III incisal relationship is present dental attrition can occur. ⑦ Benzer şekilde, kenetleşmiş sınıf III kesici ilişkisi varsa diş aşınması oluşabilir.

      ⑧ The underlying cause of attrition may be related to the temporomandibular joint as a disruption or dysfunction of the joint can result in compromised function and complications such as bruxism and clenching of the jaw may arise. ⑧ Aşınmanın temel nedeni temporomandibular eklem ile ilgili olabilir; eklemdeki bozukluk veya işlev kaybı, fonksiyonun bozulmasına yol açabilir ve bruksizm ile çene sıkma gibi komplikasyonlar ortaya çıkabilir.

    7. Apart from the location of the above servical lesions, attrition is also a tooth loss that is apartfrom caries. Dental attrition is tooth wear caused by tooth to tooth contact. Attrition occurs as aresult of opposing tooth surfaces contacting. The contact can affect cuspal, incisal and proximalsurface areas. (Well-defined wear facets appear on tooth cusps or ridges). This can be caused byseveral factors, including parafunctional habits such as bruxism or clenching, developmentaldefects, hard or rough-textured diet, and absence of posterior teeth support. If the natural teethoppose or occlude with porcelain restorations, then accelerated attrition of the natural teeth mayresult. Similarly, when an edge to edge class III incisal relationship is present dental attrition canoccur. The underlying cause of attrition may be related to the temporomandibular joint as a

      ① Apart from the location of the above cervical lesions, attrition is also a tooth loss that is apart from caries. ① Yukarıdaki servikal lezyonların yeri dışında, aşınma (attrition) da çürükten bağımsız bir diş kaybıdır.

      ② Dental attrition is tooth wear caused by tooth to tooth contact. ② Diş aşınması, dişlerin birbirine temasından kaynaklanan diş aşınmasıdır.

      ③ Attrition occurs as a result of opposing tooth surfaces contacting. ③ Aşınma, karşıt diş yüzeylerinin temas etmesi sonucu oluşur.

      ④ The contact can affect cuspal, incisal and proximal surface areas. (Well-defined wear facets appear on tooth cusps or ridges). ④ Temas, dişlerin tüberkül, kesici ve komşu yüzey bölgelerini etkileyebilir. (Diş tüberkül veya sırtlarında belirgin aşınma yüzeyleri oluşur).

      ⑤ This can be caused by several factors, including parafunctional habits such as bruxism or clenching, developmental defects, hard or rough-textured diet, and absence of posterior teeth support. ⑤ Bu, bruksizm veya sıkma gibi parafonksiyonel alışkanlıklar, gelişimsel defektler, sert veya pütürlü dokuya sahip diyet ve posterior diş desteğinin olmaması gibi çeşitli faktörlerden kaynaklanabilir.

      ⑥ If the natural teeth oppose or occlude with porcelain restorations, then accelerated attrition of the natural teeth may result. ⑥ Doğal dişler porselen restorasyonlarla karşılaştığında veya kapanış yaptığında, doğal dişlerde hızlanmış aşınma meydana gelebilir.

      ⑦ Similarly, when an edge to edge class III incisal relationship is present dental attrition can occur. ⑦ Benzer şekilde, kenetleşmiş sınıf III kesici ilişkisi varsa diş aşınması oluşabilir.

      ⑧ The underlying cause of attrition may be related to the temporomandibular joint as a disruption or dysfunction of the joint can result in compromised function and complications such as bruxism and clenching of the jaw may arise. ⑧ Aşınmanın temel nedeni temporomandibular eklem ile ilgili olabilir; eklemdeki bozukluk veya işlev kaybı, fonksiyonun bozulmasına yol açabilir ve bruksizm ile çene sıkma gibi komplikasyonlar ortaya çıkabilir.

    8. The clinician should look for the clinical appearance of teeth for erosion, abrasion and/orabfraction which can be broad, shallow saucer shaped defect or notched ‘V’ shaped defect withsharp margins or wedge shaped defect.• Look for any abnormal signs of traumatic occlusion like mobile teeth, tilted teeth, abnormaltooth wear, cross bite, deep bite, poorly occluding teeth, with malalignment and open contacts,etc. These occlusal problems can result in noncarious cervical tooth loss.

      ① The clinician should look for the clinical appearance of teeth for erosion, abrasion and/or abfraction which can be broad, shallow saucer shaped defect or notched ‘V’ shaped defect with sharp margins or wedge shaped defect. ① Klinik hekim, dişlerde erozyon, aşınma ve/veya abfraksiyon belirtilerine bakmalıdır; bu belirtiler geniş, sığ tabak şeklinde, çentikli ‘V’ şeklinde keskin kenarlı ya da kama şeklinde defektler olabilir.

      ② Look for any abnormal signs of traumatic occlusion like mobile teeth, tilted teeth, abnormal tooth wear, cross bite, deep bite, poorly occluding teeth, with malalignment and open contacts, etc. ② Hareketli dişler, eğik dişler, anormal diş aşınması, çapraz kapanış, derin kapanış, kötü kapanan dişler, malpozisyon ve açık temaslar gibi travmatik oklüzyona dair anormal belirtiler aranmalıdır.

      ③ These occlusal problems can result in noncarious cervical tooth loss. ③ Bu oklüzal problemler, çürük dışı servikal diş kaybına neden olabilir.

    Annotators

    1. Author response:

      The following is the authors’ response to the previous reviews.

      Public Reviews:

      Reviewer #1 (Public Review):

      Overall, the data presented in this manuscript is of good quality. Understanding how cells control RPA loading on ssDNA is crucial to understanding DNA damage responses and genome maintenance mechanisms. The authors used genetic approaches to show that disrupting PCNA binding and SUMOylation of Srs2 can rescue the CPT sensitivity of rfa1 mutants with reduced affinity for ssDNA. In addition, the authors find that SUMOylation of Srs2 depends on binding to PCNA and the presence of Mec1.

      Comments on revisions:

      I am satisfied with the revisions made by the authors, which helped clarify some points that were confusing in the initial submission.

      Thank you.

      Reviewer #2 (Public Review):

      This revised manuscript mostly addresses previous concerns by doubling down on the model without providing additional direct evidence of interactions between Srs2 and PCNA, and that "precise sites of Srs2 actions in the genome remain to be determined." One additional Srs2 allele has been examined, showing some effect in combination with rfa1-zm2. Many of the conclusions are based on reasonable assumptions about the consequences of various mutations, but direct evidence of changes in Srs2 association with PNCA or other interactors is still missing. There is an assumption that a deletion of a Rad51-interacting domain or a PCNA-interacting domain have no pleiotropic effects, which may not be the case. How SLX4 might interact with Srs2 is unclear to me, again assuming that the SLX4 defect is "surgical" - removing only one of its many interactions.

      Previous studies have already provided direct evidence for the interaction between Srs2 and PCNA through the Srs2’s PIM region (Armstrong et al, 2012; Papouli et al, 2005); we have added these citations in the text. Similarly. Srs2 associations with SUMO and Rad51 have also been demonstrated (Colavito et al, 2009; Kolesar et al, 2016; Kolesar et al., 2012), and these studies were cited in the text.

      We did not state that a deletion of a Rad51-interacting domain or a PCNA-interacting domain have no pleiotropic effects. We only assessed whether these previously characterized mutant alleles could mimic srs2∆ in rescuing rfa1-zm2 defects.

      We assessed the genetic interaction between slx4-RIM and srs2-∆PIM mutants, and not the physical interaction between the two proteins. As we described in the text, our rationale for this genetic test is based on that the reports that both slx4 and srs2 mutants impair recovery from the Mec1 induced checkpoint, thus they may affect parallel pathways of checkpoint dampening.

      One point of concern is the use of t-tests without some sort of correction for multiple comparisons - in several figures. I'm quite sceptical about some of the p < 0.05 calls surviving a Bonferroni correction. Also in 4B, which comparison is **? Also, admittedly by eye, the changes in "active" Rad53 seem much greater than 5x. (also in Fig. 3, normalizing to a non-WT sample seems odd).

      Claims made in this work were based only on pairwise comparison not multi-comparison. We have now made this point clearer in the graphs and in Method. As the values were compared between a wild-type strain and a specific mutant strain, or between two mutants, we believe that t-test is suitable for statistical analysis.

      Figure 4B, ** indicates that the WT value is significantly different from that of the slx4-RIM srs2-∆PIM double mutant and from that of srs2-∆PIM single mutant. We have modified the graph to indicate the pair-wide comparison. The 5-fold change of active Rad53 levels was derived by comparing the values between the srs2∆ PIM slx4<sup>RIM</sup>-TAP double mutant and wild-type Slx4-TAP. In Figure 3, normalization to the lowest value affords better visualization. This is rather a stylish issue; we would like to maintain it as the other reviewers had no issues.

      What is the WT doubling time for this strain? From the FACS it seems as if in 2 h the cells have completed more than 1 complete cell cycle. Also in 5D. Seems fast...

      Wild-type W303 strain has less than 90 min doubling time as shown by many labs, and our data are consistent with this. The FACS profiles for wild-type cells shown in Figures 3C, 4C, and 5C are consistent with each other, showing that after G1 cells entered the cell cycle, they were in G2 phase at the 1-hour time points, and then a percentage of the cells exited the first cell cycle by two hours.

      I have one over-arching confusion. Srs2 was shown initially to remove Rad51 from ssDNA and the suppression of some of srs2's defects by deleting rad51 made a nice, compact story, though exactly how srs2's "suppression of rad6" fit in isn't so clear (since Rad6 ties into Rad18 and into PCNA ubiquitylation and into PCNA SUMOylation). Now Srs2 is invoked to remove RPA. It seems to me that any model needs to explain how Srs2 can be doing both. I assume that if RPA and Rad51 are both removed from the same ssDNA, the ssDNA will be "trashed" as suggested by Symington's RPA depletion experiments. So building a model that accounts for selective Srs2 action at only some ssDNA regions might be enhanced by also explaining how Rad51 fits into this scheme.

      While the anti-recombinase function of Srs2 was better studied, its “anti-RPA” role in checkpoint dampening was recently described by us (Dhingra et al, 2021) following the initial report by the Haber group some time ago (Vaze et al, 2002). A better understanding of this new role is required before we can generate a comprehensive picture of how Srs2 integrates the two functions (and possibly other functions). Our current work addresses this issue by providing a more detailed understanding of this new role of Srs2.

      Single molecular data showed that Srs2 strips both RPA and Rad51 from ssDNA, but this effect is highly dynamic (i.e. RPA and Rad51 can rebind ssDNA after being displaced) (De Tullio et al, 2017). As such, generation of “deserted” ssDNA regions lacking RPA and Rad51 in cells can be an unlikely event. Rather, Srs2 can foster RPA and Rad51 dynamics on ssDNA. Additional studies will be needed to generate a model that integrates the anti-recombinase and the anti-RPA roles of Srs2.

      As a previous reviewer has pointed out, CPT creates multiple forms of damage. Foiani showed that 4NQO would activate the Mec1/Rad53 checkpoint in G1- arrested cells, presumably because there would be singlestrand gaps but no DSBs. Whether this would be a way to look specifically at one type of damage is worth considering; but UV might be a simpler way to look. As also noted, the effects on the checkpoint and on viability are quite modest. Because it isn't clear (at least to me) why rfa1 mutants are so sensitive to CPT, it's hard for me to understand how srs2-zm2 has a modest suppressive effect: is it by changing the checkpoint response or facilitating repair or both? Or how srs2-3KR or srs2-dPIM differ from rfa1-zm2 in this respect. The authors seem to lump all these small suppressions under the rubric of "proper levels of RPA-ssDNA" but there are no assays that directly get at this. This is the biggest limitation.

      CPT treatment is an ideal condition to examine how cells dampen the DNA damage checkpoint, because while most genotoxic conditions (e.g. 4NQO, MMS) induce both the DNA replication checkpoint and the DNA damage checkpoint, CPT was shown to only induced the latter (Menin et al, 2018; Minca & Kowalski, 2011; Redon et al, 2003; Tercero et al, 2003). Future studies examining 4NQO and UV conditions can further expand our understanding of checkpoint dampening in different conditions.

      We have previously provided evidence to support the conclusion that srs2 suppression of rfa1-zm is partly mediated by changing checkpoint levels (Dhingra et al., 2021). We cannot exclude the possibility that the suppression may also be related to changes of DNA repair; we have now added this note in the text.

      Regarding direct testing RPA levels on DNA, we have previously shown that srs2∆ increased the levels of chromatin associated Rfa1 and this is suppressed by rfa1-zm2 (Dhingra et al., 2021). We have now included chromatin fractionation data to show that srs2-∆PIM also led to an increase of Rfa1 on chromatin, and this was suppressed by rfa1-zm2 (new Fig. S2).

      Srs2 has also been implicated as a helicase in dissolving "toxic joint molecules" (Elango et al. 2017). Whether this activity is changed by any of the mutants (or by mutations in Rfa1) is unclear. In their paper, Elango writes: "Rare survivors in the absence of Srs2 rely on structure-specific endonucleases, Mus81 and Yen1, that resolve toxic joint-molecules" Given the involvement of SLX4, perhaps the authors should examine the roles of structure-specific nucleases in CPT survival?

      Srs2 has several roles, and its role in RPA antagonism can be genetically separated from its role in Rad51 regulation as we have shown in our previous work (Dhingra et al., 2021) and this notion is further supported by evidence presented in the current work. Srs2’s role in dissolving "toxic joint molecules” was mainly observed during BIR (Elango et al, 2017). Whether it is related to checkpoint dampening will be interesting to address in the future but is beyond of the scope of the current work that seeks to answer the question how Srs2 regulates RPA during checkpoint dampening. Similarly, determining the roles of Mus81 and Yen1 and other structural nucleases in CPT survival is a worthwhile task but it is a research topic well separated from the focus of this work.

      Experiments that might clarify some of these ambiguities are proposed to be done in the future. For now, we have a number of very interesting interactions that may be understood in terms of a model that supposes discriminating among gaps and ssDNA extensions by the presence of PCNA, perhaps modified by SUMO. As noted above, it would be useful to think about the relation to Rad6.

      Several studies have shown that Srs2’s functional interaction with Rad6 is based on Srs2-mediated recombination regulation (reviewed by (Niu & Klein, 2017). Given that recombinational regulation by Srs2 is genetically separable from the Srs2 and RPA antagonism (Dhingra et al., 2021), we do not see a strong rationale to examine Rad6 in this work, which addresses how Srs2 regulates RPA. With this said, this study has provided basis for future studies of possible cross-talks among different Srs2-mediated pathways.

      Reviewer #3 (Public Review):

      The superfamily I 3'-5' DNA helicase Srs2 is well known for its role as an anti-recombinase, stripping Rad51 from ssDNA, as well as an anti-crossover factor, dissociating extended D-loops and favoring non-crossover outcome during recombination. In addition, Srs2 plays a key role in in ribonucleotide excision repair. Besides DNA repair defects, srs2 mutants also show a reduced recovery after DNA damage that is related to its role in downregulating the DNA damage signaling or checkpoint response. Recent work from the Zhao laboratory (PMID: 33602817) identified a role of Srs2 in downregulating the DNA damage signaling response by removing RPA from ssDNA. This manuscript reports further mechanistic insights into the signaling downregulation function of Srs2.

      Using the genetic interaction with mutations in RPA1, mainly rfa1-zm2, the authors test a panel of mutations in Srs2 that affect CDK sites (srs2-7AV), potential Mec1 sites (srs2-2SA), known sumoylation sites (srs2-3KR), Rad51 binding (delta 875-902), PCNA interaction (delta 1159-1163), and SUMO interaction (srs2SIMmut). All mutants were generated by genomic replacement and the expression level of the mutant proteins was found to be unchanged. This alleviates some concern about the use of deletion mutants compared to point mutations. Double mutant analysis identified that PCNA interaction and SUMO sites were required for the Srs2 checkpoint dampening function, at least in the context of the rfa1-zm2 mutant. There was no effect of this mutants in a RFA1 wild type background. This latter result is likely explained by the activity of the parallel pathway of checkpoint dampening mediated by Slx4, and genetic data with an Slx4 point mutation affecting Rtt107 interaction and checkpoint downregulation support this notion. Further analysis of Srs2 sumoylation showed that Srs2 sumoylation depended on PCNA interaction, suggesting sequential events of Srs2 recruitment by PCNA and subsequent sumoylation. Kinetic analysis showed that sumoylation peaks after maximal Mec1 induction by DNA damage (using the Top1 poison camptothecin (CPT)) and depended on Mec1. This data are consistent with a model that Mec1 hyperactivation is ultimately leading to signaling downregulation by Srs2 through Srs2 sumoylation. Mec1-S1964 phosphorylation, a marker for Mec1 hyperactivation and a site found to be needed for checkpoint downregulation after DSB induction, did not appear to be involved in checkpoint downregulation after CPT damage. The data are in support of the model that Mec1 hyperactivation when targeted to RPA-covered ssDNA by its Ddc2 (human ATRIP) targeting factor, favors Srs2 sumoylation after Srs2 recruitment to PCNA to disrupt the RPA-Ddc2-Mec1 signaling complex. Presumably, this allows gap filling and disappearance of long-lived ssDNA as the initiator of checkpoint signaling, although the study does not extend to this step.

      Strengths:

      (1) The manuscript focuses on the novel function of Srs2 to downregulate the DNA damage signaling response and provide new mechanistic insights.

      (2) The conclusions that PCNA interaction and ensuing Srs2-sumoylation are involved in checkpoint downregulation are well supported by the data.

      Weaknesses:

      (1) Additional mutants of interest could have been tested, such as the recently reported Pin mutant, srs2-Y775A (PMID: 38065943), and the Rad51 interaction point mutant, srs2-F891A (PMID: 31142613).

      (2) The use of deletion mutants for PCNA and RAD51 interaction is inferior to using specific point mutants, as done for the SUMO interaction and the sites for post-translational modifications.

      (3) Figure 4D and Figure 5A report data with standard deviations, which is unusual for n=2. Maybe the individual data points could be plotted with a color for each independent experiment to allow the reader to evaluate the reproducibility of the results.

      Comments on revisions:

      In this revision, the authors adequately addressed my concerns. The only issue I see remaining is the site of Srs2 action. The authors argue in favor of gaps and against R-loops and ssDNA resulting from excessive supercoiling. The authors do not discuss ssDNA resulting from processing of onesided DSBs, which are expected to result from replication run-off after CPT damage but are not expected to provide the 3'-junction for preferred PCNA loading. Can the authors exclude PCNA at the 5'-junction at a resected DSB?

      We have now added a sentence stating that we cannot exclude the possibility that PCNA may be positioned at a 5’-junction, as this can be observed in vitro, albert that PCNA loading was seen exclusively at a 3’-junction in the presence of RPA (Ellison & Stillman, 2003; Majka et al, 2006).

      Recommendations For the authors:

      Reviewer #2 (Recommendations For the authors):

      A Bonferroni correction should be made for the multiple comparisons in several figures.

      Specific comments:

      l. 41. This is a too long and confusing sentence.

      Sentence shortened: “These data suggest that Srs2 recruitment to PCNA proximal ssDNA-RPA filaments followed by its sumoylation can promote checkpoint recovery, whereas Srs2 action is minimized at regions with no proximal PCNA to permit RPA-mediated ssDNA protection”.

      l. 60. Identify Ddc2 and Mec1 as ATRIP and ATR.

      Done.

      l. 125 "fails to downregulate RPA levels on chromatin and Mec1-mediated DDC..." fails to downregulate RPA and fails to reduce Mec1-mediated DDC?

      Sentence modified: “fails to downregulate both the RPA levels on chromatin and the Mec1-mediated DDC”

      l. 204 "consistent with the notion that Srs2 has roles beyond RPA regulation"... What other roles? It's stripping of Rad51? Removing toxic joint molecules? Something else?

      Sentence modified: “consistent with the notion that Srs2 has roles beyond RPA regulation, such as in Rad51 regulation and removing DNA joint molecules”.

      l. 249 "Significantly, srs2-ΔPIM and -3KR increased the percentage of rfa1-zm2 cells transitioning into the G1 phase" No. Just back to normal. As stated in l. 258: "258 We found that srs2-ΔPIM and srs2-3KR mutants on their own behaved normally in the two DDC assays described above." All of these effects are quite small.

      Sentence modified: “Compared with rfa1-zm2 cells, srs2-∆PIM rfa1-zm2 and srs2-3KR rfa1-zm2 cells showed increased percentages of cells transitioning into the G1 phase”.

      l. 468 "Our previous work has provided several lines of evidence to support that Rad51 removal by Srs2 is separable from the Srs2-RPA antagonism (Dhingra et al., 2021). What evidence? See my comment above about not having both proteins removed at the same time.

      We have addressed this point in our initial rebuttal and some key points are summarized below. In our previous report (Dhingra et al., 2021), we provided several lines of evidence to support the conclusion that Rad51 is not relevant to the Srs2-RPA antagonism. For example, while rad51∆ rescues the hyper-recombination phenotype of srs2∆ cells, rad51∆ did not affect the hyper-checkpoint phenotype of srs2∆. In contrast, rfa1-zm1/zm2 have the opposite effects, that is, rfa1zm1/zm2 suppressed the hyper-checkpoint, but not the hyper-recombination, phenotype of srs2∆ cells. The differential effects of rad51∆ and rfa1-zm1/zm2 were also seen for the ATPase dead allele of Srs2 (srs2K41A). For example, rfa1-zm2 rescued hyper-checkpoint and CPT sensitivity of srs2-K41A cells, while rad51∆ had neither effect. These and other data described by Dhingra et al (2021) suggest that Srs2’s effects on checkpoint vs. recombination can be separated genetically. Consistent with our conclusion summarized above, deleting the Rad51 binding domain in Srs2 (srs2-∆Rad51BD) has no effect on rfa1-zm2 phenotype in CPT (Fig. 2D). This data provides yet another evidence that Srs2 regulation of Rad51 is separable from the Srs2RPA antagonism.

      l. 525 "possibility, we tested the separation pin of Srs2 (Y775), which was shown to enables its in vitro helicase activity during the revision of our work..." ?? there was helicase activity during the revision of your work? Please fix the sentence.

      Sentence modified: “we tested the separation pin of Srs2 (Y775). This residue was shown to be key for the Srs2’s helicase activity in vitro in a report that was published during the revision of our work (Meir et al, 2023).”

      Fig. 3. "srs2-ΔPIM and -3KR allow better G1 entry of rfa1-zm2 cells." is it better entry or less arrest at G2/M? One implies better turning off of a checkpoint, the other suggests less activation of the checkpoint.

      This is a correct statement. For all strains examined in Figure 3, cells were seen in G2/M phase after 1-hour CPT treatment, suggesting proper arrest.

      References:

      Armstrong AA, Mohideen F, Lima CD (2012) Recognition of SUMO-modified PCNA requires tandem receptor motifs in Srs2. Nature 483: 59-63

      Colavito S, Macris-Kiss M, Seong C, Gleeson O, Greene EC, Klein HL, Krejci L, Sung P (2009) Functional significance of the Rad51-Srs2 complex in Rad51 presynaptic filament disruption. Nucleic Acids Res 37: 6754-6764.

      De Tullio L, Kaniecki K, Kwon Y, Crickard JB, Sung P, Greene EC (2017) Yeast Srs2 helicase promotes redistribution of single-stranded DNA-bound RPA and Rad52 in homologous recombination regulation. Cell Rep 21: 570-577

      Dhingra N, Kuppa S, Wei L, Pokhrel N, Baburyan S, Meng X, Antony E, Zhao X (2021) The Srs2 helicase dampens DNA damage checkpoint by recycling RPA from chromatin. Proc Natl Acad Sci U S A 118: e2020185118

      Elango R, Sheng Z, Jackson J, DeCata J, Ibrahim Y, Pham NT, Liang DH, Sakofsky CJ, Vindigni A, Lobachev KS et al (2017) Break-induced replication promotes formation of lethal joint molecules dissolved by Srs2. Nat Commun 8: 1790

      Ellison V, Stillman B (2003) Biochemical characterization of DNA damage checkpoint complexes: clamp loader and clamp complexes with specificity for 5' recessed DNA. PLoS Biol 1: E33

      Kolesar P, Altmannova V, Silva S, Lisby M, Krejci L (2016) Pro-recombination Role of Srs2 Protein Requires SUMO (Small Ubiquitin-like Modifier) but Is Independent of PCNA (Proliferating Cell Nuclear Antigen) Interaction. J Biol Chem 291: 7594-7607.

      Kolesar P, Sarangi P, Altmannova V, Zhao X, Krejci L (2012) Dual roles of the SUMO-interacting motif in the regulation of Srs2 sumoylation. Nucleic Acids Res 40: 7831-7843.

      Majka J, Binz SK, Wold MS, Burgers PM (2006) Replication protein A directs loading of the DNA damage checkpoint clamp to 5'-DNA junctions. J Biol Chem 281: 27855-27861

      Meir A, Raina VB, Rivera CE, Marie L, Symington LS, Greene EC (2023) The separation pin distinguishes the pro- and anti-recombinogenic functions of Saccharomyces cerevisiae Srs2. Nat Commun 14: 8144

      Menin L, Ursich S, Trovesi C, Zellweger R, Lopes M, Longhese MP, Clerici M (2018) Tel1/ATM prevents degradation of replication forks that reverse after Topoisomerase poisoning. EMBO Rep 19: e45535

      Minca EC, Kowalski D (2011) Replication fork stalling by bulky DNA damage: localization at active origins and checkpoint modulation. Nucleic Acids Res 39: 2610-2623

      Niu H, Klein HL (2017) Multifunctional roles of Saccharomyces cerevisiae Srs2 protein in replication, recombination and repair. FEMS Yeast Res 17: fow111

      Papouli E, Chen S, Davies AA, Huttner D, Krejci L, Sung P, Ulrich HD (2005) Crosstalk between SUMO and ubiquitin on PCNA is mediated by recruitment of the helicase Srs2p. Mol Cell 19: 123-133

      Redon C, Pilch DR, Rogakou EP, Orr AH, Lowndes NF, Bonner WM (2003) Yeast histone 2A serine 129 is essential for the efficient repair of checkpoint-blind DNA damage. EMBO Rep 4: 678-684

      Tercero JA, Longhese MP, Diffley JFX (2003) A central role for DNA replication forks in checkpoint activation and response. Mol Cell 11: 1323-1336

      Vaze MB, Pellicioli A, Lee SE, Ira G, Liberi G, Arbel-Eden A, Foiani M, Haber JE (2002) Recovery from checkpointmediated arrest after repair of a double-strand break requires Srs2 helicase. Mol Cell 10: 373-385