Voir l'article
Logo de la revue d'appartenance Lea

Analyses thématiques

'C’est le monde à l’envers !' vu de l’intérieur

Les élèves de l’école Nicolas Vanier de Magny-Montarlot sont venus assister au dernier tournage du réalisateur dans une ancienne ferme à côté de Vézelay, dans le Morvan. L’occasion unique de découvrir les différents métiers du cinéma et le processus de fabrication d’un film.

Voir l'article
Logo de la revue d'appartenance NRP

L’IA générative : les modèles de langage, et l’émergence sémantique

Par Pierre Bourgeois, professeur de mathématiques Ce 3 e article de la série proposée cette année par la NRP s’intéresse aux « grands modèles de langage », dont ChatGPT est l’exemple emblématique. On ne peut comprendre le succès remporté par cette IA générative dès sa mise en ligne en novembre 2022 que si l’on revient sur une avancée théorique de 2017 qui permet aux réseaux neuronaux de « comprendre » le langage naturel. Le dialogue homme/machine peut enfin commencer. La puissance de ChatGPT Il n’a fallu que deux mois au programme de la firme OpenAI pour atteindre les cent millions d’utilisateurs. En comparaison, la plateforme de streaming Netflix a dû attendre trois ans et demi pour en avoir autant. C’est la qualité inattendue des réponses fournies qui enthousiasme une partie des utilisateurs de ChatGPT, capable non seulement de répondre correctement mais aussi d’accomplir des tâches annexes liées au traitement du langage naturel : résumer, reformuler, créer du contenu original, traduire des textes simples, engager des conversations, simuler le langage de personnages fictifs… Avant de voir comment l’émergence d’une telle technologie a été possible, donnons deux exemples récents qui prouvent que les IA génératives remodèlent déjà, chaque jour, nos sociétés. Le 2 novembre dernier, 53 ans après leur séparation, les Beatles sortent leur toute dernière chanson « Now and then ». Le titre accède rapidement à la première place au hit-parade britannique. Un clip vidéo où l’on voit le groupe interpréter la chanson est mis en ligne. À partir d’une courte bande audio d’époque, de très mauvaise qualité, retravaillée et nettoyée par un programme d’IA générative, la voix de John Lennon a pu être reconstruite en respectant à s’y méprendre le timbre et l’intonation de l’artiste disparu depuis un demi-siècle. Pour les images et les vidéos, les productions ont atteint un tel niveau de sophistication qu’il suffit de formuler la requête par une simple phrase et l’IA génère le reste. En avril dernier, le photographe allemand Boris Eldagsen refuse le « Sony World Photography Award » qu’il vient pourtant de remporter. L’artiste avoue que la photographie primée qui représente deux femmes en noir et blanc n’est pas un cliché, mais une image générée par l’intelligence artificielle générative, DALL-E d’Open-AI. Il explique qu’il a voulu « faire un test, pour voir si le monde de la photographie était prêt à gérer l’intrusion de l’IA dans les concours internationaux. » Comment ChatGPT comprend-il mes questions ? Est-ce seulement grâce à son pré-entraînement qui lui a fait ingurgiter une quantité énorme de données textuelles ? Y a-t-il autre chose ? La réponse est à trouver dans les « Large Langage Model » (LLM, cf. encadré). Mais avant de voir ce qui a permis aux LLM de « comprendre » le langage naturel, il nous faut expliquer sommairement ce qu’est un réseau de neurones. Les réseaux de neurones : des boîtes noires ChatGPT est un réseau de neurones, de dernière génération, ultra-performant, c’est-à-dire un modèle informatique inspiré par le fonctionnement du cerveau humain. Ce n’est qu’un immense tableau, des cases remplies de nombres. Peu importe l’ingénierie mathématique qui sous-tend son fonctionnement, l’important est de savoir qu’il peut apprendre, ou plus exactement distinguer, différencier, étiqueter. Un réseau de neurones doit d’abord être entraîné sur un jeu de données, ensuite être testé sur un deuxième jeu de données pour valider son apprentissage, et une fois ces deux phases accomplies, la magie opère : il a appris, et on peut lui proposer de nouvelles données, il saura faire. L’exemple historique a été la reconnaissance d’images, dont la motivation économique était de pouvoir reconnaître le montant manuscrit d’un chèque afin d’en automatiser le traitement. Ce qu’il faut retenir, c’est que ces réseaux de neurones sont des sortes de boîtes noires. Parmi les couches qui les composent, seules celles d’entrée et de sortie sont accessibles, ce qui se passe dans les couches internes demeure caché. C’est pour cela qu’on parle de deep learning , d’apprentissage profond. Pour ceux qui veulent briller dans les dîners en ville, cet apprentissage profond est basé sur deux principes mathématiques appelés « la descente de gradient » et « la rétropropagation de l’erreur ». Les centaines de millions de paramètres qui relient les neurones des couches cachées sont délicatement modifiés lors de la phase de pré-entraînement pour minimiser, dans un espace très abstrait, la distance entre la réponse fournie et la réponse attendue. Osons une comparaison : imaginez que vous visez une cible. Évidemment, lorsque vous vous entraînez, vous la ratez. Mais dans le cas des réseaux de neurones, c’est un peu comme si vous pouviez reprendre à l’envers votre essai, remonter de la cible à votre main, en modifiant des milliers de petits paramètres pour qu’au coup suivant, l’essai soit meilleur. L’attention et les LLM, un saut qualitatif Les deux décennies précédentes ont été marquées par les succès des réseaux neuronaux : AlphaGo, développé par Deep-Mind, a battu le champion du monde du jeu de go, montrant la capacité des réseaux de neurones à maîtriser des jeux stratégiques. Les réseaux de neurones dits convolutifs ont atteint des performances exceptionnelles dans la reconnaissance d’images. Les réseaux de neurones sont utilisés dans les domaines de la santé tels que la détection précoce de maladies et l’analyse d’images médicales. Les réseaux de neurones profonds sont utilisés pour la perception et la prise de décision dans les véhicules autonomes contribuant à la détection d’objets et à la reconnaissance de panneaux de signalisation. Pourtant, malgré toutes ces performances prodigieuses, les réseaux de neurones butaient sur la compréhension du langage naturel humain ; ils excellaient face à de petits textes, mais le sens global d’une phrase, dès qu’elle était un peu longue, leur était inaccessible. En fait, la prise en compte simultanée de deux mots éloignés se perdait dans les profondeurs cachées des couches de neurones. Or, quand on dit : « Après des années de dur labeur et de sacrifices, elle a finalement atteint le sommet de sa carrière, devenant une référence dans son domaine », c’est le rapprochement entre « dur labeur » et « atteint le sommet » qui donne le sens, associant les efforts soutenus et le succès professionnel. Ce problème identifié prend le joli nom de « problème de l’évanescence du gradient ». C’est un peu comme une personne qui parle beaucoup et qui soudain, par manque d’attention, ne sait plus ce qu’elle voulait dire. La solution théorique est arrivée en 2017 dans un article intitulé « Attention is all you need » du chercheur américain Ashish Vaswani. l’IA devient plus « attentive » et repère mieux les liens entre deux mots éloignés dans une phrase. Pour la petite histoire, ces réseaux de neurones sont appelés « Transformers » (le T de ChatGPT vient de là), terme qui vient de la gamme de jouets « Transformers » où un robot peut se transformer en véhicule. Et ça marche au-delà des prévisions : cette nouvelle plasticité permet au réseau de « comprendre » le contexte d’une phrase. On raconte que « l’émergence sémantique », quand tout à coup la machine a montré pour les premières fois qu’elle « comprenait » le sens global d’une phrase, est apparue dans ses réseaux de neurones de façon non prévue. Un chercheur d’OpenAI, entraînant un réseau de neurones de type « Transformeur » pour qu’il apprenne à deviner le mot suivant (en fait, juste la lettre suivante) dans un avis de client d’Amazon, se rend alors compte que la machine a suffisamment « compris » le contexte de l’avis pour l’étiqueter « avis positif » ou « avis négatif ». Un autre chercheur, pré entraînant un réseau de neurones à prédire la prochaine occurrence d’un signe de ponctuation, se rend compte que le réseau « comprend » le sens global et le contexte du texte analysé. Avant, les prédictions ne fonctionnaient que dans des cas simples : « L’été, je déguste des … à la vanille », la réponse qui s’impose est « glaces » ou « sorbets ». Aujourd’hui, pour n’importe quelle question, un LLM fournit une réponse qui montre qu’il a compris le sens de la question. Il peut donner une réponse plausible, et peut également en inventer toute une série et créer des mondes nouveaux sous forme de textes ou d’images. L’intelligence artificielle est devenue générative (c’est le G de GPT). La polysémie, qui fut longtemps un obstacle, n’en est définitivement plus un. Je lui ai posé la question suivante : Comment procèdes-tu, cher ChatGPT, pour différencier le sens des deux mots « particulier »   et «  affaire » dans la phrase suivante : « j’ai fait des affaires lucratives, hier, en particulier, j’ai vendu à un particulier mes affaires de ski. »   Voici sa réponse : Je comprends que la distinction entre les deux occurrences des mots « particulier » et « affaires  » dans la phrase que vous avez fournie peut sembler subtile et dépend du contexte. L’analyse contextuelle dans le modèle GPT-3.5 est basée sur des mécanismes d’attention qui prennent en compte les mots qui entourent chaque occurrence d’un terme donne. La capacité du modèle à effectuer cette distinction repose sur son exposition a des milliards de phrases pendant l’entrainement, lui permettant d’apprendre des modèles linguistiques et de comprendre comment les mots interagissent dans différents contextes. Cependant, il est important de noter que la compréhension du modèle est basée sur des schémas statistiques et contextuels plutôt que sur une compréhension profonde ou une connaissance explicite du sens des mots. Dans cette dernière phrase ChatGPT reconnaît qu’il ne comprend pas grand-chose, il génère simplement la réponse la plus probable. ChatGPT est un peu comme un acteur déclamant un texte magnifique sans aucune conscience de la signification de ce qu’il raconte. Si la plupart du temps ces réseaux fournissent les réponses attendues, il est important d’avoir à l’esprit que ChatGPT peut se tromper, et parfois à un tel point qu’on parle, dans ce cas d’« hallucinations ». Il est donc toujours recommandé de vérifier les informations critiques auprès de sources fiables, surtout si des décisions importantes doivent être prises en fonction de ses réponses. La collaboration homme/machine va nous imposer une certaine vigilance. Sitographie « L’histoire cachée de l’étonnant potentiel de ChatGPT », conférence TED, https://www.ted.com/talks/greg_brockman_the_inside_story_of_chatgpt_s_astonishing_ potential?language=fr Ashish Vaswani, « Attention is all you need», https://arxiv.org/abs/1706.03762 LLM et réseaux « Transformers » LLM est l’acronyme de « Large Langage Model », expression qui peut se traduire par « grand modèle de langage » ou « modèle de langage de grande taille » ou encore « modèle massif de langage ». L’avenir et l’usage diront quelle terminologie française prendra le dessus sur les autres.Un LLM est un réseau de neurones de type « Transformer » entraîner sur des milliers ou des millions de giga-octets de texte. Son apprentissage en profondeur sur des données non nécessairement structurées est accompagné d’une analyse probabiliste et lui permet de « comprendre » un texte ou une question et d’y répondre correctement.

Voir l'article
Logo de la revue d'appartenance Speakeasy

Brooklyn Mourns Paul Auster

Although he was one of the most cosmopolitan American authors, Paul Auster will forever remain indelibly linked with New York and specifically Brooklyn. The author of Moon Palace , The New York Trilogy and films such as Smoke , died there on 30 April at the age of 77 from lung cancer which had been diagnosed in December 2022. Paul Auster leaves behind him a rich body of works dating from the 1970s right up until his death. If he is renowned primarily as a novelist, he also worked as a poet, essayist, and filmmaker. He gained international acclaim with his postmodern, existentialist novels that often explore themes of identity, chance, and the intricacies of human experience. Paul Auster, born in Newark on February 3, 1947, was surrounded by the vibrant atmosphere of New Jersey and New York, where his grandparents lived. His love for literature came from his uncle Allen Mandelbaum, a translator, who introduced him to the world of words. Auster found solace in writing, crafting his first verses during his teenage years. Reflecting on his literary journey in 2018, Auster recalled how reading Dostoevsky's Crime and Punishment at the age of 15 ignited a deep passion within him: "This book completely transformed me to the point where I said to myself: if writing a book can evoke such emotion, then that's what I want to do." Auster was a passionate follower of baseball,. He also joked that he became a writer after a fateful meeting with baseball great Willie Mays as a young boy. After missing out on getting Mays’ autograph because he didn’t have a pencil, the future scribe said he always made sure to keep a pencil or pen in his pocket, “because I didn’t want to be caught unprepared again.” He famously worked without a computer, preferring to write with a typewriter and stay off the Internet to avoid emails. The Enigmatic World of Paul Auster: A Literary Journey In 1965, Auster departed New Jersey to pursue studies in English, French, and Italian literature at Columbia University in New York City. "My grandparents lived here, my mother grew up here, so I came all the time when I was a child, and then I really wanted to go to college in New York," he remarked in La Grande Librairie in 2016. The city's density, vastness, and complexity held an irresistible allure for him. As Auster articulated, "When you have this city in your blood, the rest of America seems lost." During his collegiate years, Auster embarked on his inaugural European voyage, sidestepping the Vietnam War. Between 1971 and 1974, he resided in Paris once more, subsisting on his translations of renowned literary figures such as Sartre, Blanchot, Mallarmé, Apollinaire, Du Bouchet, and the celebrated tightrope walker Philippe Petit. In Paris, he forged a friendship with future German filmmaker Wim Wenders. Although harboring aspirations of becoming a filmmaker himself, Auster's timidity deterred him from pursuing admission to the IDHEC film school. He returned to America, having failed to materialize his aspirations for silent film. Yet, from this disillusioning experience, he would later draw inspiration for his poignant work, The Book of Illusions (2003). "The Invention of Solitude" Upon his return to New York, Auster delved into freelance writing for various publications and commenced work on early drafts of his novels, including The Voyage of Anna Blum (1989) and Moon Palace (1990). Concurrently, Auster encountered and wed Lydia Davis, a budding short-story writer and academic, with whom he had a son, Daniel, who would later pursue photography. However, the trajectory of Auster's life took a significant turn in 1979. Economic hardships precipitated his divorce from Davis, and shortly thereafter, the unexpected death of his father, Samuel Auster, at the age of 66, catalyzed a profound introspection. One of Auster's most notable works came in 1985 with The New York Trilogy , a collection of three interconnected detective stories – City of Glass, Ghosts, and The Locked Room. This seminal work showcases Auster's masterful manipulation of postmodern literary conventions, blurring the line between reality and fiction, and challenging conventional storytelling techniques. Readers are drawn into a labyrinth of identity, truth, and the enigmatic nature of human existence. [gallery columns="2" size="medium" ids="16689,16686"] Auster's exploration of the self and the human condition is a recurring theme in his literature. His novel Moon Palace delves into the complexities of identity and the search for meaning, while The Music of Chance delves into the themes of fate, chance, and the consequences of our choices. His writing style, introspective and philosophical, invites readers to contemplate their place in the world and the forces that shape their lives. [gallery columns="2" size="medium" ids="16688,16691"] Beyond his novels, Auster's non-fiction works offer profound insights into his literary philosophy and the art of storytelling. His memoir, The Invention of Solitude , is a poignant exploration of loss, grief, and the complexities of father-son relationships. Furthermore, his essays, such as those in The Art of Hunger and The Red Notebook, provide a window into Auster's thoughts on literature, politics, and the human experience. As a writer, Paul Auster's ability to craft intricate narratives, weave existential themes, and evoke profound emotions has solidified his place in the pantheon of literary greats. His work continues to inspire and challenge readers, inviting them to ponder the complexities of existence and the enigmatic nature of the human spirit. Paul Auster's literary legacy is a testament to the enduring power of storytelling and the boundless depths of the human imagination. On the Silver Screen Several of his works, including his 1990 novel The Music of Chance, were adapted for the screen and Auster was behind the camera for a number of them. Harvey Keitel starred in the 1995 drama Smoke, about a Brooklyn cigar store and its various patrons played by William Hurt and Giancarlo Esposito. Working as a screenwriter, Auster embellished his short story that originally appeared as a Christmas Day op-ed in The New York Times, employing “the film medium as an extension of his literary art,” according to the Los Angeles Times’ review. The film won him the Independent Spirit Award for first screenplay. https://youtu.be/3v8r-ec4V2M He re-teamed with Smoke director Wayne Wang later that year and they co-directed the sequel, Blue in the Face, which brought back Keitel and Esposito and also starred Lou Reed, Mira Sorvino and Madonna. He is also credited on the screenplay for Wang’s 2001 romance The Center of the World. Auster wrote and directed the 1998 mystery drama Lulu on the Bridge, which again starred Keitel and Sorvino and was nominated for the Un Certain Regard prize at the Cannes International Film Festival. Auster's work has been translated into over forty languages and has won numerous awards, including the PEN/Faulkner Award for Fiction, the Prix Prince des Asturies , and the Commandeur de l'Ordre des Arts et des Lettres. He was a member of the American Academy of Arts and Letters and the American Academy of Arts and Sciences. Here are some of Paul Auster's most famous works: The New York Trilogy (1986–1994) Moon Palace (1989) Leviathan (1992) Timbuktu (1999) The Book of Illusions (2002) Oracle Night (2003) 4 3 2 1 (2007) Baumgartner is his final book (2023, the French translation was being published just as he died.) [gallery columns="2" size="medium" ids="16684,16685"]

Voir l'article
Logo de la revue d'appartenance Speakeasy

Rendez-vous

If Girls Were in Charge

A new documentary, Girls State, looks at a social experiment where 500 girls from Missouri try to form a government, running for positions like Governor and Supreme Court Justices. It makes a fascinating contrast with the award-winning 2020 documentary by the same team following 1000 boys in Texas participating in the same national project.

Voir l'article

1

Ressources
complémentaires

L'Union européenne se tourne vers l'Est

Quelle évolution des frontières européennes depuis 1989 ?

Voir l'article
Logo de la revue d'appartenance Speakeasy

Matilda Reading Guide

Last year, we started a new collection of Reading Guides to help you introduce your pupils to reading fiction in English in collège and seconde. Our latest title is about to arrive in bookshops: Matilda by Roald Dahl!

Voir l'article
Logo de la revue d'appartenance Speakeasy

Speed Speaking for the Semaine des Langues

Speed  speaking : des ateliers de conversation en langues vivantes au collège pour la Semaine des Langues.

Voir l'article

4

Ressources
complémentaires

Logo de la revue d'appartenance NRP

Séquence pédagogique

L'envers du foot

Voir l'article

9

Ressources
complémentaires

Logo de la revue d'appartenance NRP

Séquence pédagogique

La biographie rêvée d’un mythe insaisissable

Voir l'article

5

Ressources
complémentaires

Logo de la revue d'appartenance NRP

Fiche élève

Écrire un texte court au présent

Voir l'article

2

Ressources
complémentaires

Logo de la revue d'appartenance NRP

Fiche élève

La mort de Tibère

Voir l'article
Logo de la revue d'appartenance Speakeasy

Sélection culturelle

Monkey Man: Indian Mythology Meets Action Movie

Monkey Man is a completely new departure for Slumdog Millionaire star Dev Patel: he co-wrote, directed and stars in the film inspired by Indian mythology and reality.

Voir l'article
Logo de la revue d'appartenance Speakeasy

Murder by the Book

If you happen to be in Cambridge between now and the end of the summer, don't miss the University Library's exhibition about 20th century crime fiction with artefacts and first editions from the likes of Agatha Christie, Arthur Conan Doyle and Wilkie Collins. Crime fiction is by far the most popular form of fiction in the U.K. It's the country's most read, bought and borrowed genre. And Britain has produced some outstanding crime-fiction writers and characters from Conan Doyle's Sherlock Holmes to Christie's Poirot and Miss Marple. Lynda La Plante's Jane Tennison and Colin Dexter's Inspector Morse. Some of the first editions on display.The exhibition is curated by by Nicola Upson , herself a bestselling crime writer. In an interesting double take, Upson's principal character is Josephine Tey,  one of the Golden Age British detective writers from the 30s and 40s. Tey's historical detective novel about Richard III and the Princes in the Tower, The Daughter of Time , was voted the best detective novel of all time by the Crime Writer's Association in 1990. https://youtu.be/uJnEs5tovrA   The exhibition features many first editions including Wilkie Collins' The Moonstone (1868), one of the first detective novels. Collins' writing desk is also on display. There are also many exhibits about or from Agatha Christie , the unchallenged  queen of crime fiction, whose novels and short stories have sold more than 2 billion copies around the world. In this video, Nicola Upson describes the fascinating story behnind the typescript of her final Poirot Novel, Curtain , published in 1975, thirty years after it was written. https://youtu.be/Q925XXdVlpI Murder By the Book : A Celebration of 20th Century British Crime Fiction Cambridge University Library Free. Till 24 August 2024 This article gives more information and lots of pictures of the exhibition. You'll find more on British crime fiction in Shine Bright 4e Death on the Nile and Shine Bright 2e File 4 Mystery in the Countryside.

Voir l'article
Logo de la revue d'appartenance Speakeasy

100 Million Trees

The Kenyan government wants its people to plant 100 million trees to regreen the country. They even have a new tree-planting holiday. And the ultimate goal is much bigger: to plant 15 billion trees in 10 years. The JazaMiti initiative, which means "fill with trees" in Swahili,  aims to help tackle climate change.

Voir l'article
Logo de la revue d'appartenance Speakeasy

Your Money or Your Life!

Dick Turpin was a highway robber in early 18th-century England. Unlike Robin Hood, he didn’t rob the rich to give to the poor. But he became a legend thanks to early “tabloid media”: broadsheets and penny dreadfuls. A new TV series takes a humorous look at the historic criminal.

Voir l'article
Logo de la revue d'appartenance Speakeasy

Shine Bright 5e: Manuel-Workbook

If you teach in 5e, you'll soon be receiving the latest addition to our Shine Bright textbook collection: Shine Bright 5e. It's a textbook and workbook rolled into one! Check out the introductory video!

Voir l'article

1

Ressources
complémentaires

Le génocide des Tutsis au Rwanda

Cette vidéo retrace les principales étapes du génocide des Tutsis par les Hutus.

Voir l'article

3

Ressources
complémentaires

Logo de la revue d'appartenance Speakeasy

Princess Suffragette

Everyone has heard of the Suffragettes and their actions, yet, have you heard of Princess Suffragette? This Indian princess, whose father was the last ruler of the Sikh Empire, gave up her socialite life in order to fight for a cause.

Voir l'article

3

Ressources
complémentaires

Logo de la revue d'appartenance Speakeasy

Irish Independence: Online Exhibition

This online exhibition offered by the Centre culturel irlandais in Paris will give pupils an insight into the turbulent history of Irish independence.

Voir l'article
Logo de la revue d'appartenance Speakeasy

Sélection culturelle

Quais du Polar Lyon is 20

Lyon's Quais du Polar festival is celebrating its 20th edition from 5 to 7 April. It has grown and grown and this year will welcome 135 authors from 15 countries.

Voir l'article

1

Ressources
complémentaires

Le peuple et sa représentativité

Comment représenter le peuple français ? La réponse de Gérard Noiriel, historien.

Voir l'article
Logo de la revue d'appartenance NRP

ÊtrePROF, un vade-mecum pour l’enseignant du XXIe siècle

Par Armand Kadivar Dans son plan de réformes tous azimuts de l’Éducation nationale, Gabriel Attal a désigné la mère de toutes les batailles : le recrutement et la formation des enseignants. Face à ces manques, l’association Ecolhuma qui, comme son nom l’indique, vise à remettre de l’humain dans le système scolaire, a créé la plateforme ÊtrePROF. Fort aujourd’hui de ses 160 000 membres, le site propose un panel de ressources transdisciplinaires gratuites, créées par et pour des enseignants. L’association Ecolhuma Anciennement nommé SynLab, Ecolhuma est une association d’intérêt général, indépendante, apolitique et non confessionnelle née en 2012. Elle s’est donné pour mission de soutenir les enseignants et chefs d’établissement, afin de faciliter la réussite des 12 millions d’élèves en France, notamment à travers différents dispositifs d’accompagnement, en ligne ou en présentiel. Ecolhuma utilise le levier du numérique pour faire le pont entre les acteurs de terrain, la recherche, les expérimentations et les décideurs éducatifs. La théorie L’association est à l’origine d’enquêtes, fruits du travail de ses chercheurs internes et externes, et dont les notes sont accessibles sur son site. Quatre thématiques prioritaires définissent les horizons de recherche de l’observatoire : le décrochage scolaire, les compétences psychosociales, la santé mentale et la transition écologique. Le dernier rapport, publié en collaboration avec le think thank Terra Nova, se penche sur l’urgence d’une grande réforme de la formation continue des enseignants. Les auteurs de cette publication incitent à repenser le système de formation continue en mettant en place un processus différent : le développement professionnel continu, comme cela se fait dans le monde de la santé. La pratique : des sites pour le personnel éducatif Pour aider concrètement le monde éducatif, Ecolhuma a lancé le site internet ÊtrePROF qui propose de nombreuses ressources consultables gratuitement. Ce contenu se fonde non pas sur une approche disciplinaire mais sur un accompagnement pédagogique autour de la transversalité du métier. Ainsi, les ressources sont faites pour accompagner la vie des professeurs et les aider à faire progresser leurs élèves, à enrichir leur pédagogie et à gérer les relations avec le reste de la communauté éducative. On passe donc d’une fiche intitulée « Stopper les bavardages » à « 6 conseils pour survivre face à des collègues insupportables ». La prise en compte des aspects psychologiques du métier d’enseignant constitue l’une des singularités et, partant, l’une des forces d’ÊtrePROF, qui refuse que les membres de la communauté scolaire soient réduits à des numéros et met l’accent sur le soutien humain et la solidarité intraprofessionnelle. Pour les sujets qui requièrent davantage de documentation, des guides pratiques sont proposés, pour accompagner par exemple des élèves dys ou pour organiser une sortie scolaire. Enfin, des parcours de plusieurs heures sont mis en place : ce sont des séries de formations courtes pour aborder à son rythme un aspect du métier d’enseignant (développer le travail en équipe, mieux connaître ses élèves, prévenir le décrochage…) avec un expert ou un mentor. Un tel dispositif veut permet de pallier les lenteurs administratives. Si un enseignant découvre à la rentrée qu’il a un élève dyslexique dans sa classe alors qu’il n’a aucune expérience en la matière, les formations officielles pour qu’il apprenne à adapter son enseignement n’interviendront, dans le meilleur des cas, que 12 à 18 mois après. Les ressources ne sont pas exclusivement textuelles : la plateforme produit des podcasts, des tutoriaux en vidéo et des lives sur Facebook qui permettent d’échanger en direct sur le métier et ses problématiques.

Vous avez vu 450 résultats sur 2275