Voir l'article
Logo de la revue d'appartenance NRP

Demandez le programme 2024-2025 !

N° 686 – Septembre 2024 La littérature à l’assaut du racisme On s’accordera pour dire que le racisme est un fléau. Pour le combattre sans s’exposer à des discours moralisateurs souvent bien peu efficaces, on choisira la lecture de textes forts. En 3 e , une nouvelle édition scolaire permettra de découvrir Récitatif de Toni Morrison. N° 687 – Décembre 2024 Littératures francophones du monde arabe Au collège, les entrées des programmes peuvent être déclinées à travers des oeuvres de la francophonie. Ainsi pour traiter « la ville » ou « individu et société, confrontation des valeurs », ce numéro proposera des textes d’auteurs francophones venus du Maroc, d’Algérie, du Liban… N° 688 – Mars 2025 Lire, du déchiffrage à la compréhension Pour les professeurs de français, les activités liées aux compétences de lecture constituent un véritable mille-feuille : tester et travailler la fluence, proposer des stratégies de lecture afin d’améliorer la compréhension de l’écrit, lire des livres pour le plaisir… N° 689 - Mai 2025 1945-2025 : mémoires de guerre Pour le quatre-vingts ans de la fin de la Seconde Guerre mondiale, la NRP proposera une séquence pour chaque niveau en variant les supports et les formats : journal, roman, album, bande dessinée… Pour vous abonner, rendez-vous sur le site rubrique  Abonnement .

Voir l'article
Logo de la revue d'appartenance NRP

Demandez le programme 2024-2025 !

N° 108 – Septembre 2024 Visages du romantisme La pièce de Musset, On ne badine pas avec l’amour , désormais au programme en 1 re , engage à travailler sur le romantisme. La séquence de 2 de sera consacrée au personnage noir dans les œuvres romantiques. En miroir de cette œuvre, il sera aussi question d’une nouvelle édition scolaire de Récitatif , un récit passionnant et accessible de Toni Morrison. N° 109 – Décembre 2024 Formes courtes du théâtre contemporain Sketches, pièces radiophoniques, formats brefs : dans ce numéro, on s’écartera des formes classiques du texte théâtral pour s’intéresser à la manière d’occuper la scène aujourd’hui. C’est dans ce contexte que s’inscrira l’étude de Pour un oui ou pour un non , une pièce que Nathalie Sarraute a d’abord écrite pour la radio. N° 110 – Mars 2025 Mensonge et comédie, mensonge romanesque Le thème du mensonge sera décliné dans deux genres. Révélateur d’une face sombre de l’homme dans un roman contemporain, le mensonge est au théâtre un moteur de la comédie. C’est le cas dans Le Menteur de Corneille, au programme cette année. N° 111 - Mai 2025 Ce que la littérature dit de l'intolérance religieuse Centré sur la classe de 2 de , ce numéro cherchera à montrer comment la littérature est peut-être le meilleur moyen de traiter la question de l’intolérance religieuse : en écoutant des poètes relater les conflits religieux au XVI e siècle, en littérature d’idée bien sûr, mais en choisissant également un détour par la fiction. Pour vous abonner, rendez-vous sur le site rubrique  Abonnement .

Voir l'article
Logo de la revue d'appartenance Speakeasy

Operation Overlord: the Turning Point of World War II

On June 6, 1944 at dawn, Operation Overlord, the largest airborne and naval offensive in history, was launched by the Allied forces to open a second front in Western Europe against Nazi Germany.

Voir l'article

1

Ressources
complémentaires

Le débarquement du 6 juin 1944

Cette vidéo permet de comprendre comment a été organisé et pensé le débarquement du 6 juin 1944

Voir l'article

1

Ressources
complémentaires

Les institutions européennes

Cette vidéo permet de découvrir et comprendre la composition et les rôles des différentes institutions de l'UE.

Voir l'article
Logo de la revue d'appartenance Speakeasy

Rendez-vous

Cannes 2024: Americans' Rush for Awards

The 77th Cannes Film Festival, held from May 16 to 27, 2024, was marked by a strong presence of American cinema, both in the official selection and in the awards given. Despite the disruptions caused by the actors' strike in 2023, independent and established American filmmakers managed to distinguish themselves on the Croisette. 

Voir l'article
Logo de la revue d'appartenance Speakeasy

Panic in London!: A Comic Strip for English Teaching

Un professeur d’anglais propose une BD pour l’apprentissage de la langue. Le premier titre de la collection Bubble up met en scène un voyage scolaire un peu particulier, où un groupe d’élèves doit relever des défis en anglais pour libérer leur professeur de la Tour de Londres.

Voir l'article
Logo de la revue d'appartenance Speakeasy

Sélection culturelle

The Rosalind Franklin Affair on Stage

Rosalind Franklin is one of the invisible women scientists that litter history. Her work was integral to the discovery of the structure of DNA but only the two male scientists James Watson and Francis Crick are remembered for the achievement. A play in Paris looks at Franklin's career.

Voir l'article
Logo de la revue d'appartenance Lea

Analyses thématiques

'C’est le monde à l’envers !' vu de l’intérieur

Les élèves de l’école Nicolas Vanier de Magny-Montarlot sont venus assister au dernier tournage du réalisateur dans une ancienne ferme à côté de Vézelay, dans le Morvan. L’occasion unique de découvrir les différents métiers du cinéma et le processus de fabrication d’un film.

Voir l'article
Logo de la revue d'appartenance NRP

L’IA générative : les modèles de langage, et l’émergence sémantique

Par Pierre Bourgeois, professeur de mathématiques Ce 3 e article de la série proposée cette année par la NRP s’intéresse aux « grands modèles de langage », dont ChatGPT est l’exemple emblématique. On ne peut comprendre le succès remporté par cette IA générative dès sa mise en ligne en novembre 2022 que si l’on revient sur une avancée théorique de 2017 qui permet aux réseaux neuronaux de « comprendre » le langage naturel. Le dialogue homme/machine peut enfin commencer. La puissance de ChatGPT Il n’a fallu que deux mois au programme de la firme OpenAI pour atteindre les cent millions d’utilisateurs. En comparaison, la plateforme de streaming Netflix a dû attendre trois ans et demi pour en avoir autant. C’est la qualité inattendue des réponses fournies qui enthousiasme une partie des utilisateurs de ChatGPT, capable non seulement de répondre correctement mais aussi d’accomplir des tâches annexes liées au traitement du langage naturel : résumer, reformuler, créer du contenu original, traduire des textes simples, engager des conversations, simuler le langage de personnages fictifs… Avant de voir comment l’émergence d’une telle technologie a été possible, donnons deux exemples récents qui prouvent que les IA génératives remodèlent déjà, chaque jour, nos sociétés. Le 2 novembre dernier, 53 ans après leur séparation, les Beatles sortent leur toute dernière chanson « Now and then ». Le titre accède rapidement à la première place au hit-parade britannique. Un clip vidéo où l’on voit le groupe interpréter la chanson est mis en ligne. À partir d’une courte bande audio d’époque, de très mauvaise qualité, retravaillée et nettoyée par un programme d’IA générative, la voix de John Lennon a pu être reconstruite en respectant à s’y méprendre le timbre et l’intonation de l’artiste disparu depuis un demi-siècle. Pour les images et les vidéos, les productions ont atteint un tel niveau de sophistication qu’il suffit de formuler la requête par une simple phrase et l’IA génère le reste. En avril dernier, le photographe allemand Boris Eldagsen refuse le « Sony World Photography Award » qu’il vient pourtant de remporter. L’artiste avoue que la photographie primée qui représente deux femmes en noir et blanc n’est pas un cliché, mais une image générée par l’intelligence artificielle générative, DALL-E d’Open-AI. Il explique qu’il a voulu « faire un test, pour voir si le monde de la photographie était prêt à gérer l’intrusion de l’IA dans les concours internationaux. » Comment ChatGPT comprend-il mes questions ? Est-ce seulement grâce à son pré-entraînement qui lui a fait ingurgiter une quantité énorme de données textuelles ? Y a-t-il autre chose ? La réponse est à trouver dans les « Large Langage Model » (LLM, cf. encadré). Mais avant de voir ce qui a permis aux LLM de « comprendre » le langage naturel, il nous faut expliquer sommairement ce qu’est un réseau de neurones. Les réseaux de neurones : des boîtes noires ChatGPT est un réseau de neurones, de dernière génération, ultra-performant, c’est-à-dire un modèle informatique inspiré par le fonctionnement du cerveau humain. Ce n’est qu’un immense tableau, des cases remplies de nombres. Peu importe l’ingénierie mathématique qui sous-tend son fonctionnement, l’important est de savoir qu’il peut apprendre, ou plus exactement distinguer, différencier, étiqueter. Un réseau de neurones doit d’abord être entraîné sur un jeu de données, ensuite être testé sur un deuxième jeu de données pour valider son apprentissage, et une fois ces deux phases accomplies, la magie opère : il a appris, et on peut lui proposer de nouvelles données, il saura faire. L’exemple historique a été la reconnaissance d’images, dont la motivation économique était de pouvoir reconnaître le montant manuscrit d’un chèque afin d’en automatiser le traitement. Ce qu’il faut retenir, c’est que ces réseaux de neurones sont des sortes de boîtes noires. Parmi les couches qui les composent, seules celles d’entrée et de sortie sont accessibles, ce qui se passe dans les couches internes demeure caché. C’est pour cela qu’on parle de deep learning , d’apprentissage profond. Pour ceux qui veulent briller dans les dîners en ville, cet apprentissage profond est basé sur deux principes mathématiques appelés « la descente de gradient » et « la rétropropagation de l’erreur ». Les centaines de millions de paramètres qui relient les neurones des couches cachées sont délicatement modifiés lors de la phase de pré-entraînement pour minimiser, dans un espace très abstrait, la distance entre la réponse fournie et la réponse attendue. Osons une comparaison : imaginez que vous visez une cible. Évidemment, lorsque vous vous entraînez, vous la ratez. Mais dans le cas des réseaux de neurones, c’est un peu comme si vous pouviez reprendre à l’envers votre essai, remonter de la cible à votre main, en modifiant des milliers de petits paramètres pour qu’au coup suivant, l’essai soit meilleur. L’attention et les LLM, un saut qualitatif Les deux décennies précédentes ont été marquées par les succès des réseaux neuronaux : AlphaGo, développé par Deep-Mind, a battu le champion du monde du jeu de go, montrant la capacité des réseaux de neurones à maîtriser des jeux stratégiques. Les réseaux de neurones dits convolutifs ont atteint des performances exceptionnelles dans la reconnaissance d’images. Les réseaux de neurones sont utilisés dans les domaines de la santé tels que la détection précoce de maladies et l’analyse d’images médicales. Les réseaux de neurones profonds sont utilisés pour la perception et la prise de décision dans les véhicules autonomes contribuant à la détection d’objets et à la reconnaissance de panneaux de signalisation. Pourtant, malgré toutes ces performances prodigieuses, les réseaux de neurones butaient sur la compréhension du langage naturel humain ; ils excellaient face à de petits textes, mais le sens global d’une phrase, dès qu’elle était un peu longue, leur était inaccessible. En fait, la prise en compte simultanée de deux mots éloignés se perdait dans les profondeurs cachées des couches de neurones. Or, quand on dit : « Après des années de dur labeur et de sacrifices, elle a finalement atteint le sommet de sa carrière, devenant une référence dans son domaine », c’est le rapprochement entre « dur labeur » et « atteint le sommet » qui donne le sens, associant les efforts soutenus et le succès professionnel. Ce problème identifié prend le joli nom de « problème de l’évanescence du gradient ». C’est un peu comme une personne qui parle beaucoup et qui soudain, par manque d’attention, ne sait plus ce qu’elle voulait dire. La solution théorique est arrivée en 2017 dans un article intitulé « Attention is all you need » du chercheur américain Ashish Vaswani. l’IA devient plus « attentive » et repère mieux les liens entre deux mots éloignés dans une phrase. Pour la petite histoire, ces réseaux de neurones sont appelés « Transformers » (le T de ChatGPT vient de là), terme qui vient de la gamme de jouets « Transformers » où un robot peut se transformer en véhicule. Et ça marche au-delà des prévisions : cette nouvelle plasticité permet au réseau de « comprendre » le contexte d’une phrase. On raconte que « l’émergence sémantique », quand tout à coup la machine a montré pour les premières fois qu’elle « comprenait » le sens global d’une phrase, est apparue dans ses réseaux de neurones de façon non prévue. Un chercheur d’OpenAI, entraînant un réseau de neurones de type « Transformeur » pour qu’il apprenne à deviner le mot suivant (en fait, juste la lettre suivante) dans un avis de client d’Amazon, se rend alors compte que la machine a suffisamment « compris » le contexte de l’avis pour l’étiqueter « avis positif » ou « avis négatif ». Un autre chercheur, pré entraînant un réseau de neurones à prédire la prochaine occurrence d’un signe de ponctuation, se rend compte que le réseau « comprend » le sens global et le contexte du texte analysé. Avant, les prédictions ne fonctionnaient que dans des cas simples : « L’été, je déguste des … à la vanille », la réponse qui s’impose est « glaces » ou « sorbets ». Aujourd’hui, pour n’importe quelle question, un LLM fournit une réponse qui montre qu’il a compris le sens de la question. Il peut donner une réponse plausible, et peut également en inventer toute une série et créer des mondes nouveaux sous forme de textes ou d’images. L’intelligence artificielle est devenue générative (c’est le G de GPT). La polysémie, qui fut longtemps un obstacle, n’en est définitivement plus un. Je lui ai posé la question suivante : Comment procèdes-tu, cher ChatGPT, pour différencier le sens des deux mots « particulier »   et «  affaire » dans la phrase suivante : « j’ai fait des affaires lucratives, hier, en particulier, j’ai vendu à un particulier mes affaires de ski. »   Voici sa réponse : Je comprends que la distinction entre les deux occurrences des mots « particulier » et « affaires  » dans la phrase que vous avez fournie peut sembler subtile et dépend du contexte. L’analyse contextuelle dans le modèle GPT-3.5 est basée sur des mécanismes d’attention qui prennent en compte les mots qui entourent chaque occurrence d’un terme donne. La capacité du modèle à effectuer cette distinction repose sur son exposition a des milliards de phrases pendant l’entrainement, lui permettant d’apprendre des modèles linguistiques et de comprendre comment les mots interagissent dans différents contextes. Cependant, il est important de noter que la compréhension du modèle est basée sur des schémas statistiques et contextuels plutôt que sur une compréhension profonde ou une connaissance explicite du sens des mots. Dans cette dernière phrase ChatGPT reconnaît qu’il ne comprend pas grand-chose, il génère simplement la réponse la plus probable. ChatGPT est un peu comme un acteur déclamant un texte magnifique sans aucune conscience de la signification de ce qu’il raconte. Si la plupart du temps ces réseaux fournissent les réponses attendues, il est important d’avoir à l’esprit que ChatGPT peut se tromper, et parfois à un tel point qu’on parle, dans ce cas d’« hallucinations ». Il est donc toujours recommandé de vérifier les informations critiques auprès de sources fiables, surtout si des décisions importantes doivent être prises en fonction de ses réponses. La collaboration homme/machine va nous imposer une certaine vigilance. Sitographie « L’histoire cachée de l’étonnant potentiel de ChatGPT », conférence TED, https://www.ted.com/talks/greg_brockman_the_inside_story_of_chatgpt_s_astonishing_ potential?language=fr Ashish Vaswani, « Attention is all you need», https://arxiv.org/abs/1706.03762 LLM et réseaux « Transformers » LLM est l’acronyme de « Large Langage Model », expression qui peut se traduire par « grand modèle de langage » ou « modèle de langage de grande taille » ou encore « modèle massif de langage ». L’avenir et l’usage diront quelle terminologie française prendra le dessus sur les autres.Un LLM est un réseau de neurones de type « Transformer » entraîner sur des milliers ou des millions de giga-octets de texte. Son apprentissage en profondeur sur des données non nécessairement structurées est accompagné d’une analyse probabiliste et lui permet de « comprendre » un texte ou une question et d’y répondre correctement.

Voir l'article
Logo de la revue d'appartenance Speakeasy

Brooklyn Mourns Paul Auster

Although he was one of the most cosmopolitan American authors, Paul Auster will forever remain indelibly linked with New York and specifically Brooklyn. The author of Moon Palace , The New York Trilogy and films such as Smoke , died there on 30 April at the age of 77 from lung cancer which had been diagnosed in December 2022. Paul Auster leaves behind him a rich body of works dating from the 1970s right up until his death. If he is renowned primarily as a novelist, he also worked as a poet, essayist, and filmmaker. He gained international acclaim with his postmodern, existentialist novels that often explore themes of identity, chance, and the intricacies of human experience. Paul Auster, born in Newark on February 3, 1947, was surrounded by the vibrant atmosphere of New Jersey and New York, where his grandparents lived. His love for literature came from his uncle Allen Mandelbaum, a translator, who introduced him to the world of words. Auster found solace in writing, crafting his first verses during his teenage years. Reflecting on his literary journey in 2018, Auster recalled how reading Dostoevsky's Crime and Punishment at the age of 15 ignited a deep passion within him: "This book completely transformed me to the point where I said to myself: if writing a book can evoke such emotion, then that's what I want to do." Auster was a passionate follower of baseball,. He also joked that he became a writer after a fateful meeting with baseball great Willie Mays as a young boy. After missing out on getting Mays’ autograph because he didn’t have a pencil, the future scribe said he always made sure to keep a pencil or pen in his pocket, “because I didn’t want to be caught unprepared again.” He famously worked without a computer, preferring to write with a typewriter and stay off the Internet to avoid emails. The Enigmatic World of Paul Auster: A Literary Journey In 1965, Auster departed New Jersey to pursue studies in English, French, and Italian literature at Columbia University in New York City. "My grandparents lived here, my mother grew up here, so I came all the time when I was a child, and then I really wanted to go to college in New York," he remarked in La Grande Librairie in 2016. The city's density, vastness, and complexity held an irresistible allure for him. As Auster articulated, "When you have this city in your blood, the rest of America seems lost." During his collegiate years, Auster embarked on his inaugural European voyage, sidestepping the Vietnam War. Between 1971 and 1974, he resided in Paris once more, subsisting on his translations of renowned literary figures such as Sartre, Blanchot, Mallarmé, Apollinaire, Du Bouchet, and the celebrated tightrope walker Philippe Petit. In Paris, he forged a friendship with future German filmmaker Wim Wenders. Although harboring aspirations of becoming a filmmaker himself, Auster's timidity deterred him from pursuing admission to the IDHEC film school. He returned to America, having failed to materialize his aspirations for silent film. Yet, from this disillusioning experience, he would later draw inspiration for his poignant work, The Book of Illusions (2003). "The Invention of Solitude" Upon his return to New York, Auster delved into freelance writing for various publications and commenced work on early drafts of his novels, including The Voyage of Anna Blum (1989) and Moon Palace (1990). Concurrently, Auster encountered and wed Lydia Davis, a budding short-story writer and academic, with whom he had a son, Daniel, who would later pursue photography. However, the trajectory of Auster's life took a significant turn in 1979. Economic hardships precipitated his divorce from Davis, and shortly thereafter, the unexpected death of his father, Samuel Auster, at the age of 66, catalyzed a profound introspection. One of Auster's most notable works came in 1985 with The New York Trilogy , a collection of three interconnected detective stories – City of Glass, Ghosts, and The Locked Room. This seminal work showcases Auster's masterful manipulation of postmodern literary conventions, blurring the line between reality and fiction, and challenging conventional storytelling techniques. Readers are drawn into a labyrinth of identity, truth, and the enigmatic nature of human existence. [gallery columns="2" size="medium" ids="16689,16686"] Auster's exploration of the self and the human condition is a recurring theme in his literature. His novel Moon Palace delves into the complexities of identity and the search for meaning, while The Music of Chance delves into the themes of fate, chance, and the consequences of our choices. His writing style, introspective and philosophical, invites readers to contemplate their place in the world and the forces that shape their lives. [gallery columns="2" size="medium" ids="16688,16691"] Beyond his novels, Auster's non-fiction works offer profound insights into his literary philosophy and the art of storytelling. His memoir, The Invention of Solitude , is a poignant exploration of loss, grief, and the complexities of father-son relationships. Furthermore, his essays, such as those in The Art of Hunger and The Red Notebook, provide a window into Auster's thoughts on literature, politics, and the human experience. As a writer, Paul Auster's ability to craft intricate narratives, weave existential themes, and evoke profound emotions has solidified his place in the pantheon of literary greats. His work continues to inspire and challenge readers, inviting them to ponder the complexities of existence and the enigmatic nature of the human spirit. Paul Auster's literary legacy is a testament to the enduring power of storytelling and the boundless depths of the human imagination. On the Silver Screen Several of his works, including his 1990 novel The Music of Chance, were adapted for the screen and Auster was behind the camera for a number of them. Harvey Keitel starred in the 1995 drama Smoke, about a Brooklyn cigar store and its various patrons played by William Hurt and Giancarlo Esposito. Working as a screenwriter, Auster embellished his short story that originally appeared as a Christmas Day op-ed in The New York Times, employing “the film medium as an extension of his literary art,” according to the Los Angeles Times’ review. The film won him the Independent Spirit Award for first screenplay. https://youtu.be/3v8r-ec4V2M He re-teamed with Smoke director Wayne Wang later that year and they co-directed the sequel, Blue in the Face, which brought back Keitel and Esposito and also starred Lou Reed, Mira Sorvino and Madonna. He is also credited on the screenplay for Wang’s 2001 romance The Center of the World. Auster wrote and directed the 1998 mystery drama Lulu on the Bridge, which again starred Keitel and Sorvino and was nominated for the Un Certain Regard prize at the Cannes International Film Festival. Auster's work has been translated into over forty languages and has won numerous awards, including the PEN/Faulkner Award for Fiction, the Prix Prince des Asturies , and the Commandeur de l'Ordre des Arts et des Lettres. He was a member of the American Academy of Arts and Letters and the American Academy of Arts and Sciences. Here are some of Paul Auster's most famous works: The New York Trilogy (1986–1994) Moon Palace (1989) Leviathan (1992) Timbuktu (1999) The Book of Illusions (2002) Oracle Night (2003) 4 3 2 1 (2007) Baumgartner is his final book (2023, the French translation was being published just as he died.) [gallery columns="2" size="medium" ids="16684,16685"]

Voir l'article
Logo de la revue d'appartenance Speakeasy

Rendez-vous

If Girls Were in Charge

A new documentary, Girls State, looks at a social experiment where 500 girls from Missouri try to form a government, running for positions like Governor and Supreme Court Justices. It makes a fascinating contrast with the award-winning 2020 documentary by the same team following 1000 boys in Texas participating in the same national project.

Voir l'article

1

Ressources
complémentaires

L'Union européenne se tourne vers l'Est

Quelle évolution des frontières européennes depuis 1989 ?

Voir l'article
Logo de la revue d'appartenance Speakeasy

Matilda Reading Guide

Last year, we started a new collection of Reading Guides to help you introduce your pupils to reading fiction in English in collège and seconde. Our latest title is about to arrive in bookshops: Matilda by Roald Dahl!

Voir l'article
Logo de la revue d'appartenance Speakeasy

Speed Speaking for the Semaine des Langues

Speed  speaking : des ateliers de conversation en langues vivantes au collège pour la Semaine des Langues.

Voir l'article

4

Ressources
complémentaires

Logo de la revue d'appartenance NRP

Séquence pédagogique

L'envers du foot

Voir l'article

9

Ressources
complémentaires

Logo de la revue d'appartenance NRP

Séquence pédagogique

La biographie rêvée d’un mythe insaisissable

Voir l'article

5

Ressources
complémentaires

Logo de la revue d'appartenance NRP

Fiche élève

Écrire un texte court au présent

Voir l'article

2

Ressources
complémentaires

Logo de la revue d'appartenance NRP

Fiche élève

La mort de Tibère

Voir l'article
Logo de la revue d'appartenance Speakeasy

Sélection culturelle

Monkey Man: Indian Mythology Meets Action Movie

Monkey Man is a completely new departure for Slumdog Millionaire star Dev Patel: he co-wrote, directed and stars in the film inspired by Indian mythology and reality.

Vous avez vu 420 résultats sur 2256