Voir l'article
Logo de la revue d'appartenance Speakeasy

Sports Stories Winners Lycée B2

We received thousands and thousands of fabulous entries to our sport-themed creative-writing contest. Here are our favourite lycée texts entered as B2. There are a couple with an equestrian theme, and others on athletics, figure skating, volleyball, cycling, badminton and Gaelic football. Plus one that is out of this world!

Voir l'article
Logo de la revue d'appartenance Speakeasy

Sports Stories Winners Outsize

We received thousands and thousands of fabulous entries to our sport-themed creative-writing contest. There were a few that were much longer than our suggested word count but that we couldn't resist including. They all take a fairly fantastical look at the sports theme.

Voir l'article

1

Ressources
complémentaires

New Delhi face à la pénurie d'eau

Alors que la canicule sévit à New Delhi, l’accès à l’eau est devenu très difficile...

Voir l'article
Logo de la revue d'appartenance Speakeasy

Sports Stories Winners Lycée B1 Plus

We received thousands and thousands of fabulous entries to our sport-themed creative-writing contest. Here are our favourite lycée texts entered as B1 plus. Here are stories about parasports, basketball, football and the American variety. Combat sports taekwondo and MMA feature, as does athletics and a story told from the point of view of sports equipment.

Voir l'article
Logo de la revue d'appartenance Speakeasy

Sports Stories Winners A2

We challenged your pupils to write stories inspired sport and the Olympic Games. We were stunned by the imagination they showed.

Voir l'article
Logo de la revue d'appartenance Speakeasy

Meet the Author in Toulouse: William Lafleur

Vous êtes déjà nombreux à plébisciter notre première BD d'apprentissage, Panic in London. Le 22 juin, l'auteur William Lafleur (Monsieur l'ex Prof) fera une séance de dédicaces à la librairie Gibert de Toulouse.

Voir l'article

1

Ressources
complémentaires

En Chine, combattre la déflation

Si l'UE et les États-Unis se battent encore contre l’inflation, la Chine essaie de trouver une solution à la déflation

Voir l'article
Logo de la revue d'appartenance NRP

Demandez le programme 2024-2025 !

N° 108 – Septembre 2024 Visages du romantisme La pièce de Musset, On ne badine pas avec l’amour , désormais au programme en 1 re , engage à travailler sur le romantisme. La séquence de 2 de sera consacrée au personnage noir dans les œuvres romantiques. En miroir de cette œuvre, il sera aussi question d’une nouvelle édition scolaire de Récitatif , un récit passionnant et accessible de Toni Morrison. N° 109 – Décembre 2024 Formes courtes du théâtre contemporain Sketches, pièces radiophoniques, formats brefs : dans ce numéro, on s’écartera des formes classiques du texte théâtral pour s’intéresser à la manière d’occuper la scène aujourd’hui. C’est dans ce contexte que s’inscrira l’étude de Pour un oui ou pour un non , une pièce que Nathalie Sarraute a d’abord écrite pour la radio. N° 110 – Mars 2025 Mensonge et comédie, mensonge romanesque Le thème du mensonge sera décliné dans deux genres. Révélateur d’une face sombre de l’homme dans un roman contemporain, le mensonge est au théâtre un moteur de la comédie. C’est le cas dans Le Menteur de Corneille, au programme cette année. N° 111 - Mai 2025 Ce que la littérature dit de l'intolérance religieuse Centré sur la classe de 2 de , ce numéro cherchera à montrer comment la littérature est peut-être le meilleur moyen de traiter la question de l’intolérance religieuse : en écoutant des poètes relater les conflits religieux au XVI e siècle, en littérature d’idée bien sûr, mais en choisissant également un détour par la fiction. Pour vous abonner, rendez-vous sur le site rubrique  Abonnement .

Voir l'article

1

Ressources
complémentaires

La grève chez Samsung : une révolution

Pour la première fois dans son histoire, l’entreprise Samsung est confrontée à un mouvement de grève.

Voir l'article
Logo de la revue d'appartenance Speakeasy

Operation Overlord: the Turning Point of World War II

On June 6, 1944 at dawn, Operation Overlord, the largest airborne and naval offensive in history, was launched by the Allied forces to open a second front in Western Europe against Nazi Germany.

Voir l'article

1

Ressources
complémentaires

L'élite, à quel prix ?

Certains cursus du supérieur sont devenus hors de prix… Quel impact sur la mobilité sociale ?

Voir l'article

1

Ressources
complémentaires

Tous à vélo pendant Paris 2024

Des JO 100 % cyclables avec le développement du réseau de pistes dédiées au vélo pour les jeux.

Voir l'article

1

Ressources
complémentaires

La batterie, une filière dominée par la Chine

Grâce à ses ressources en lithium, la Chine est devenue le leader mondial de la production de batteries électriques.

Voir l'article

1

Ressources
complémentaires

Les États-Unis : la fin de l'hyperpuissance

Si les États-Unis restent la première puissance mondiale, cette position est contestée par l’ascension de la Chine. 

Voir l'article
Logo de la revue d'appartenance Speakeasy

Rendez-vous

Cannes 2024: Americans' Rush for Awards

The 77th Cannes Film Festival, held from May 16 to 27, 2024, was marked by a strong presence of American cinema, both in the official selection and in the awards given. Despite the disruptions caused by the actors' strike in 2023, independent and established American filmmakers managed to distinguish themselves on the Croisette. 

Voir l'article

1

Ressources
complémentaires

Le sport, un outil de soft power

Samuel Ducroquet, ambassadeur pour le Sport, expose les fondements et les aspects de la diplomatie française du sport.

Voir l'article
Logo de la revue d'appartenance Speakeasy

Panic in London!: A Comic Strip for English Teaching

Un professeur d’anglais propose une BD pour l’apprentissage de la langue. Le premier titre de la collection Bubble up met en scène un voyage scolaire un peu particulier, où un groupe d’élèves doit relever des défis en anglais pour libérer leur professeur de la Tour de Londres.

Voir l'article
Logo de la revue d'appartenance Speakeasy

Sélection culturelle

The Rosalind Franklin Affair on Stage

Rosalind Franklin is one of the invisible women scientists that litter history. Her work was integral to the discovery of the structure of DNA but only the two male scientists James Watson and Francis Crick are remembered for the achievement. A play in Paris looks at Franklin's career.

Voir l'article

1

Ressources
complémentaires

La Nouvelle-Calédonie : un territoire à enjeux

Alors que la Nouvelle-Calédonie est en proie à des violences inouïes, ce documentaire explique les enjeux de ce territoire.

Voir l'article

Conseil lecture : « Nourrir sans dévaster »

Aimer le pain mais mépriser les céréaliers... Enquête au cœur des contradictions alimentaires des Français.

Voir l'article

1

Ressources
complémentaires

L'Antarctique, un espace convoité

L’Antarctique recèle d’immenses ressources pétrolières suscitant la convoitise de nombreux pays. 

Voir l'article
Logo de la revue d'appartenance NRP

L’IA générative : les modèles de langage, et l’émergence sémantique

Par Pierre Bourgeois, professeur de mathématiques Ce 3 e article de la série proposée cette année par la NRP s’intéresse aux « grands modèles de langage », dont ChatGPT est l’exemple emblématique. On ne peut comprendre le succès remporté par cette IA générative dès sa mise en ligne en novembre 2022 que si l’on revient sur une avancée théorique de 2017 qui permet aux réseaux neuronaux de « comprendre » le langage naturel. Le dialogue homme/machine peut enfin commencer. La puissance de ChatGPT Il n’a fallu que deux mois au programme de la firme OpenAI pour atteindre les cent millions d’utilisateurs. En comparaison, la plateforme de streaming Netflix a dû attendre trois ans et demi pour en avoir autant. C’est la qualité inattendue des réponses fournies qui enthousiasme une partie des utilisateurs de ChatGPT, capable non seulement de répondre correctement mais aussi d’accomplir des tâches annexes liées au traitement du langage naturel : résumer, reformuler, créer du contenu original, traduire des textes simples, engager des conversations, simuler le langage de personnages fictifs… Avant de voir comment l’émergence d’une telle technologie a été possible, donnons deux exemples récents qui prouvent que les IA génératives remodèlent déjà, chaque jour, nos sociétés. Le 2 novembre dernier, 53 ans après leur séparation, les Beatles sortent leur toute dernière chanson « Now and then ». Le titre accède rapidement à la première place au hit-parade britannique. Un clip vidéo où l’on voit le groupe interpréter la chanson est mis en ligne. À partir d’une courte bande audio d’époque, de très mauvaise qualité, retravaillée et nettoyée par un programme d’IA générative, la voix de John Lennon a pu être reconstruite en respectant à s’y méprendre le timbre et l’intonation de l’artiste disparu depuis un demi-siècle. Pour les images et les vidéos, les productions ont atteint un tel niveau de sophistication qu’il suffit de formuler la requête par une simple phrase et l’IA génère le reste. En avril dernier, le photographe allemand Boris Eldagsen refuse le « Sony World Photography Award » qu’il vient pourtant de remporter. L’artiste avoue que la photographie primée qui représente deux femmes en noir et blanc n’est pas un cliché, mais une image générée par l’intelligence artificielle générative, DALL-E d’Open-AI. Il explique qu’il a voulu « faire un test, pour voir si le monde de la photographie était prêt à gérer l’intrusion de l’IA dans les concours internationaux. » Comment ChatGPT comprend-il mes questions ? Est-ce seulement grâce à son pré-entraînement qui lui a fait ingurgiter une quantité énorme de données textuelles ? Y a-t-il autre chose ? La réponse est à trouver dans les « Large Langage Model » (LLM, cf. encadré). Mais avant de voir ce qui a permis aux LLM de « comprendre » le langage naturel, il nous faut expliquer sommairement ce qu’est un réseau de neurones. Les réseaux de neurones : des boîtes noires ChatGPT est un réseau de neurones, de dernière génération, ultra-performant, c’est-à-dire un modèle informatique inspiré par le fonctionnement du cerveau humain. Ce n’est qu’un immense tableau, des cases remplies de nombres. Peu importe l’ingénierie mathématique qui sous-tend son fonctionnement, l’important est de savoir qu’il peut apprendre, ou plus exactement distinguer, différencier, étiqueter. Un réseau de neurones doit d’abord être entraîné sur un jeu de données, ensuite être testé sur un deuxième jeu de données pour valider son apprentissage, et une fois ces deux phases accomplies, la magie opère : il a appris, et on peut lui proposer de nouvelles données, il saura faire. L’exemple historique a été la reconnaissance d’images, dont la motivation économique était de pouvoir reconnaître le montant manuscrit d’un chèque afin d’en automatiser le traitement. Ce qu’il faut retenir, c’est que ces réseaux de neurones sont des sortes de boîtes noires. Parmi les couches qui les composent, seules celles d’entrée et de sortie sont accessibles, ce qui se passe dans les couches internes demeure caché. C’est pour cela qu’on parle de deep learning , d’apprentissage profond. Pour ceux qui veulent briller dans les dîners en ville, cet apprentissage profond est basé sur deux principes mathématiques appelés « la descente de gradient » et « la rétropropagation de l’erreur ». Les centaines de millions de paramètres qui relient les neurones des couches cachées sont délicatement modifiés lors de la phase de pré-entraînement pour minimiser, dans un espace très abstrait, la distance entre la réponse fournie et la réponse attendue. Osons une comparaison : imaginez que vous visez une cible. Évidemment, lorsque vous vous entraînez, vous la ratez. Mais dans le cas des réseaux de neurones, c’est un peu comme si vous pouviez reprendre à l’envers votre essai, remonter de la cible à votre main, en modifiant des milliers de petits paramètres pour qu’au coup suivant, l’essai soit meilleur. L’attention et les LLM, un saut qualitatif Les deux décennies précédentes ont été marquées par les succès des réseaux neuronaux : AlphaGo, développé par Deep-Mind, a battu le champion du monde du jeu de go, montrant la capacité des réseaux de neurones à maîtriser des jeux stratégiques. Les réseaux de neurones dits convolutifs ont atteint des performances exceptionnelles dans la reconnaissance d’images. Les réseaux de neurones sont utilisés dans les domaines de la santé tels que la détection précoce de maladies et l’analyse d’images médicales. Les réseaux de neurones profonds sont utilisés pour la perception et la prise de décision dans les véhicules autonomes contribuant à la détection d’objets et à la reconnaissance de panneaux de signalisation. Pourtant, malgré toutes ces performances prodigieuses, les réseaux de neurones butaient sur la compréhension du langage naturel humain ; ils excellaient face à de petits textes, mais le sens global d’une phrase, dès qu’elle était un peu longue, leur était inaccessible. En fait, la prise en compte simultanée de deux mots éloignés se perdait dans les profondeurs cachées des couches de neurones. Or, quand on dit : « Après des années de dur labeur et de sacrifices, elle a finalement atteint le sommet de sa carrière, devenant une référence dans son domaine », c’est le rapprochement entre « dur labeur » et « atteint le sommet » qui donne le sens, associant les efforts soutenus et le succès professionnel. Ce problème identifié prend le joli nom de « problème de l’évanescence du gradient ». C’est un peu comme une personne qui parle beaucoup et qui soudain, par manque d’attention, ne sait plus ce qu’elle voulait dire. La solution théorique est arrivée en 2017 dans un article intitulé « Attention is all you need » du chercheur américain Ashish Vaswani. l’IA devient plus « attentive » et repère mieux les liens entre deux mots éloignés dans une phrase. Pour la petite histoire, ces réseaux de neurones sont appelés « Transformers » (le T de ChatGPT vient de là), terme qui vient de la gamme de jouets « Transformers » où un robot peut se transformer en véhicule. Et ça marche au-delà des prévisions : cette nouvelle plasticité permet au réseau de « comprendre » le contexte d’une phrase. On raconte que « l’émergence sémantique », quand tout à coup la machine a montré pour les premières fois qu’elle « comprenait » le sens global d’une phrase, est apparue dans ses réseaux de neurones de façon non prévue. Un chercheur d’OpenAI, entraînant un réseau de neurones de type « Transformeur » pour qu’il apprenne à deviner le mot suivant (en fait, juste la lettre suivante) dans un avis de client d’Amazon, se rend alors compte que la machine a suffisamment « compris » le contexte de l’avis pour l’étiqueter « avis positif » ou « avis négatif ». Un autre chercheur, pré entraînant un réseau de neurones à prédire la prochaine occurrence d’un signe de ponctuation, se rend compte que le réseau « comprend » le sens global et le contexte du texte analysé. Avant, les prédictions ne fonctionnaient que dans des cas simples : « L’été, je déguste des … à la vanille », la réponse qui s’impose est « glaces » ou « sorbets ». Aujourd’hui, pour n’importe quelle question, un LLM fournit une réponse qui montre qu’il a compris le sens de la question. Il peut donner une réponse plausible, et peut également en inventer toute une série et créer des mondes nouveaux sous forme de textes ou d’images. L’intelligence artificielle est devenue générative (c’est le G de GPT). La polysémie, qui fut longtemps un obstacle, n’en est définitivement plus un. Je lui ai posé la question suivante : Comment procèdes-tu, cher ChatGPT, pour différencier le sens des deux mots « particulier »   et «  affaire » dans la phrase suivante : « j’ai fait des affaires lucratives, hier, en particulier, j’ai vendu à un particulier mes affaires de ski. »   Voici sa réponse : Je comprends que la distinction entre les deux occurrences des mots « particulier » et « affaires  » dans la phrase que vous avez fournie peut sembler subtile et dépend du contexte. L’analyse contextuelle dans le modèle GPT-3.5 est basée sur des mécanismes d’attention qui prennent en compte les mots qui entourent chaque occurrence d’un terme donne. La capacité du modèle à effectuer cette distinction repose sur son exposition a des milliards de phrases pendant l’entrainement, lui permettant d’apprendre des modèles linguistiques et de comprendre comment les mots interagissent dans différents contextes. Cependant, il est important de noter que la compréhension du modèle est basée sur des schémas statistiques et contextuels plutôt que sur une compréhension profonde ou une connaissance explicite du sens des mots. Dans cette dernière phrase ChatGPT reconnaît qu’il ne comprend pas grand-chose, il génère simplement la réponse la plus probable. ChatGPT est un peu comme un acteur déclamant un texte magnifique sans aucune conscience de la signification de ce qu’il raconte. Si la plupart du temps ces réseaux fournissent les réponses attendues, il est important d’avoir à l’esprit que ChatGPT peut se tromper, et parfois à un tel point qu’on parle, dans ce cas d’« hallucinations ». Il est donc toujours recommandé de vérifier les informations critiques auprès de sources fiables, surtout si des décisions importantes doivent être prises en fonction de ses réponses. La collaboration homme/machine va nous imposer une certaine vigilance. Sitographie « L’histoire cachée de l’étonnant potentiel de ChatGPT », conférence TED, https://www.ted.com/talks/greg_brockman_the_inside_story_of_chatgpt_s_astonishing_ potential?language=fr Ashish Vaswani, « Attention is all you need», https://arxiv.org/abs/1706.03762 LLM et réseaux « Transformers » LLM est l’acronyme de « Large Langage Model », expression qui peut se traduire par « grand modèle de langage » ou « modèle de langage de grande taille » ou encore « modèle massif de langage ». L’avenir et l’usage diront quelle terminologie française prendra le dessus sur les autres.Un LLM est un réseau de neurones de type « Transformer » entraîner sur des milliers ou des millions de giga-octets de texte. Son apprentissage en profondeur sur des données non nécessairement structurées est accompagné d’une analyse probabiliste et lui permet de « comprendre » un texte ou une question et d’y répondre correctement.

Voir l'article
Logo de la revue d'appartenance NRP

L’IA générative : beaucoup de qualités et quelques vilains défauts

Par Pierre Bourgeois, professeur de mathématiques La rapidité avec laquelle se développent les intelligences artificielles génératives fait tourner les têtes et donne lieu à des titres accrocheurs dans la presse. Les États aussi ont du mal à suivre : fin mars 2023, l’Italie interdit ChatGPT pour l’autoriser à nouveau un mois plus tard. Pour échapper à la peur d’être anéanti par la machine et ne pas céder à une fascination un peu naïve devant ces boîtes magiques, il ne faut pas hésiter à engager avec elles des conversations, ce qui, comme toujours, permet de mieux se connaître. Et plus, si affinités. Les * renvoient au glossaire Le poids des mots, plus que le choc des photos Des IA dans nos vies En plus de ChatGPT, OpenAI propose deux autres IA génératives : DallE et le tout nouveau Sora. Ces programmes utilisent les mêmes technologies d’apprentissage automatique* basées sur des réseaux neuronaux*. En répondant à une requête textuelle, DallE génère une image tandis que Sora produit une vidéo : d’un simple clic vous pouvez créer un cliché ou un film qui sembleront parfaitement authentiques. Pourtant, il est probable que Dall-E et Sora soient moins plébiscités que ChatGPT, car même si les images et les vidéos ont envahi nos vies, nos activités restent largement basées sur la production de textes écrits. En donnant la possibilité d’automatiser réécritures et reformulations, les grands modèles de langage* bouleversent déjà nos modes de fonctionnement. Les moteurs de recherche comme Google et Bing intègrent déjà, sans le mentionner, des IA génératives, Bard pour Google et ChatGPT pour Bing. Imperceptiblement, Google et Bing sont devenus des moteurs de réponses plutôt que des moteurs de recherche. Qui vous dit, d’ailleurs, que l’article que vous êtes en train de lire, le livre qui est sur votre table de chevet, le discours d’un collègue à l’occasion d’un pot de départ ou même le mot affectueux de la personne la plus proche de vous ont été rédigés sans l’aide d’une IA conversationnelle ? Un remarquable producteur de discours standardisé Amusons-nous à poser à ChatGPT la question suivante – dire « le prompt suivant » si vous parlez à un informaticien : « Bonjour, cher ChatGPT, peux-tu me proposer un exemple de discours d’un dirigeant d’entreprise ? » Voici quelques extraits de sa réponse. « Chers collègues, Je vous remercie d’être présents aujourd’hui alors que nous nous réunissons pour discuter de l’état actuel de notre entreprise et de nos plans pour l’avenir. […] Nous avons récemment réalisé une analyse approfondie de nos forces et de nos faiblesses, ainsi que des opportunités et des menaces qui se présentent à nous. Sur la base de ces informations nous avons élaboré un plan stratégique solide qui guidera nos actions dans les mois à venir. […] En conclusion, je souhaite réaffirmer mon engagement envers notre entreprise et notre équipe. Je crois fermement en notre capacité à surmonter les obstacles et à atteindre de nouveaux sommets de succès. Merci encore pour votre engagement et votre soutien continu. Ensemble, nous pouvons réaliser de grandes choses. Le réseau neuronal qui se cache derrière ChatGPT a ingurgité des milliers de discours de ce type pour en générer un aussi parfaitement standardisé. On ne peut s’empêcher de féliciter ChatGPT, tout en lui faisant remarquer que son discours est d’une grande banalité et qu’il est axé uniquement sur les aspects positifs. Voici sa réponse. « Vous avez raison, un discours qui ne met l’accent que sur les succès et les potentialités fortes de l’entreprise peut sembler incomplet ou peu réaliste. En réalité, un discours équilibré devrait également reconnaître les défis et les domaines où des améliorations sont nécessaires. Voici une version révisée qui prend en compte cette perspective : Chers collègues, […] Il est important de reconnaître que malgré nos succès, il y a encore des domaines où nous devons nous améliorer. Nous devons être ouverts à l’auto-évaluation et à l’adaptation, afin de rester compétitifs dans notre secteur et de répondre aux besoins changeants de nos clients. Dans le cadre de notre processus d’amélioration continue, nous avons identifié plusieurs domaines prioritaires sur lesquels nous allons nous concentrer dans les mois à venir. Cela inclut le renforcement de nos relations clients, l’amélioration de notre efficacité opérationnelle et le développement de notre culture d’innovation. […] » Cet exemple montre la redoutable efficacité des grands modèles de langage* dans le traitement de tous les processus de communication. Ils ne se contentent pas de reproduire un type de discours, ils en fabriquent d’autres, aussi normalisés et indigents que ceux dont on les a nourris. Allons-nous ainsi vers une automatisation des interactions, comme c’est le cas déjà avec les assistants virtuels dans les applications mobiles ou les agents conversationnels, les chatbots des sites Web ? De la bonne ou la mauvaise éducation des IA ChatGPT, champion de la politesse et de la mesure Le succès de ChatGPT repose entre autre sur sa capacité à interagir de manière appropriée avec les utilisateurs. Il a bénéficié de l’expérience malheureuse du robot conversationnel Tay de la firme Microsoft. Ce dernier, mis en ligne sur Twitter en 2016, a dû être arrêté au bout de 4 jours de fonctionnement en raison de ses propos racistes, antisémites et sexistes. À l’époque, l’apprentissage profond, le fameux deep learning* connaît une montée en puissance. Pour les concepteurs de Tay, Twitter était le meilleur endroit pour que le réseau de neurones* apprenne progressivement le langage naturel, d’autant plus qu’un essai grandeur nature en Chine avait été concluant. Hélas, dès sa mise en ligne, Tay a été inondé de tweets racistes et sexistes. En bon réseau de neurones, il s’est servi de ces contenus haineux pour sa phase d’entraînement. Mal éduqué, il est allé jusqu’à mettre en ligne un tweet niant l’existence de la Shoah. Microsoft a présenté des excuses, évoquant une attaque coordonnée d’internautes malveillants, sans communiquer outre mesure sur cet échec. Six ans plus tard, GPT-3, sur lequel ChatGPT s’appuie, a bénéficié d’une technologie plus robuste. Pour éviter les déboires arrivés au logiciel Tay de Microsoft, des opérateurs humains ont méthodiquement étiqueté des milliers de documents, certains sortis des bas-fonds d’Internet, pour apprendre à GPT à rejeter les contenus inappropriés. Une enquête du Times au Kenya en janvier 2023 a d’ailleurs révélé que cette tâche peu valorisante qui consiste à lire et à attribuer une étiquette négative à ce genre de contenus avait été sous-traité à des travailleurs recevant des salaires de misère. Les modèles de langage ne sont pas neutres. Si on ne peut qu’être satisfait du fait qu’un modèle de langage comme ChatGPT ne dérape jamais et ne génère pas de contenu inapproprié, il faut garder à l‘esprit qu’il véhicule les représentations du monde de ses concepteurs : il est « politiquement correct » par construction. Dans le futur, d’autres modèles de langage vont apparaître, imprégnés d’idéologies et de représentations du monde différentes. L’IA est-elle sexiste ? Les organismes internationaux semblent aussi capables d’erreurs d’interprétation. Un récent rapport de l’UNESCO (7 mars 2024) pointe des biais sexistes dans les moteurs de recherche GPT-3.5 et GPT-2 d’OpenAI et Llama 2 de Meta. Selon cette étude, les plateformes associent fréquemment les femmes aux mots « maison », « famille », « amour » alors que les hommes sont associés aux termes « carrière », « salaire » et « entreprise ». Plus terrible encore : l’homme est « ingénieur », « médecin » ou « enseignant » alors que la femme serait « cuisinière », « domestique » ou encore « prostituée ». L’étude dénote en réalité une méconnaissance de ce qu’est un modèle de langage*. Les discriminations qu’il peut générer ne sont que le reflet de ce qu’il a ingurgité. Les robots de ChatGPT ont crawlé (ils parcourent Internet de lien en lien) la presque totalité du Web et ont donc récupéré d’innombrables documents aux contenus sexistes. Mais chaque contenu utilisé est pondéré par un coefficient qui traduit sa fiabilité (à titre d'exemple, Wikipédia, qui ne représente que 3 % des données brutes utilisées dans l’apprentissage, est valorisé à 60 % dans les poids attribués aux paramètres, les sites Web à contenu douteux sont même affectés d’un poids négatif). La fin du rapport, qui propose l'embauche de davantage de femmes dans les métiers du numérique pour remédier à ces dérives sexistes, laisse entrevoir une incompréhension profonde de ce qu'est un LLM. ChatGPT4 n'est qu'un immense miroir qui reflète, à sa façon, l'ensemble des productions crées avant avril 2023. En répondant à nos questions, ChatGPT nous accompagne vers l'avenir en étant par construction tourné vers le passé. Il ne peut en rien prédire les évolutions futures des formes de créations, et même le passé récent de nos sociétés lui échappe totalement. Pour finir sur ce point, j'ai posé la question suivante : « Cher ChatGPT, y a-t-il plus de mathématiciens que de mathématiciennes ? ». « La question de savoir s’il y a plus d’hommes que de femmes dans le domaine des mathématiques est complexe et dépend de nombreux facteurs, y compris les opportunités d’éducation, les stéréotypes de genre, les pressions socioculturelles, etc. Historiquement, les mathématiques ont été dominées par les hommes, mais au fil du temps, il y a eu une augmentation du nombre de femmes s’engageant dans ce domaine. Dans de nombreux pays, les efforts sont déployés pour encourager les filles et les femmes à poursuivre des carrières en mathématiques et dans les domaines des sciences, de la technologie, de l’ingénierie et des mathématiques (STEM). Bien que les disparités persistent dans certains contextes, il est important de reconnaître que les capacités mathématiques ne sont pas liées au genre, et que les femmes ont tout autant de potentiel que les hommes dans ce domaine. » On ne trouve pas le biais sexiste dénoncé par l’Unesco, et sa réponse est bien celle qu’on attend d’un outil numérique produit par une entreprise californienne en 2024. ChatGPT, plus littéraire que matheux ? Tester Il semble sage d’éviter de considérer les IA comme de simples outils au service de l’humanité : les IA sont plus que cela. Leur attribuer des propriétés anthropomorphiques, une intention, une pensée, voire un début de conscience est tout aussi dangereux. Les IA sont, évidemment, moins que cela. Une troisième attitude consiste à commencer par les tester, en se documentant sur leurs principes de fonctionnement, sans oublier d’envisager leurs effets psychologiques et politiques sur nos sociétés. Cette attitude requiert d’avoir toujours à l’esprit que le LLM* a été conçu pour deviner la suite probable d’une histoire, comme s’il pouvait avoir accès à l’ensemble des documents écrits sur le sujet. Créations textuelles Demandons à ChatGPT d’écrire un pastiche de la fable de La Fontaine « Le Corbeau et le Renard », mais sans corbeau ni renard, en lui imposant un chat et une souris. Au prompt « Bonjour Chat GPT, peux-tu réécrire “Le Corbeau et le Renard” en utilisant un chat et une souris sans perdre l’idée d’une farce malicieuse ? », il propose le texte suivant. « Un chat perché sur un mur tenait dans sa gueule une souris, Quelque peu sotte mais pleine d’esprit, disons-le. Un autre chat, voyant cela, lui tint à peu près ce langage : “Hé bonjour, quel bel animal vous avez là !” Sans attendre de réponse, le chat ajouta : “Ah, que vous êtes joli ! que vous me semblez beau ! Sans mentir, si votre ramage Se rapporte à votre plumage, Vous êtes le roi des animaux de compagnie ici-bas.” À ces mots le chat ne se sent pas de joie. Et pour montrer son agilité, il sautille et il gambade. Il se pavane, fait le beau, prétendant être le plus malin des félins. Pendant ce temps, la souris, alertée, s’échappe en un clin d’oeil, Laissant le chat tout confus, sans même un bout de queue à croquer. Moralité : Apprends, chère chatte, qu’il faut se méfier des flatteries Car en cherchant à paraître plus malin que les autres, On finit par perdre le bout de sa queue. » Les contraintes sont respectées. Quelques petites hallucinations, comme souvent dans les réponses de ChatGPT, sont présentes : le chat du premier vers devient une chatte dans la morale et le chat n’a pas de “ramage” ni de “plumage”. Si le dernier vers ne vous satisfait pas, ChatGPT vous le changera. À ma demande, il a proposé « on finit par y perdre son dessert » On peut supposer que le premier vers : « Un chat perché sur un mur » découle du fait que lors de sa période d’entraînement, ChatGPT a dû ingurgiter des centaines d’histoires contenant des chats se trouvant sur des murs. « Perché sur un mur » montre qu’il sait que « se percher » n’est pas réservé à un oiseau sur une branche. Remplacer le fromage par une souris semble un choix possible, les chats aimant à la fois les bouts de fromage et les souris ! Plus créative semble l’introduction d’un deuxième chat, non exigée dans les contraintes de l’énoncé, mais il faut se rappeler que ChatGPT a eu accès à tellement d’histoires… ChatGPT, mauvais élève en mathématiques Ce n’est pas souvent dit, mais en mathématiques, ChatGPT et les LLM n’ont pas un niveau supérieur à celui d’un élève de maternelle. En voici une démonstration rapide, Posons à ChatGPT la question suivante : « Cher ChatGPT, peux-tu écrire une liste de 3 nombres entiers, telle que la somme des deux premiers soit égale à la somme des deux derniers ? » Voici sa réponse : « Bien sûr, voici une liste de trois nombres entiers répondant à cette condition : 4, 3, 7. Dans cette liste, la somme des deux premiers nombres (4 + 3) est égale à la somme des deux derniers nombres (3 + 7), soit 7. » Me sentant obligé de réagir, je lui soumets le prompt suivant : « Sais-tu que 3 + 7 = 10 ? Refais l’exercice. » ChatGPT tente alors de se corriger : « Je m’excuse (sic) pour l’erreur. Reprenons. Une liste de trois nombres où la somme des deux premiers est égale à la somme des deux derniers serait : 1, 2, 3. Dans cette liste, la somme des deux premiers nombres (1 + 2) est égale à la somme des deux derniers nombres (2 + 3), soit 3. » Là commence un dialogue de sourds où ChatGPT campe sur ses positions en répétant à chaque fois exactement la même réponse absurde. De rage, avant de le débrancher, je lui pose la question suivante : « As-tu un exemple dans la littérature de personne très cultivée, connaissant plein de choses, mais inapte à tout raisonnement ? » Et là, il me répond, comme si de rien n’était : « Oui, un exemple classique dans la littérature serait le personnage de Monsieur Homais dans le roman Madame Bovary de Gustave Flaubert. Monsieur Homais est un pharmacien de la ville de Yonville-l’Abbaye, qui se considère comme un intellectuel brillant et qui est avide de connaissances scientifiques et philosophiques. Cependant, malgré sa prétention à être cultivé, il est souvent décrit comme étant inapte au raisonnement logique et ses actions sont motivées par l’opportunisme et l’égoïsme plutôt que par une véritable compréhension ou sagesse. Son incapacité à raisonner de manière cohérente le conduit à commettre des erreurs de jugement et à agir de manière hypocrite tout au long du roman. » Je laisse les lecteurs experts de Flaubert juger de la pertinence de la réponse. Elle souligne en tout cas l’écart entre son niveau en mathématiques et une certaine finesse dans la production de textes. Rien ne dit qu’il est incapable de raisonnement mathématique ou logique. Mais pour progresser, il faudra qu’il ait avalé ce raisonnement dans sa période d’entraînement, et plutôt deux fois qu’une.   Glossaire Machine Learning ou apprentissage automatique C’est un algorithme qui, après une phase d’entraînement, aappris à reconnaître des modèles, avec un taux d’erreur très faible. Le programme est capable ensuite de prendre des décisions en conséquence. Les débuts théoriques datent des années 1960. Dans les années 1990, ses premiers succès apparaissent avec l’augmentation des vitesses de calcul et l’accès aux immenses bases de données numérisées : ce sont les systèmes de recommandations proposés par Netflix ou Amazon, ou la victoire en 1997 de Deep Blue sur le champion du monde d’échecs Gary Kasparov. Le grand public apprend alors que la machine peut apprendre. Réseau de neurones Comme un immense tableau de nombres, il est constitué de couches où seules les couches d’entrée et de sortie sont visibles par l’utilisateur. Le reste est opaque. Inspirés, au départ par les neurones biologiques, ces réseaux apprennent d’abord sur un énorme jeu de données d’entraînement. À chaque fois, les millions ou milliards de paramètres sont ajustés en remontant les couches en sens inverse pour améliorer la performance. À l’issue de la période d’apprentissage, le réseau peut se confronter à un jeu de données qu’il n’a jamais vu et réussir. Deep Learning ou apprentissage profond C’est une partie du Machine Learning qui utilise spécifiquement des réseaux neuronaux complexes. Ces réseaux qu’on appelle récurrents, convolutifs ou Transformers repèrent des caractéristiques pertinentes directement à partir de données brutes, non hiérarchisées ni étiquetées. Les premiers succès notables du Deep Learning furent, en 2012, la reconnaissance d’images lors d’une compétition (voir l’article 1 de cette série) et la reconnaissance vocale (Siri d’Apple, Alexa de Google) dont les voix métalliques envahissent les foyers des geeks branchés. Grâce au Deep Learning, la traduction automatique fait un bond qualitatif énorme, et en 2015 un programme développé par DeepMind (une filiale de Google) appelé AlphaGo bat le champion du monde de jeu de Go, Lee Sedol. Grand modèle de langage ou LLM C’est un réseau de neurones de type « Transformer » très entraîné qui peut saisir le sens global d’une question et donc y répondre avec pertinence. ChatGPT s’appuie sur le modèle de langage développé par OpenAI.

Voir l'article

Easy Padova

L'app Easy Padova è un modo facile moderno e rapido per trovare un parcheggio, e così, alleggerire il traffico della …

Vous avez vu 540 résultats sur 2524