Voir l'article

1

Ressources
complémentaires

La Nouvelle-Calédonie : un territoire à enjeux

Alors que la Nouvelle-Calédonie est en proie à des violences inouïes, ce documentaire explique les enjeux de ce territoire.

Voir l'article

Conseil lecture : « Nourrir sans dévaster »

Aimer le pain mais mépriser les céréaliers... Enquête au cœur des contradictions alimentaires des Français.

Voir l'article

1

Ressources
complémentaires

L'Antarctique, un espace convoité

L’Antarctique recèle d’immenses ressources pétrolières suscitant la convoitise de nombreux pays. 

Voir l'article
Logo de la revue d'appartenance NRP

L’IA générative : les modèles de langage, et l’émergence sémantique

Par Pierre Bourgeois, professeur de mathématiques Ce 3 e article de la série proposée cette année par la NRP s’intéresse aux « grands modèles de langage », dont ChatGPT est l’exemple emblématique. On ne peut comprendre le succès remporté par cette IA générative dès sa mise en ligne en novembre 2022 que si l’on revient sur une avancée théorique de 2017 qui permet aux réseaux neuronaux de « comprendre » le langage naturel. Le dialogue homme/machine peut enfin commencer. La puissance de ChatGPT Il n’a fallu que deux mois au programme de la firme OpenAI pour atteindre les cent millions d’utilisateurs. En comparaison, la plateforme de streaming Netflix a dû attendre trois ans et demi pour en avoir autant. C’est la qualité inattendue des réponses fournies qui enthousiasme une partie des utilisateurs de ChatGPT, capable non seulement de répondre correctement mais aussi d’accomplir des tâches annexes liées au traitement du langage naturel : résumer, reformuler, créer du contenu original, traduire des textes simples, engager des conversations, simuler le langage de personnages fictifs… Avant de voir comment l’émergence d’une telle technologie a été possible, donnons deux exemples récents qui prouvent que les IA génératives remodèlent déjà, chaque jour, nos sociétés. Le 2 novembre dernier, 53 ans après leur séparation, les Beatles sortent leur toute dernière chanson « Now and then ». Le titre accède rapidement à la première place au hit-parade britannique. Un clip vidéo où l’on voit le groupe interpréter la chanson est mis en ligne. À partir d’une courte bande audio d’époque, de très mauvaise qualité, retravaillée et nettoyée par un programme d’IA générative, la voix de John Lennon a pu être reconstruite en respectant à s’y méprendre le timbre et l’intonation de l’artiste disparu depuis un demi-siècle. Pour les images et les vidéos, les productions ont atteint un tel niveau de sophistication qu’il suffit de formuler la requête par une simple phrase et l’IA génère le reste. En avril dernier, le photographe allemand Boris Eldagsen refuse le « Sony World Photography Award » qu’il vient pourtant de remporter. L’artiste avoue que la photographie primée qui représente deux femmes en noir et blanc n’est pas un cliché, mais une image générée par l’intelligence artificielle générative, DALL-E d’Open-AI. Il explique qu’il a voulu « faire un test, pour voir si le monde de la photographie était prêt à gérer l’intrusion de l’IA dans les concours internationaux. » Comment ChatGPT comprend-il mes questions ? Est-ce seulement grâce à son pré-entraînement qui lui a fait ingurgiter une quantité énorme de données textuelles ? Y a-t-il autre chose ? La réponse est à trouver dans les « Large Langage Model » (LLM, cf. encadré). Mais avant de voir ce qui a permis aux LLM de « comprendre » le langage naturel, il nous faut expliquer sommairement ce qu’est un réseau de neurones. Les réseaux de neurones : des boîtes noires ChatGPT est un réseau de neurones, de dernière génération, ultra-performant, c’est-à-dire un modèle informatique inspiré par le fonctionnement du cerveau humain. Ce n’est qu’un immense tableau, des cases remplies de nombres. Peu importe l’ingénierie mathématique qui sous-tend son fonctionnement, l’important est de savoir qu’il peut apprendre, ou plus exactement distinguer, différencier, étiqueter. Un réseau de neurones doit d’abord être entraîné sur un jeu de données, ensuite être testé sur un deuxième jeu de données pour valider son apprentissage, et une fois ces deux phases accomplies, la magie opère : il a appris, et on peut lui proposer de nouvelles données, il saura faire. L’exemple historique a été la reconnaissance d’images, dont la motivation économique était de pouvoir reconnaître le montant manuscrit d’un chèque afin d’en automatiser le traitement. Ce qu’il faut retenir, c’est que ces réseaux de neurones sont des sortes de boîtes noires. Parmi les couches qui les composent, seules celles d’entrée et de sortie sont accessibles, ce qui se passe dans les couches internes demeure caché. C’est pour cela qu’on parle de deep learning , d’apprentissage profond. Pour ceux qui veulent briller dans les dîners en ville, cet apprentissage profond est basé sur deux principes mathématiques appelés « la descente de gradient » et « la rétropropagation de l’erreur ». Les centaines de millions de paramètres qui relient les neurones des couches cachées sont délicatement modifiés lors de la phase de pré-entraînement pour minimiser, dans un espace très abstrait, la distance entre la réponse fournie et la réponse attendue. Osons une comparaison : imaginez que vous visez une cible. Évidemment, lorsque vous vous entraînez, vous la ratez. Mais dans le cas des réseaux de neurones, c’est un peu comme si vous pouviez reprendre à l’envers votre essai, remonter de la cible à votre main, en modifiant des milliers de petits paramètres pour qu’au coup suivant, l’essai soit meilleur. L’attention et les LLM, un saut qualitatif Les deux décennies précédentes ont été marquées par les succès des réseaux neuronaux : AlphaGo, développé par Deep-Mind, a battu le champion du monde du jeu de go, montrant la capacité des réseaux de neurones à maîtriser des jeux stratégiques. Les réseaux de neurones dits convolutifs ont atteint des performances exceptionnelles dans la reconnaissance d’images. Les réseaux de neurones sont utilisés dans les domaines de la santé tels que la détection précoce de maladies et l’analyse d’images médicales. Les réseaux de neurones profonds sont utilisés pour la perception et la prise de décision dans les véhicules autonomes contribuant à la détection d’objets et à la reconnaissance de panneaux de signalisation. Pourtant, malgré toutes ces performances prodigieuses, les réseaux de neurones butaient sur la compréhension du langage naturel humain ; ils excellaient face à de petits textes, mais le sens global d’une phrase, dès qu’elle était un peu longue, leur était inaccessible. En fait, la prise en compte simultanée de deux mots éloignés se perdait dans les profondeurs cachées des couches de neurones. Or, quand on dit : « Après des années de dur labeur et de sacrifices, elle a finalement atteint le sommet de sa carrière, devenant une référence dans son domaine », c’est le rapprochement entre « dur labeur » et « atteint le sommet » qui donne le sens, associant les efforts soutenus et le succès professionnel. Ce problème identifié prend le joli nom de « problème de l’évanescence du gradient ». C’est un peu comme une personne qui parle beaucoup et qui soudain, par manque d’attention, ne sait plus ce qu’elle voulait dire. La solution théorique est arrivée en 2017 dans un article intitulé « Attention is all you need » du chercheur américain Ashish Vaswani. l’IA devient plus « attentive » et repère mieux les liens entre deux mots éloignés dans une phrase. Pour la petite histoire, ces réseaux de neurones sont appelés « Transformers » (le T de ChatGPT vient de là), terme qui vient de la gamme de jouets « Transformers » où un robot peut se transformer en véhicule. Et ça marche au-delà des prévisions : cette nouvelle plasticité permet au réseau de « comprendre » le contexte d’une phrase. On raconte que « l’émergence sémantique », quand tout à coup la machine a montré pour les premières fois qu’elle « comprenait » le sens global d’une phrase, est apparue dans ses réseaux de neurones de façon non prévue. Un chercheur d’OpenAI, entraînant un réseau de neurones de type « Transformeur » pour qu’il apprenne à deviner le mot suivant (en fait, juste la lettre suivante) dans un avis de client d’Amazon, se rend alors compte que la machine a suffisamment « compris » le contexte de l’avis pour l’étiqueter « avis positif » ou « avis négatif ». Un autre chercheur, pré entraînant un réseau de neurones à prédire la prochaine occurrence d’un signe de ponctuation, se rend compte que le réseau « comprend » le sens global et le contexte du texte analysé. Avant, les prédictions ne fonctionnaient que dans des cas simples : « L’été, je déguste des … à la vanille », la réponse qui s’impose est « glaces » ou « sorbets ». Aujourd’hui, pour n’importe quelle question, un LLM fournit une réponse qui montre qu’il a compris le sens de la question. Il peut donner une réponse plausible, et peut également en inventer toute une série et créer des mondes nouveaux sous forme de textes ou d’images. L’intelligence artificielle est devenue générative (c’est le G de GPT). La polysémie, qui fut longtemps un obstacle, n’en est définitivement plus un. Je lui ai posé la question suivante : Comment procèdes-tu, cher ChatGPT, pour différencier le sens des deux mots « particulier »   et «  affaire » dans la phrase suivante : « j’ai fait des affaires lucratives, hier, en particulier, j’ai vendu à un particulier mes affaires de ski. »   Voici sa réponse : Je comprends que la distinction entre les deux occurrences des mots « particulier » et « affaires  » dans la phrase que vous avez fournie peut sembler subtile et dépend du contexte. L’analyse contextuelle dans le modèle GPT-3.5 est basée sur des mécanismes d’attention qui prennent en compte les mots qui entourent chaque occurrence d’un terme donne. La capacité du modèle à effectuer cette distinction repose sur son exposition a des milliards de phrases pendant l’entrainement, lui permettant d’apprendre des modèles linguistiques et de comprendre comment les mots interagissent dans différents contextes. Cependant, il est important de noter que la compréhension du modèle est basée sur des schémas statistiques et contextuels plutôt que sur une compréhension profonde ou une connaissance explicite du sens des mots. Dans cette dernière phrase ChatGPT reconnaît qu’il ne comprend pas grand-chose, il génère simplement la réponse la plus probable. ChatGPT est un peu comme un acteur déclamant un texte magnifique sans aucune conscience de la signification de ce qu’il raconte. Si la plupart du temps ces réseaux fournissent les réponses attendues, il est important d’avoir à l’esprit que ChatGPT peut se tromper, et parfois à un tel point qu’on parle, dans ce cas d’« hallucinations ». Il est donc toujours recommandé de vérifier les informations critiques auprès de sources fiables, surtout si des décisions importantes doivent être prises en fonction de ses réponses. La collaboration homme/machine va nous imposer une certaine vigilance. Sitographie « L’histoire cachée de l’étonnant potentiel de ChatGPT », conférence TED, https://www.ted.com/talks/greg_brockman_the_inside_story_of_chatgpt_s_astonishing_ potential?language=fr Ashish Vaswani, « Attention is all you need», https://arxiv.org/abs/1706.03762 LLM et réseaux « Transformers » LLM est l’acronyme de « Large Langage Model », expression qui peut se traduire par « grand modèle de langage » ou « modèle de langage de grande taille » ou encore « modèle massif de langage ». L’avenir et l’usage diront quelle terminologie française prendra le dessus sur les autres.Un LLM est un réseau de neurones de type « Transformer » entraîner sur des milliers ou des millions de giga-octets de texte. Son apprentissage en profondeur sur des données non nécessairement structurées est accompagné d’une analyse probabiliste et lui permet de « comprendre » un texte ou une question et d’y répondre correctement.

Voir l'article
Logo de la revue d'appartenance NRP

L’IA générative : beaucoup de qualités et quelques vilains défauts

Par Pierre Bourgeois, professeur de mathématiques La rapidité avec laquelle se développent les intelligences artificielles génératives fait tourner les têtes et donne lieu à des titres accrocheurs dans la presse. Les États aussi ont du mal à suivre : fin mars 2023, l’Italie interdit ChatGPT pour l’autoriser à nouveau un mois plus tard. Pour échapper à la peur d’être anéanti par la machine et ne pas céder à une fascination un peu naïve devant ces boîtes magiques, il ne faut pas hésiter à engager avec elles des conversations, ce qui, comme toujours, permet de mieux se connaître. Et plus, si affinités. Les * renvoient au glossaire Le poids des mots, plus que le choc des photos Des IA dans nos vies En plus de ChatGPT, OpenAI propose deux autres IA génératives : DallE et le tout nouveau Sora. Ces programmes utilisent les mêmes technologies d’apprentissage automatique* basées sur des réseaux neuronaux*. En répondant à une requête textuelle, DallE génère une image tandis que Sora produit une vidéo : d’un simple clic vous pouvez créer un cliché ou un film qui sembleront parfaitement authentiques. Pourtant, il est probable que Dall-E et Sora soient moins plébiscités que ChatGPT, car même si les images et les vidéos ont envahi nos vies, nos activités restent largement basées sur la production de textes écrits. En donnant la possibilité d’automatiser réécritures et reformulations, les grands modèles de langage* bouleversent déjà nos modes de fonctionnement. Les moteurs de recherche comme Google et Bing intègrent déjà, sans le mentionner, des IA génératives, Bard pour Google et ChatGPT pour Bing. Imperceptiblement, Google et Bing sont devenus des moteurs de réponses plutôt que des moteurs de recherche. Qui vous dit, d’ailleurs, que l’article que vous êtes en train de lire, le livre qui est sur votre table de chevet, le discours d’un collègue à l’occasion d’un pot de départ ou même le mot affectueux de la personne la plus proche de vous ont été rédigés sans l’aide d’une IA conversationnelle ? Un remarquable producteur de discours standardisé Amusons-nous à poser à ChatGPT la question suivante – dire « le prompt suivant » si vous parlez à un informaticien : « Bonjour, cher ChatGPT, peux-tu me proposer un exemple de discours d’un dirigeant d’entreprise ? » Voici quelques extraits de sa réponse. « Chers collègues, Je vous remercie d’être présents aujourd’hui alors que nous nous réunissons pour discuter de l’état actuel de notre entreprise et de nos plans pour l’avenir. […] Nous avons récemment réalisé une analyse approfondie de nos forces et de nos faiblesses, ainsi que des opportunités et des menaces qui se présentent à nous. Sur la base de ces informations nous avons élaboré un plan stratégique solide qui guidera nos actions dans les mois à venir. […] En conclusion, je souhaite réaffirmer mon engagement envers notre entreprise et notre équipe. Je crois fermement en notre capacité à surmonter les obstacles et à atteindre de nouveaux sommets de succès. Merci encore pour votre engagement et votre soutien continu. Ensemble, nous pouvons réaliser de grandes choses. Le réseau neuronal qui se cache derrière ChatGPT a ingurgité des milliers de discours de ce type pour en générer un aussi parfaitement standardisé. On ne peut s’empêcher de féliciter ChatGPT, tout en lui faisant remarquer que son discours est d’une grande banalité et qu’il est axé uniquement sur les aspects positifs. Voici sa réponse. « Vous avez raison, un discours qui ne met l’accent que sur les succès et les potentialités fortes de l’entreprise peut sembler incomplet ou peu réaliste. En réalité, un discours équilibré devrait également reconnaître les défis et les domaines où des améliorations sont nécessaires. Voici une version révisée qui prend en compte cette perspective : Chers collègues, […] Il est important de reconnaître que malgré nos succès, il y a encore des domaines où nous devons nous améliorer. Nous devons être ouverts à l’auto-évaluation et à l’adaptation, afin de rester compétitifs dans notre secteur et de répondre aux besoins changeants de nos clients. Dans le cadre de notre processus d’amélioration continue, nous avons identifié plusieurs domaines prioritaires sur lesquels nous allons nous concentrer dans les mois à venir. Cela inclut le renforcement de nos relations clients, l’amélioration de notre efficacité opérationnelle et le développement de notre culture d’innovation. […] » Cet exemple montre la redoutable efficacité des grands modèles de langage* dans le traitement de tous les processus de communication. Ils ne se contentent pas de reproduire un type de discours, ils en fabriquent d’autres, aussi normalisés et indigents que ceux dont on les a nourris. Allons-nous ainsi vers une automatisation des interactions, comme c’est le cas déjà avec les assistants virtuels dans les applications mobiles ou les agents conversationnels, les chatbots des sites Web ? De la bonne ou la mauvaise éducation des IA ChatGPT, champion de la politesse et de la mesure Le succès de ChatGPT repose entre autre sur sa capacité à interagir de manière appropriée avec les utilisateurs. Il a bénéficié de l’expérience malheureuse du robot conversationnel Tay de la firme Microsoft. Ce dernier, mis en ligne sur Twitter en 2016, a dû être arrêté au bout de 4 jours de fonctionnement en raison de ses propos racistes, antisémites et sexistes. À l’époque, l’apprentissage profond, le fameux deep learning* connaît une montée en puissance. Pour les concepteurs de Tay, Twitter était le meilleur endroit pour que le réseau de neurones* apprenne progressivement le langage naturel, d’autant plus qu’un essai grandeur nature en Chine avait été concluant. Hélas, dès sa mise en ligne, Tay a été inondé de tweets racistes et sexistes. En bon réseau de neurones, il s’est servi de ces contenus haineux pour sa phase d’entraînement. Mal éduqué, il est allé jusqu’à mettre en ligne un tweet niant l’existence de la Shoah. Microsoft a présenté des excuses, évoquant une attaque coordonnée d’internautes malveillants, sans communiquer outre mesure sur cet échec. Six ans plus tard, GPT-3, sur lequel ChatGPT s’appuie, a bénéficié d’une technologie plus robuste. Pour éviter les déboires arrivés au logiciel Tay de Microsoft, des opérateurs humains ont méthodiquement étiqueté des milliers de documents, certains sortis des bas-fonds d’Internet, pour apprendre à GPT à rejeter les contenus inappropriés. Une enquête du Times au Kenya en janvier 2023 a d’ailleurs révélé que cette tâche peu valorisante qui consiste à lire et à attribuer une étiquette négative à ce genre de contenus avait été sous-traité à des travailleurs recevant des salaires de misère. Les modèles de langage ne sont pas neutres. Si on ne peut qu’être satisfait du fait qu’un modèle de langage comme ChatGPT ne dérape jamais et ne génère pas de contenu inapproprié, il faut garder à l‘esprit qu’il véhicule les représentations du monde de ses concepteurs : il est « politiquement correct » par construction. Dans le futur, d’autres modèles de langage vont apparaître, imprégnés d’idéologies et de représentations du monde différentes. L’IA est-elle sexiste ? Les organismes internationaux semblent aussi capables d’erreurs d’interprétation. Un récent rapport de l’UNESCO (7 mars 2024) pointe des biais sexistes dans les moteurs de recherche GPT-3.5 et GPT-2 d’OpenAI et Llama 2 de Meta. Selon cette étude, les plateformes associent fréquemment les femmes aux mots « maison », « famille », « amour » alors que les hommes sont associés aux termes « carrière », « salaire » et « entreprise ». Plus terrible encore : l’homme est « ingénieur », « médecin » ou « enseignant » alors que la femme serait « cuisinière », « domestique » ou encore « prostituée ». L’étude dénote en réalité une méconnaissance de ce qu’est un modèle de langage*. Les discriminations qu’il peut générer ne sont que le reflet de ce qu’il a ingurgité. Les robots de ChatGPT ont crawlé (ils parcourent Internet de lien en lien) la presque totalité du Web et ont donc récupéré d’innombrables documents aux contenus sexistes. Mais chaque contenu utilisé est pondéré par un coefficient qui traduit sa fiabilité (à titre d'exemple, Wikipédia, qui ne représente que 3 % des données brutes utilisées dans l’apprentissage, est valorisé à 60 % dans les poids attribués aux paramètres, les sites Web à contenu douteux sont même affectés d’un poids négatif). La fin du rapport, qui propose l'embauche de davantage de femmes dans les métiers du numérique pour remédier à ces dérives sexistes, laisse entrevoir une incompréhension profonde de ce qu'est un LLM. ChatGPT4 n'est qu'un immense miroir qui reflète, à sa façon, l'ensemble des productions crées avant avril 2023. En répondant à nos questions, ChatGPT nous accompagne vers l'avenir en étant par construction tourné vers le passé. Il ne peut en rien prédire les évolutions futures des formes de créations, et même le passé récent de nos sociétés lui échappe totalement. Pour finir sur ce point, j'ai posé la question suivante : « Cher ChatGPT, y a-t-il plus de mathématiciens que de mathématiciennes ? ». « La question de savoir s’il y a plus d’hommes que de femmes dans le domaine des mathématiques est complexe et dépend de nombreux facteurs, y compris les opportunités d’éducation, les stéréotypes de genre, les pressions socioculturelles, etc. Historiquement, les mathématiques ont été dominées par les hommes, mais au fil du temps, il y a eu une augmentation du nombre de femmes s’engageant dans ce domaine. Dans de nombreux pays, les efforts sont déployés pour encourager les filles et les femmes à poursuivre des carrières en mathématiques et dans les domaines des sciences, de la technologie, de l’ingénierie et des mathématiques (STEM). Bien que les disparités persistent dans certains contextes, il est important de reconnaître que les capacités mathématiques ne sont pas liées au genre, et que les femmes ont tout autant de potentiel que les hommes dans ce domaine. » On ne trouve pas le biais sexiste dénoncé par l’Unesco, et sa réponse est bien celle qu’on attend d’un outil numérique produit par une entreprise californienne en 2024. ChatGPT, plus littéraire que matheux ? Tester Il semble sage d’éviter de considérer les IA comme de simples outils au service de l’humanité : les IA sont plus que cela. Leur attribuer des propriétés anthropomorphiques, une intention, une pensée, voire un début de conscience est tout aussi dangereux. Les IA sont, évidemment, moins que cela. Une troisième attitude consiste à commencer par les tester, en se documentant sur leurs principes de fonctionnement, sans oublier d’envisager leurs effets psychologiques et politiques sur nos sociétés. Cette attitude requiert d’avoir toujours à l’esprit que le LLM* a été conçu pour deviner la suite probable d’une histoire, comme s’il pouvait avoir accès à l’ensemble des documents écrits sur le sujet. Créations textuelles Demandons à ChatGPT d’écrire un pastiche de la fable de La Fontaine « Le Corbeau et le Renard », mais sans corbeau ni renard, en lui imposant un chat et une souris. Au prompt « Bonjour Chat GPT, peux-tu réécrire “Le Corbeau et le Renard” en utilisant un chat et une souris sans perdre l’idée d’une farce malicieuse ? », il propose le texte suivant. « Un chat perché sur un mur tenait dans sa gueule une souris, Quelque peu sotte mais pleine d’esprit, disons-le. Un autre chat, voyant cela, lui tint à peu près ce langage : “Hé bonjour, quel bel animal vous avez là !” Sans attendre de réponse, le chat ajouta : “Ah, que vous êtes joli ! que vous me semblez beau ! Sans mentir, si votre ramage Se rapporte à votre plumage, Vous êtes le roi des animaux de compagnie ici-bas.” À ces mots le chat ne se sent pas de joie. Et pour montrer son agilité, il sautille et il gambade. Il se pavane, fait le beau, prétendant être le plus malin des félins. Pendant ce temps, la souris, alertée, s’échappe en un clin d’oeil, Laissant le chat tout confus, sans même un bout de queue à croquer. Moralité : Apprends, chère chatte, qu’il faut se méfier des flatteries Car en cherchant à paraître plus malin que les autres, On finit par perdre le bout de sa queue. » Les contraintes sont respectées. Quelques petites hallucinations, comme souvent dans les réponses de ChatGPT, sont présentes : le chat du premier vers devient une chatte dans la morale et le chat n’a pas de “ramage” ni de “plumage”. Si le dernier vers ne vous satisfait pas, ChatGPT vous le changera. À ma demande, il a proposé « on finit par y perdre son dessert » On peut supposer que le premier vers : « Un chat perché sur un mur » découle du fait que lors de sa période d’entraînement, ChatGPT a dû ingurgiter des centaines d’histoires contenant des chats se trouvant sur des murs. « Perché sur un mur » montre qu’il sait que « se percher » n’est pas réservé à un oiseau sur une branche. Remplacer le fromage par une souris semble un choix possible, les chats aimant à la fois les bouts de fromage et les souris ! Plus créative semble l’introduction d’un deuxième chat, non exigée dans les contraintes de l’énoncé, mais il faut se rappeler que ChatGPT a eu accès à tellement d’histoires… ChatGPT, mauvais élève en mathématiques Ce n’est pas souvent dit, mais en mathématiques, ChatGPT et les LLM n’ont pas un niveau supérieur à celui d’un élève de maternelle. En voici une démonstration rapide, Posons à ChatGPT la question suivante : « Cher ChatGPT, peux-tu écrire une liste de 3 nombres entiers, telle que la somme des deux premiers soit égale à la somme des deux derniers ? » Voici sa réponse : « Bien sûr, voici une liste de trois nombres entiers répondant à cette condition : 4, 3, 7. Dans cette liste, la somme des deux premiers nombres (4 + 3) est égale à la somme des deux derniers nombres (3 + 7), soit 7. » Me sentant obligé de réagir, je lui soumets le prompt suivant : « Sais-tu que 3 + 7 = 10 ? Refais l’exercice. » ChatGPT tente alors de se corriger : « Je m’excuse (sic) pour l’erreur. Reprenons. Une liste de trois nombres où la somme des deux premiers est égale à la somme des deux derniers serait : 1, 2, 3. Dans cette liste, la somme des deux premiers nombres (1 + 2) est égale à la somme des deux derniers nombres (2 + 3), soit 3. » Là commence un dialogue de sourds où ChatGPT campe sur ses positions en répétant à chaque fois exactement la même réponse absurde. De rage, avant de le débrancher, je lui pose la question suivante : « As-tu un exemple dans la littérature de personne très cultivée, connaissant plein de choses, mais inapte à tout raisonnement ? » Et là, il me répond, comme si de rien n’était : « Oui, un exemple classique dans la littérature serait le personnage de Monsieur Homais dans le roman Madame Bovary de Gustave Flaubert. Monsieur Homais est un pharmacien de la ville de Yonville-l’Abbaye, qui se considère comme un intellectuel brillant et qui est avide de connaissances scientifiques et philosophiques. Cependant, malgré sa prétention à être cultivé, il est souvent décrit comme étant inapte au raisonnement logique et ses actions sont motivées par l’opportunisme et l’égoïsme plutôt que par une véritable compréhension ou sagesse. Son incapacité à raisonner de manière cohérente le conduit à commettre des erreurs de jugement et à agir de manière hypocrite tout au long du roman. » Je laisse les lecteurs experts de Flaubert juger de la pertinence de la réponse. Elle souligne en tout cas l’écart entre son niveau en mathématiques et une certaine finesse dans la production de textes. Rien ne dit qu’il est incapable de raisonnement mathématique ou logique. Mais pour progresser, il faudra qu’il ait avalé ce raisonnement dans sa période d’entraînement, et plutôt deux fois qu’une.   Glossaire Machine Learning ou apprentissage automatique C’est un algorithme qui, après une phase d’entraînement, aappris à reconnaître des modèles, avec un taux d’erreur très faible. Le programme est capable ensuite de prendre des décisions en conséquence. Les débuts théoriques datent des années 1960. Dans les années 1990, ses premiers succès apparaissent avec l’augmentation des vitesses de calcul et l’accès aux immenses bases de données numérisées : ce sont les systèmes de recommandations proposés par Netflix ou Amazon, ou la victoire en 1997 de Deep Blue sur le champion du monde d’échecs Gary Kasparov. Le grand public apprend alors que la machine peut apprendre. Réseau de neurones Comme un immense tableau de nombres, il est constitué de couches où seules les couches d’entrée et de sortie sont visibles par l’utilisateur. Le reste est opaque. Inspirés, au départ par les neurones biologiques, ces réseaux apprennent d’abord sur un énorme jeu de données d’entraînement. À chaque fois, les millions ou milliards de paramètres sont ajustés en remontant les couches en sens inverse pour améliorer la performance. À l’issue de la période d’apprentissage, le réseau peut se confronter à un jeu de données qu’il n’a jamais vu et réussir. Deep Learning ou apprentissage profond C’est une partie du Machine Learning qui utilise spécifiquement des réseaux neuronaux complexes. Ces réseaux qu’on appelle récurrents, convolutifs ou Transformers repèrent des caractéristiques pertinentes directement à partir de données brutes, non hiérarchisées ni étiquetées. Les premiers succès notables du Deep Learning furent, en 2012, la reconnaissance d’images lors d’une compétition (voir l’article 1 de cette série) et la reconnaissance vocale (Siri d’Apple, Alexa de Google) dont les voix métalliques envahissent les foyers des geeks branchés. Grâce au Deep Learning, la traduction automatique fait un bond qualitatif énorme, et en 2015 un programme développé par DeepMind (une filiale de Google) appelé AlphaGo bat le champion du monde de jeu de Go, Lee Sedol. Grand modèle de langage ou LLM C’est un réseau de neurones de type « Transformer » très entraîné qui peut saisir le sens global d’une question et donc y répondre avec pertinence. ChatGPT s’appuie sur le modèle de langage développé par OpenAI.

Voir l'article

Easy Padova

L'app Easy Padova è un modo facile moderno e rapido per trovare un parcheggio, e così, alleggerire il traffico della …

Voir l'article

L’Ara Pacis Augustea

Un capolavoro dell'arte inaugurato il 30 gennaio del IX a.C. Ritrovato sotto l'attuale via del Corso l'altare è stato poi …

Voir l'article

1

Ressources
complémentaires

Les enjeux géopolitiques du golfe Persique

Une vidéo pour aborder deux points du programme : les conflictualités au Moyen-Orient et la Chine à la conquête des mers.

Voir l'article
Logo de la revue d'appartenance Speakeasy

Brooklyn Mourns Paul Auster

Although he was one of the most cosmopolitan American authors, Paul Auster will forever remain indelibly linked with New York and specifically Brooklyn. The author of Moon Palace , The New York Trilogy and films such as Smoke , died there on 30 April at the age of 77 from lung cancer which had been diagnosed in December 2022. Paul Auster leaves behind him a rich body of works dating from the 1970s right up until his death. If he is renowned primarily as a novelist, he also worked as a poet, essayist, and filmmaker. He gained international acclaim with his postmodern, existentialist novels that often explore themes of identity, chance, and the intricacies of human experience. Paul Auster, born in Newark on February 3, 1947, was surrounded by the vibrant atmosphere of New Jersey and New York, where his grandparents lived. His love for literature came from his uncle Allen Mandelbaum, a translator, who introduced him to the world of words. Auster found solace in writing, crafting his first verses during his teenage years. Reflecting on his literary journey in 2018, Auster recalled how reading Dostoevsky's Crime and Punishment at the age of 15 ignited a deep passion within him: "This book completely transformed me to the point where I said to myself: if writing a book can evoke such emotion, then that's what I want to do." Auster was a passionate follower of baseball,. He also joked that he became a writer after a fateful meeting with baseball great Willie Mays as a young boy. After missing out on getting Mays’ autograph because he didn’t have a pencil, the future scribe said he always made sure to keep a pencil or pen in his pocket, “because I didn’t want to be caught unprepared again.” He famously worked without a computer, preferring to write with a typewriter and stay off the Internet to avoid emails. The Enigmatic World of Paul Auster: A Literary Journey In 1965, Auster departed New Jersey to pursue studies in English, French, and Italian literature at Columbia University in New York City. "My grandparents lived here, my mother grew up here, so I came all the time when I was a child, and then I really wanted to go to college in New York," he remarked in La Grande Librairie in 2016. The city's density, vastness, and complexity held an irresistible allure for him. As Auster articulated, "When you have this city in your blood, the rest of America seems lost." During his collegiate years, Auster embarked on his inaugural European voyage, sidestepping the Vietnam War. Between 1971 and 1974, he resided in Paris once more, subsisting on his translations of renowned literary figures such as Sartre, Blanchot, Mallarmé, Apollinaire, Du Bouchet, and the celebrated tightrope walker Philippe Petit. In Paris, he forged a friendship with future German filmmaker Wim Wenders. Although harboring aspirations of becoming a filmmaker himself, Auster's timidity deterred him from pursuing admission to the IDHEC film school. He returned to America, having failed to materialize his aspirations for silent film. Yet, from this disillusioning experience, he would later draw inspiration for his poignant work, The Book of Illusions (2003). "The Invention of Solitude" Upon his return to New York, Auster delved into freelance writing for various publications and commenced work on early drafts of his novels, including The Voyage of Anna Blum (1989) and Moon Palace (1990). Concurrently, Auster encountered and wed Lydia Davis, a budding short-story writer and academic, with whom he had a son, Daniel, who would later pursue photography. However, the trajectory of Auster's life took a significant turn in 1979. Economic hardships precipitated his divorce from Davis, and shortly thereafter, the unexpected death of his father, Samuel Auster, at the age of 66, catalyzed a profound introspection. One of Auster's most notable works came in 1985 with The New York Trilogy , a collection of three interconnected detective stories – City of Glass, Ghosts, and The Locked Room. This seminal work showcases Auster's masterful manipulation of postmodern literary conventions, blurring the line between reality and fiction, and challenging conventional storytelling techniques. Readers are drawn into a labyrinth of identity, truth, and the enigmatic nature of human existence. [gallery columns="2" size="medium" ids="16689,16686"] Auster's exploration of the self and the human condition is a recurring theme in his literature. His novel Moon Palace delves into the complexities of identity and the search for meaning, while The Music of Chance delves into the themes of fate, chance, and the consequences of our choices. His writing style, introspective and philosophical, invites readers to contemplate their place in the world and the forces that shape their lives. [gallery columns="2" size="medium" ids="16688,16691"] Beyond his novels, Auster's non-fiction works offer profound insights into his literary philosophy and the art of storytelling. His memoir, The Invention of Solitude , is a poignant exploration of loss, grief, and the complexities of father-son relationships. Furthermore, his essays, such as those in The Art of Hunger and The Red Notebook, provide a window into Auster's thoughts on literature, politics, and the human experience. As a writer, Paul Auster's ability to craft intricate narratives, weave existential themes, and evoke profound emotions has solidified his place in the pantheon of literary greats. His work continues to inspire and challenge readers, inviting them to ponder the complexities of existence and the enigmatic nature of the human spirit. Paul Auster's literary legacy is a testament to the enduring power of storytelling and the boundless depths of the human imagination. On the Silver Screen Several of his works, including his 1990 novel The Music of Chance, were adapted for the screen and Auster was behind the camera for a number of them. Harvey Keitel starred in the 1995 drama Smoke, about a Brooklyn cigar store and its various patrons played by William Hurt and Giancarlo Esposito. Working as a screenwriter, Auster embellished his short story that originally appeared as a Christmas Day op-ed in The New York Times, employing “the film medium as an extension of his literary art,” according to the Los Angeles Times’ review. The film won him the Independent Spirit Award for first screenplay. https://youtu.be/3v8r-ec4V2M He re-teamed with Smoke director Wayne Wang later that year and they co-directed the sequel, Blue in the Face, which brought back Keitel and Esposito and also starred Lou Reed, Mira Sorvino and Madonna. He is also credited on the screenplay for Wang’s 2001 romance The Center of the World. Auster wrote and directed the 1998 mystery drama Lulu on the Bridge, which again starred Keitel and Sorvino and was nominated for the Un Certain Regard prize at the Cannes International Film Festival. Auster's work has been translated into over forty languages and has won numerous awards, including the PEN/Faulkner Award for Fiction, the Prix Prince des Asturies , and the Commandeur de l'Ordre des Arts et des Lettres. He was a member of the American Academy of Arts and Letters and the American Academy of Arts and Sciences. Here are some of Paul Auster's most famous works: The New York Trilogy (1986–1994) Moon Palace (1989) Leviathan (1992) Timbuktu (1999) The Book of Illusions (2002) Oracle Night (2003) 4 3 2 1 (2007) Baumgartner is his final book (2023, the French translation was being published just as he died.) [gallery columns="2" size="medium" ids="16684,16685"]

Voir l'article

1

Ressources
complémentaires

Le Brésil face aux catastrophes naturelles

Depuis plusieurs mois, le Brésil subit des catastrophes naturelles dramatiques et sans précédent. 

Voir l'article
Logo de la revue d'appartenance Speakeasy

Rendez-vous

If Girls Were in Charge

A new documentary, Girls State, looks at a social experiment where 500 girls from Missouri try to form a government, running for positions like Governor and Supreme Court Justices. It makes a fascinating contrast with the award-winning 2020 documentary by the same team following 1000 boys in Texas participating in the same national project.

Voir l'article
Logo de la revue d'appartenance Speakeasy

Matilda Reading Guide

Last year, we started a new collection of Reading Guides to help you introduce your pupils to reading fiction in English in collège and seconde. Our latest title is about to arrive in bookshops: Matilda by Roald Dahl!

Voir l'article
Logo de la revue d'appartenance Speakeasy

Speed Speaking for the Semaine des Langues

Speed  speaking : des ateliers de conversation en langues vivantes au collège pour la Semaine des Langues.

Voir l'article

Conseil lecture : « Vues d'en haut »

Le monde vu d'en haut comme jamais ! Découvrez les 100 plus belles vues de drone, des paysages renversants.

Voir l'article

1

Ressources
complémentaires

Is EU facing an economic leadership change?

More than a decade after painful austerity, Greece, Portugal and Spain have been growing faster than traditional powerhouses like Germany.

Voir l'article

7

Ressources
complémentaires

Logo de la revue d'appartenance NRP

Séquence pédagogique

Le Diable au corps, un roman sacrilège

Voir l'article

5

Ressources
complémentaires

Logo de la revue d'appartenance NRP

Séquence pédagogique

Arthur Rimbaud, un jeune poète épris de « liberté libre »

Voir l'article

2

Ressources
complémentaires

Logo de la revue d'appartenance NRP

Fiche élève

Sophonisbe, l’ennemie digne de « naître romaine »

Voir l'article

2

Ressources
complémentaires

Logo de la revue d'appartenance NRP

Fiche élève

Le groupe nominal, la versification et la syntaxe dans Cahiers de Douai

Voir l'article

1

Ressources
complémentaires

La liberté de la presse dans le monde

Médias muselés, journalistes assassinés, désinformation : la liberté de la presse en danger.

Voir l'article

1

Ressources
complémentaires

Des dépenses militaires en augmentation

Les dépenses militaires, révélatrices des tensions internationales, ont connu une croissance record en 2023.

Voir l'article

1

Ressources
complémentaires

L'épineuse question des rachats d'actions

Les groupes du CAC 40 ont acquis en 2023 pour 30 milliards d’euros de leurs propres actions. Cette pratique est fortement critiquée.

Vous avez vu 570 résultats sur 2532