{"id":12994,"date":"2024-08-29T21:44:22","date_gmt":"2024-08-30T02:44:22","guid":{"rendered":"http:\/\/skimai.com\/?p=12994"},"modified":"2024-08-29T21:44:48","modified_gmt":"2024-08-30T02:44:48","slug":"ai-research-paper-summarized-chain-of-thought-lessness-prompting","status":"publish","type":"post","link":"https:\/\/skimai.com\/fr\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/","title":{"rendered":"R\u00e9sum\u00e9 d'un document de recherche sur l'IA : \"Cha\u00eene de pens\u00e9e\" ? Incitation"},"content":{"rendered":"<p>L'incitation \u00e0 la cha\u00eene de pens\u00e9e (CoT) a \u00e9t\u00e9 salu\u00e9e comme une perc\u00e9e dans le d\u00e9blocage des capacit\u00e9s de raisonnement des grands mod\u00e8les de langage (LLM). Cette technique, qui consiste \u00e0 fournir des exemples de raisonnement \u00e9tape par \u00e9tape pour guider les LLM, a suscit\u00e9 une grande attention dans la communaut\u00e9 de l'IA. De nombreux chercheurs et praticiens ont affirm\u00e9 que l'incitation CoT permet aux LLM de s'attaquer \u00e0 des t\u00e2ches de raisonnement complexes de mani\u00e8re plus efficace, ce qui pourrait combler le foss\u00e9 entre l'informatique et la r\u00e9solution de probl\u00e8mes \u00e0 l'\u00e9chelle humaine.<\/p>\n\n\n<p>Cependant, un article r\u00e9cent intitul\u00e9 \"<a rel=\"noopener noreferrer\" href=\"https:\/\/arxiv.org\/pdf\/2405.04776\">La cha\u00eene de l'irr\u00e9flexion ? Une analyse de l'approche de la coop\u00e9ration en mati\u00e8re de planification<\/a>\"remet en question ces affirmations optimistes. Ce document de recherche, qui se concentre sur les t\u00e2ches de planification, fournit un examen critique de l'efficacit\u00e9 et de la g\u00e9n\u00e9ralisabilit\u00e9 de l'incitation CoT. En tant que praticiens de l'IA, il est essentiel de comprendre ces r\u00e9sultats et leurs implications pour le d\u00e9veloppement d'applications d'IA n\u00e9cessitant des capacit\u00e9s de raisonnement sophistiqu\u00e9es.<\/p>\n\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_1 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Table des mati\u00e8res<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Toggle Table des mati\u00e8res\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewbox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewbox=\"0 0 24 24\" version=\"1.2\" baseprofile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/skimai.com\/fr\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/#Understanding_the_Study\" >Comprendre l'\u00e9tude<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/skimai.com\/fr\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/#Key_Findings_Unveiled\" >Les principaux r\u00e9sultats sont d\u00e9voil\u00e9s<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/skimai.com\/fr\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/#Beyond_Blocksworld_Extending_the_Investigation\" >Au-del\u00e0 de Blocksworld : Prolonger l'enqu\u00eate<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/skimai.com\/fr\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/#Implications_for_AI_Development\" >Implications pour le d\u00e9veloppement de l'IA<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/skimai.com\/fr\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/#Recommendations_for_AI_Practitioners\" >Recommandations pour les praticiens de l'IA<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-6\" href=\"https:\/\/skimai.com\/fr\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/#The_Bottom_Line\" >Le bilan<\/a><\/li><\/ul><\/nav><\/div>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Understanding_the_Study\"><\/span>Comprendre l'\u00e9tude<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>Les chercheurs ont choisi un domaine de planification classique appel\u00e9 Blocksworld comme principal terrain d'essai. Dans Blocksworld, la t\u00e2che consiste \u00e0 r\u00e9organiser un ensemble de blocs d'une configuration initiale \u00e0 une configuration cible \u00e0 l'aide d'une s\u00e9rie d'actions de d\u00e9placement. Ce domaine est id\u00e9al pour tester les capacit\u00e9s de raisonnement et de planification pour les raisons suivantes :<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p>Il permet de g\u00e9n\u00e9rer des probl\u00e8mes de complexit\u00e9 variable<\/p><\/li><li><p>Il propose des solutions claires et v\u00e9rifiables sur le plan algorithmique.<\/p><\/li><li><p>Il est peu probable qu'il soit fortement repr\u00e9sent\u00e9 dans les donn\u00e9es de formation du LLM.<\/p><\/li>\n<\/ol>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/0052403f-61b9-4bb0-928a-8c1e0b0cc0f6.png\" alt=\"Planification de la pile d&#039;objectifs Blocksworld\" \/>\n<\/figure>\n\n\n<p>L'\u00e9tude a examin\u00e9 trois LLM de pointe : GPT-4, Claude-3-Opus et GPT-4-Turbo. Ces mod\u00e8les ont \u00e9t\u00e9 test\u00e9s \u00e0 l'aide d'invites de sp\u00e9cificit\u00e9 variable :<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>Cha\u00eene de pens\u00e9e \u00e0 z\u00e9ro coup (universelle) : <\/strong>Il suffit d'ajouter \"r\u00e9fl\u00e9chissons \u00e9tape par \u00e9tape\" \u00e0 l'invite.<\/p><\/li><li><p><strong>Preuve de progression (sp\u00e9cifique \u00e0 la PDDL) :<\/strong> Fournir une explication g\u00e9n\u00e9rale de l'exactitude du plan avec des exemples.<\/p><\/li><li><p><strong>Algorithme universel Blocksworld : <\/strong>D\u00e9monstration d'un algorithme g\u00e9n\u00e9ral permettant de r\u00e9soudre n'importe quel probl\u00e8me du monde des blocs.<\/p><\/li><li><p><strong>Promesse d'empilage :<\/strong> Se concentrer sur une sous-classe sp\u00e9cifique des probl\u00e8mes de Blocksworld (table \u00e0 pile).<\/p><\/li><li><p><strong>Empilement lexicographique :<\/strong> R\u00e9duction suppl\u00e9mentaire \u00e0 une forme syntaxique particuli\u00e8re de l'\u00e9tat d'objectif.<\/p><\/li>\n<\/ol>\n\n\n<p>En testant ces invites sur des probl\u00e8mes de complexit\u00e9 croissante, les chercheurs ont voulu \u00e9valuer dans quelle mesure les LLM pouvaient g\u00e9n\u00e9raliser le raisonnement d\u00e9montr\u00e9 dans les exemples.<\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/703d11e4-e594-469f-8f00-bd46a0d6f7ee.png\" \/>\n<\/figure>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Key_Findings_Unveiled\"><\/span>Les principaux r\u00e9sultats sont d\u00e9voil\u00e9s<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>Les r\u00e9sultats de cette \u00e9tude remettent en question de nombreuses id\u00e9es re\u00e7ues sur les messages de la CdT :<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>Efficacit\u00e9 limit\u00e9e du CoT : <\/strong>Contrairement aux affirmations pr\u00e9c\u00e9dentes, l'invite CoT n'a montr\u00e9 une am\u00e9lioration significative des performances que lorsque les exemples fournis \u00e9taient extr\u00eamement similaires au probl\u00e8me de la requ\u00eate. D\u00e8s que les probl\u00e8mes s'\u00e9cartent du format exact des exemples, les performances chutent brutalement.<\/p><\/li><li><p><strong>D\u00e9gradation rapide des performances :<\/strong> Au fur et \u00e0 mesure que la complexit\u00e9 des probl\u00e8mes augmentait (mesur\u00e9e par le nombre de blocs impliqu\u00e9s), la pr\u00e9cision de tous les mod\u00e8les diminuait consid\u00e9rablement, quelle que soit l'invite CoT utilis\u00e9e. Cela sugg\u00e8re que les LLM ont du mal \u00e0 \u00e9tendre le raisonnement d\u00e9montr\u00e9 dans des exemples simples \u00e0 des sc\u00e9narios plus complexes.<\/p><\/li><li><p><strong>Inefficacit\u00e9 des messages d'incitation g\u00e9n\u00e9rale :<\/strong> Il est surprenant de constater que les messages plus g\u00e9n\u00e9raux de la CoT sont souvent moins performants que les messages standard sans exemples de raisonnement. Cela contredit l'id\u00e9e selon laquelle la CoT aide les LLM \u00e0 apprendre des strat\u00e9gies g\u00e9n\u00e9ralisables de r\u00e9solution de probl\u00e8mes.<\/p><\/li><li><p><strong>Compromis de sp\u00e9cificit\u00e9 :<\/strong> L'\u00e9tude a r\u00e9v\u00e9l\u00e9 que les messages guides tr\u00e8s sp\u00e9cifiques pouvaient atteindre un niveau de pr\u00e9cision \u00e9lev\u00e9, mais seulement pour un sous-ensemble tr\u00e8s \u00e9troit de probl\u00e8mes. Cela met en \u00e9vidence un compromis important entre les gains de performance et l'applicabilit\u00e9 de l'invite.<\/p><\/li><li><p><strong>Absence de v\u00e9ritable apprentissage algorithmique :<\/strong> Les r\u00e9sultats sugg\u00e8rent fortement que les LLM n'apprennent pas \u00e0 appliquer des proc\u00e9dures algorithmiques g\u00e9n\u00e9rales \u00e0 partir des exemples CoT. Au lieu de cela, ils semblent s'appuyer sur l'appariement de mod\u00e8les, qui s'effondre rapidement lorsqu'ils sont confront\u00e9s \u00e0 des probl\u00e8mes nouveaux ou plus complexes.<\/p><\/li>\n<\/ol>\n\n\n<p>Ces r\u00e9sultats ont des implications importantes pour les praticiens de l'IA et les entreprises qui cherchent \u00e0 tirer parti de l'incitation CoT dans leurs applications. Ils sugg\u00e8rent que si le CoT peut am\u00e9liorer les performances dans certains sc\u00e9narios \u00e9troits, il n'est peut-\u00eatre pas la panac\u00e9e pour les t\u00e2ches de raisonnement complexes que beaucoup esp\u00e9raient. <\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/2a9ff0a4-4f7d-4c79-abac-6b08616425a9.png\" \/>\n<\/figure>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Beyond_Blocksworld_Extending_the_Investigation\"><\/span>Au-del\u00e0 de Blocksworld : Prolonger l'enqu\u00eate<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>Pour s'assurer que leurs conclusions ne se limitaient pas au domaine Blocksworld, les chercheurs ont \u00e9tendu leur enqu\u00eate \u00e0 plusieurs domaines de probl\u00e8mes synth\u00e9tiques couramment utilis\u00e9s dans les \u00e9tudes CoT pr\u00e9c\u00e9dentes :<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>CoinFlip :<\/strong> T\u00e2che consistant \u00e0 pr\u00e9dire l'\u00e9tat d'une pi\u00e8ce de monnaie apr\u00e8s une s\u00e9rie de lancers.<\/p><\/li><li><p><strong>LastLetterConcatenation (concat\u00e9nation de la derni\u00e8re lettre) :<\/strong> Une t\u00e2che de traitement de texte n\u00e9cessitant la concat\u00e9nation des derni\u00e8res lettres de mots donn\u00e9s.<\/p><\/li><li><p><strong>Arithm\u00e9tique \u00e0 plusieurs \u00e9tapes :<\/strong> Probl\u00e8mes impliquant la simplification d'expressions arithm\u00e9tiques complexes.<\/p><\/li>\n<\/ol>\n\n\n<p>Ces domaines ont \u00e9t\u00e9 choisis parce qu'ils permettent de g\u00e9n\u00e9rer des probl\u00e8mes de complexit\u00e9 croissante, \u00e0 l'instar de Blocksworld. Les r\u00e9sultats de ces exp\u00e9riences suppl\u00e9mentaires sont \u00e9tonnamment coh\u00e9rents avec ceux de Blocksworld :<\/p>\n\n\n<ul class=\"wp-block-list\">\n<li><p><strong>Manque de g\u00e9n\u00e9ralisation :<\/strong> Les messages-guides CoT n'ont apport\u00e9 des am\u00e9liorations que pour des probl\u00e8mes tr\u00e8s similaires aux exemples fournis. Au fur et \u00e0 mesure que la complexit\u00e9 des probl\u00e8mes augmentait, les performances se d\u00e9gradaient rapidement pour atteindre des niveaux comparables ou inf\u00e9rieurs \u00e0 ceux des messages-guides standard.<\/p><\/li><li><p><strong>Correspondance de motifs syntaxiques :<\/strong> Dans la t\u00e2che \"LastLetterConcatenation\", l'incitation par le CoT a am\u00e9lior\u00e9 certains aspects syntaxiques des r\u00e9ponses (comme l'utilisation des lettres correctes) mais n'a pas r\u00e9ussi \u00e0 maintenir la pr\u00e9cision \u00e0 mesure que le nombre de mots augmentait.<\/p><\/li><li><p><strong>\u00c9chec malgr\u00e9 des \u00e9tapes interm\u00e9diaires parfaites :<\/strong> Dans les t\u00e2ches arithm\u00e9tiques, m\u00eame lorsque les mod\u00e8les pouvaient parfaitement r\u00e9soudre toutes les op\u00e9rations possibles \u00e0 un chiffre, ils ne parvenaient pas \u00e0 g\u00e9n\u00e9raliser les s\u00e9quences d'op\u00e9rations plus longues.<\/p><\/li>\n<\/ul>\n\n\n<p>Ces r\u00e9sultats renforcent la conclusion selon laquelle les LLM actuels n'apprennent pas vraiment de strat\u00e9gies de raisonnement g\u00e9n\u00e9ralisables \u00e0 partir d'exemples de CoT. Au lieu de cela, ils semblent s'appuyer fortement sur une correspondance superficielle des mod\u00e8les, qui s'effondre lorsqu'ils sont confront\u00e9s \u00e0 des probl\u00e8mes qui s'\u00e9cartent des exemples d\u00e9montr\u00e9s.<\/p>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Implications_for_AI_Development\"><\/span>Implications pour le d\u00e9veloppement de l'IA<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>Les r\u00e9sultats de cette \u00e9tude ont des implications importantes pour le d\u00e9veloppement de l'IA, en particulier pour les entreprises qui travaillent sur des applications n\u00e9cessitant des capacit\u00e9s de raisonnement ou de planification complexes :<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>R\u00e9\u00e9valuation de l'efficacit\u00e9 de la formation continue :<\/strong> L'\u00e9tude remet en question l'id\u00e9e selon laquelle l'incitation par le CoT \"d\u00e9bloque\" les capacit\u00e9s de raisonnement g\u00e9n\u00e9ral chez les LLM. Les d\u00e9veloppeurs d'IA devraient \u00eatre prudents et ne pas se fier au CoT pour les t\u00e2ches qui n\u00e9cessitent une v\u00e9ritable pens\u00e9e algorithmique ou une g\u00e9n\u00e9ralisation \u00e0 de nouveaux sc\u00e9narios.<\/p><\/li><li><p><strong>Limites des programmes d'\u00e9ducation et de formation tout au long de la vie actuels :<\/strong> Malgr\u00e9 leurs capacit\u00e9s impressionnantes dans de nombreux domaines, les LLM de pointe ont encore du mal \u00e0 raisonner de mani\u00e8re coh\u00e9rente et g\u00e9n\u00e9ralisable. Cela sugg\u00e8re que d'autres approches peuvent \u00eatre n\u00e9cessaires pour les applications n\u00e9cessitant une planification robuste ou la r\u00e9solution de probl\u00e8mes en plusieurs \u00e9tapes.<\/p><\/li><li><p><strong>Le co\u00fbt de l'ing\u00e9nierie rapide : <\/strong>Si les messages guides tr\u00e8s sp\u00e9cifiques peuvent donner de bons r\u00e9sultats pour des ensembles de probl\u00e8mes restreints, l'effort humain n\u00e9cessaire pour \u00e9laborer ces messages guides peut l'emporter sur les avantages, surtout si l'on tient compte de leur faible capacit\u00e9 de g\u00e9n\u00e9ralisation.<\/p><\/li><li><p><strong>Repenser les mesures d'\u00e9valuation :<\/strong> L'\u00e9tude souligne l'importance de tester les mod\u00e8les d'IA sur des probl\u00e8mes de complexit\u00e9 et de structure variables. S'appuyer uniquement sur des ensembles de tests statiques peut conduire \u00e0 surestimer les v\u00e9ritables capacit\u00e9s de raisonnement d'un mod\u00e8le.<\/p><\/li><li><p><strong>Le foss\u00e9 entre la perception et la r\u00e9alit\u00e9 :<\/strong> Il existe un \u00e9cart important entre la perception des capacit\u00e9s de raisonnement des MFR (souvent anthropomorphis\u00e9es dans le discours populaire) et leurs capacit\u00e9s r\u00e9elles, comme le d\u00e9montre cette \u00e9tude.<\/p><\/li>\n<\/ol>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Recommendations_for_AI_Practitioners\"><\/span>Recommandations pour les praticiens de l'IA<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>Compte tenu de ces \u00e9l\u00e9ments, voici quelques recommandations cl\u00e9s \u00e0 l'intention des praticiens de l'IA et des entreprises qui travaillent avec des MLD :<\/p>\n\n\n<p><strong><u>Pratiques d'\u00e9valuation rigoureuses :<\/u><\/strong><\/p>\n\n\n<ul class=\"wp-block-list\">\n<li><p>Mettre en \u0153uvre des cadres de test qui peuvent g\u00e9n\u00e9rer des probl\u00e8mes de complexit\u00e9 variable.<\/p><\/li><li><p>Ne vous fiez pas uniquement aux ensembles de tests statiques ou aux crit\u00e8res de r\u00e9f\u00e9rence qui peuvent \u00eatre repr\u00e9sent\u00e9s dans les donn\u00e9es d'apprentissage.<\/p><\/li><li><p>\u00c9valuer les performances \u00e0 travers un spectre de variations de probl\u00e8mes afin d'\u00e9valuer une v\u00e9ritable g\u00e9n\u00e9ralisation.<\/p><\/li>\n<\/ul>\n\n\n<p><strong><u>Des attentes r\u00e9alistes pour le CdT :<\/u><\/strong><\/p>\n\n\n<ul class=\"wp-block-list\">\n<li><p>Utiliser judicieusement les messages-guides du CoT, en comprenant leurs limites en mati\u00e8re de g\u00e9n\u00e9ralisation.<\/p><\/li><li><p>Sachez que les am\u00e9liorations de performances apport\u00e9es par le CoT peuvent \u00eatre limit\u00e9es \u00e0 des ensembles de probl\u00e8mes restreints.<\/p><\/li><li><p>Examinez le compromis entre l'effort d'ing\u00e9nierie rapide et les gains de performance potentiels.<\/p><\/li>\n<\/ul>\n\n\n<p><strong><u>Approches hybrides :<\/u><\/strong><\/p>\n\n\n<ul class=\"wp-block-list\">\n<li><p>Pour les t\u00e2ches de raisonnement complexes, il faut envisager de combiner les LLM avec des approches algorithmiques traditionnelles ou des modules de raisonnement sp\u00e9cialis\u00e9s.<\/p><\/li><li><p>Explorer les m\u00e9thodes qui peuvent exploiter les forces des LLM (par exemple, la compr\u00e9hension du langage naturel) tout en compensant leurs faiblesses en mati\u00e8re de raisonnement algorithmique.<\/p><\/li>\n<\/ul>\n\n\n<p><strong><u>Transparence dans les applications de l'IA :<\/u><\/strong><\/p>\n\n\n<ul class=\"wp-block-list\">\n<li><p>Communiquer clairement les limites des syst\u00e8mes d'IA, en particulier lorsqu'ils impliquent des t\u00e2ches de raisonnement ou de planification.<\/p><\/li><li><p>\u00c9viter de surestimer les capacit\u00e9s des LLM, en particulier dans les applications critiques pour la s\u00e9curit\u00e9 ou \u00e0 fort enjeu.<\/p><\/li>\n<\/ul>\n\n\n<p><strong><u>Poursuite de la recherche et du d\u00e9veloppement :<\/u><\/strong><\/p>\n\n\n<ul class=\"wp-block-list\">\n<li><p>Investir dans la recherche visant \u00e0 am\u00e9liorer les v\u00e9ritables capacit\u00e9s de raisonnement des syst\u00e8mes d'IA.<\/p><\/li><li><p>Explorer d'autres architectures ou m\u00e9thodes de formation susceptibles d'aboutir \u00e0 une g\u00e9n\u00e9ralisation plus robuste dans des t\u00e2ches complexes.<\/p><\/li>\n<\/ul>\n\n\n<p><strong><u>Mise au point sp\u00e9cifique \u00e0 un domaine :<\/u><\/strong><\/p>\n\n\n<ul class=\"wp-block-list\">\n<li><p>Pour les domaines de probl\u00e8mes \u00e9troits et bien d\u00e9finis, il faut envisager d'affiner les mod\u00e8les sur des donn\u00e9es et des mod\u00e8les de raisonnement sp\u00e9cifiques au domaine.<\/p><\/li><li><p>Il faut savoir qu'une telle mise au point peut am\u00e9liorer les performances dans le domaine, mais ne peut pas \u00eatre g\u00e9n\u00e9ralis\u00e9e au-del\u00e0.<\/p><\/li>\n<\/ul>\n\n\n<p>En suivant ces recommandations, les praticiens de l'IA peuvent d\u00e9velopper des applications d'IA plus robustes et plus fiables, en \u00e9vitant les pi\u00e8ges potentiels associ\u00e9s \u00e0 la surestimation des capacit\u00e9s de raisonnement des LLM actuels. Les r\u00e9sultats de cette \u00e9tude nous rappellent l'importance d'une \u00e9valuation critique et r\u00e9aliste dans le domaine de l'IA, qui \u00e9volue rapidement.<\/p>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"The_Bottom_Line\"><\/span><strong>Le bilan<\/strong><span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>Cette \u00e9tude novatrice sur l'incitation \u00e0 la cha\u00eene de pens\u00e9e dans les t\u00e2ches de planification remet en question notre compr\u00e9hension des capacit\u00e9s de la gestion du cycle de vie et incite \u00e0 r\u00e9\u00e9valuer les pratiques actuelles de d\u00e9veloppement de l'intelligence artificielle. En r\u00e9v\u00e9lant les limites de la cha\u00eene de pens\u00e9e dans sa g\u00e9n\u00e9ralisation \u00e0 des probl\u00e8mes complexes, elle souligne la n\u00e9cessit\u00e9 de tests plus rigoureux et d'attentes r\u00e9alistes dans les applications de l'IA. <\/p>\n\n\n<p>Pour les praticiens et les entreprises de l'IA, ces r\u00e9sultats soulignent l'importance de combiner les forces du LLM avec des approches de raisonnement sp\u00e9cialis\u00e9es, d'investir dans des solutions sp\u00e9cifiques au domaine si n\u00e9cessaire, et de maintenir la transparence sur les limites des syst\u00e8mes d'IA. \u00c0 mesure que nous avan\u00e7ons, la communaut\u00e9 de l'IA doit se concentrer sur le d\u00e9veloppement de nouvelles architectures et m\u00e9thodes de formation qui peuvent combler le foss\u00e9 entre l'appariement de mod\u00e8les et le v\u00e9ritable raisonnement algorithmique. Cette \u00e9tude rappelle de mani\u00e8re cruciale que si les LLM ont fait des progr\u00e8s remarquables, l'obtention de capacit\u00e9s de raisonnement semblables \u00e0 celles de l'homme reste un d\u00e9fi permanent pour la recherche et le d\u00e9veloppement en mati\u00e8re d'IA.<\/p>","protected":false},"excerpt":{"rendered":"<p>Chain-of-Thought (CoT) prompting has been hailed as a breakthrough in unlocking the reasoning capabilities of large language models (LLMs). This technique, which involves providing step-by-step reasoning examples to guide LLMs, has garnered significant attention in the AI community. Many researchers and practitioners have claimed that CoT prompting allows LLMs to tackle complex reasoning tasks more [&hellip;]<\/p>\n","protected":false},"author":1003,"featured_media":13048,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"single-custom-post-template.php","format":"standard","meta":{"_et_pb_use_builder":"","_et_pb_old_content":"","_et_gb_content_width":"","footnotes":""},"categories":[100,67,119],"tags":[],"class_list":["post-12994","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-generative-ai","category-ml-nlp","category-prompt-engineering"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v24.1 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>AI Research Paper Summarized: &quot;Chain of Thought(lessness)?&quot; Prompting - Skim AI<\/title>\n<meta name=\"description\" content=\"Explore the limitations of Chain-of-Thought prompting in LLMs as revealed by recent research. Understand its effectiveness, challenges, and implications for AI development.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/skimai.com\/fr\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"AI Research Paper Summarized: &quot;Chain of Thought(lessness)?&quot; Prompting - Skim AI\" \/>\n<meta property=\"og:description\" content=\"Explore the limitations of Chain-of-Thought prompting in LLMs as revealed by recent research. Understand its effectiveness, challenges, and implications for AI development.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/skimai.com\/fr\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/\" \/>\n<meta property=\"og:site_name\" content=\"Skim AI\" \/>\n<meta property=\"article:published_time\" content=\"2024-08-30T02:44:22+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-08-30T02:44:48+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/Chain-of-Thought.png\" \/>\n\t<meta property=\"og:image:width\" content=\"1092\" \/>\n\t<meta property=\"og:image:height\" content=\"612\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Greggory Elias\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"\u00c9crit par\" \/>\n\t<meta name=\"twitter:data1\" content=\"Greggory Elias\" \/>\n\t<meta name=\"twitter:label2\" content=\"Dur\u00e9e de lecture estim\u00e9e\" \/>\n\t<meta name=\"twitter:data2\" content=\"8 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/\"},\"author\":{\"name\":\"Greggory Elias\",\"@id\":\"https:\/\/skimai.com\/uk\/#\/schema\/person\/7a883b4a2d2ea22040f42a7975eb86c6\"},\"headline\":\"AI Research Paper Summarized: &#8220;Chain of Thought(lessness)?&#8221; Prompting\",\"datePublished\":\"2024-08-30T02:44:22+00:00\",\"dateModified\":\"2024-08-30T02:44:48+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/\"},\"wordCount\":1451,\"publisher\":{\"@id\":\"https:\/\/skimai.com\/uk\/#organization\"},\"image\":{\"@id\":\"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/Chain-of-Thought.png\",\"articleSection\":[\"Generative AI\",\"LLMs \/ NLP\",\"Prompt Engineering\"],\"inLanguage\":\"fr-FR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/\",\"url\":\"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/\",\"name\":\"AI Research Paper Summarized: \\\"Chain of Thought(lessness)?\\\" Prompting - Skim AI\",\"isPartOf\":{\"@id\":\"https:\/\/skimai.com\/uk\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/Chain-of-Thought.png\",\"datePublished\":\"2024-08-30T02:44:22+00:00\",\"dateModified\":\"2024-08-30T02:44:48+00:00\",\"description\":\"Explore the limitations of Chain-of-Thought prompting in LLMs as revealed by recent research. Understand its effectiveness, challenges, and implications for AI development.\",\"breadcrumb\":{\"@id\":\"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/#primaryimage\",\"url\":\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/Chain-of-Thought.png\",\"contentUrl\":\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/Chain-of-Thought.png\",\"width\":1092,\"height\":612,\"caption\":\"Chain of Thought\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/skimai.com\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"AI Research Paper Summarized: &#8220;Chain of Thought(lessness)?&#8221; Prompting\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/skimai.com\/uk\/#website\",\"url\":\"https:\/\/skimai.com\/uk\/\",\"name\":\"Skim AI\",\"description\":\"The AI Agent Workforce Platform\",\"publisher\":{\"@id\":\"https:\/\/skimai.com\/uk\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/skimai.com\/uk\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/skimai.com\/uk\/#organization\",\"name\":\"Skim AI\",\"url\":\"https:\/\/skimai.com\/uk\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/skimai.com\/uk\/#\/schema\/logo\/image\/\",\"url\":\"http:\/\/skimai.com\/wp-content\/uploads\/2020\/07\/SKIM-AI-Header-Logo.png\",\"contentUrl\":\"http:\/\/skimai.com\/wp-content\/uploads\/2020\/07\/SKIM-AI-Header-Logo.png\",\"width\":194,\"height\":58,\"caption\":\"Skim AI\"},\"image\":{\"@id\":\"https:\/\/skimai.com\/uk\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/www.linkedin.com\/company\/skim-ai\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/skimai.com\/uk\/#\/schema\/person\/7a883b4a2d2ea22040f42a7975eb86c6\",\"name\":\"Greggory Elias\",\"url\":\"https:\/\/skimai.com\/fr\/author\/gregg\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"R\u00e9sum\u00e9 d'un document de recherche sur l'IA : \"Cha\u00eene de pens\u00e9e\" ? Incitation \u00e0 la r\u00e9flexion - Skim AI","description":"Explorer les limites de l'incitation \u00e0 la cha\u00eene de pens\u00e9e dans les MLD, telles qu'elles ressortent de recherches r\u00e9centes. Comprendre son efficacit\u00e9, ses d\u00e9fis et ses implications pour le d\u00e9veloppement de l'IA.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/skimai.com\/fr\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/","og_locale":"fr_FR","og_type":"article","og_title":"AI Research Paper Summarized: \"Chain of Thought(lessness)?\" Prompting - Skim AI","og_description":"Explore the limitations of Chain-of-Thought prompting in LLMs as revealed by recent research. Understand its effectiveness, challenges, and implications for AI development.","og_url":"https:\/\/skimai.com\/fr\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/","og_site_name":"Skim AI","article_published_time":"2024-08-30T02:44:22+00:00","article_modified_time":"2024-08-30T02:44:48+00:00","og_image":[{"width":1092,"height":612,"url":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/Chain-of-Thought.png","type":"image\/png"}],"author":"Greggory Elias","twitter_card":"summary_large_image","twitter_misc":{"\u00c9crit par":"Greggory Elias","Dur\u00e9e de lecture estim\u00e9e":"8 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/#article","isPartOf":{"@id":"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/"},"author":{"name":"Greggory Elias","@id":"https:\/\/skimai.com\/uk\/#\/schema\/person\/7a883b4a2d2ea22040f42a7975eb86c6"},"headline":"AI Research Paper Summarized: &#8220;Chain of Thought(lessness)?&#8221; Prompting","datePublished":"2024-08-30T02:44:22+00:00","dateModified":"2024-08-30T02:44:48+00:00","mainEntityOfPage":{"@id":"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/"},"wordCount":1451,"publisher":{"@id":"https:\/\/skimai.com\/uk\/#organization"},"image":{"@id":"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/#primaryimage"},"thumbnailUrl":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/Chain-of-Thought.png","articleSection":["Generative AI","LLMs \/ NLP","Prompt Engineering"],"inLanguage":"fr-FR"},{"@type":"WebPage","@id":"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/","url":"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/","name":"R\u00e9sum\u00e9 d'un document de recherche sur l'IA : \"Cha\u00eene de pens\u00e9e\" ? Incitation \u00e0 la r\u00e9flexion - Skim AI","isPartOf":{"@id":"https:\/\/skimai.com\/uk\/#website"},"primaryImageOfPage":{"@id":"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/#primaryimage"},"image":{"@id":"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/#primaryimage"},"thumbnailUrl":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/Chain-of-Thought.png","datePublished":"2024-08-30T02:44:22+00:00","dateModified":"2024-08-30T02:44:48+00:00","description":"Explorer les limites de l'incitation \u00e0 la cha\u00eene de pens\u00e9e dans les MLD, telles qu'elles ressortent de recherches r\u00e9centes. Comprendre son efficacit\u00e9, ses d\u00e9fis et ses implications pour le d\u00e9veloppement de l'IA.","breadcrumb":{"@id":"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/"]}]},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/#primaryimage","url":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/Chain-of-Thought.png","contentUrl":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/Chain-of-Thought.png","width":1092,"height":612,"caption":"Chain of Thought"},{"@type":"BreadcrumbList","@id":"https:\/\/skimai.com\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/skimai.com\/"},{"@type":"ListItem","position":2,"name":"AI Research Paper Summarized: &#8220;Chain of Thought(lessness)?&#8221; Prompting"}]},{"@type":"WebSite","@id":"https:\/\/skimai.com\/uk\/#website","url":"https:\/\/skimai.com\/uk\/","name":"Skim AI","description":"La plateforme de travail des agents de l'IA","publisher":{"@id":"https:\/\/skimai.com\/uk\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/skimai.com\/uk\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR"},{"@type":"Organization","@id":"https:\/\/skimai.com\/uk\/#organization","name":"Skim AI","url":"https:\/\/skimai.com\/uk\/","logo":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/skimai.com\/uk\/#\/schema\/logo\/image\/","url":"http:\/\/skimai.com\/wp-content\/uploads\/2020\/07\/SKIM-AI-Header-Logo.png","contentUrl":"http:\/\/skimai.com\/wp-content\/uploads\/2020\/07\/SKIM-AI-Header-Logo.png","width":194,"height":58,"caption":"Skim AI"},"image":{"@id":"https:\/\/skimai.com\/uk\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.linkedin.com\/company\/skim-ai"]},{"@type":"Person","@id":"https:\/\/skimai.com\/uk\/#\/schema\/person\/7a883b4a2d2ea22040f42a7975eb86c6","name":"Greggory Elias","url":"https:\/\/skimai.com\/fr\/author\/gregg\/"}]}},"_links":{"self":[{"href":"https:\/\/skimai.com\/fr\/wp-json\/wp\/v2\/posts\/12994","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/skimai.com\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/skimai.com\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/skimai.com\/fr\/wp-json\/wp\/v2\/users\/1003"}],"replies":[{"embeddable":true,"href":"https:\/\/skimai.com\/fr\/wp-json\/wp\/v2\/comments?post=12994"}],"version-history":[{"count":0,"href":"https:\/\/skimai.com\/fr\/wp-json\/wp\/v2\/posts\/12994\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/skimai.com\/fr\/wp-json\/wp\/v2\/media\/13048"}],"wp:attachment":[{"href":"https:\/\/skimai.com\/fr\/wp-json\/wp\/v2\/media?parent=12994"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/skimai.com\/fr\/wp-json\/wp\/v2\/categories?post=12994"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/skimai.com\/fr\/wp-json\/wp\/v2\/tags?post=12994"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}