{"id":13060,"date":"2024-09-19T23:44:34","date_gmt":"2024-09-20T04:44:34","guid":{"rendered":"http:\/\/skimai.com\/?p=13060"},"modified":"2024-09-19T23:44:34","modified_gmt":"2024-09-20T04:44:34","slug":"nous-devons-repenser-la-chaine-de-pensee-et-lincitation-a-laction-aiyou-68","status":"publish","type":"post","link":"https:\/\/skimai.com\/fr\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/","title":{"rendered":"Nous devons repenser la cha\u00eene de pens\u00e9e (CoT) qui incite l'IA&amp;YOU #68"},"content":{"rendered":"<p><strong>La statistique de la semaine :<\/strong> La performance CoT \u00e0 z\u00e9ro coup n'\u00e9tait que de 5,55% pour GPT-4-Turbo, 8,51% pour Claude-3-Opus, et 4,44% pour GPT-4. (Article \"Cha\u00eene de l'insouciance\")<\/p>\n\n\n<p>L'incitation \u00e0 la cha\u00eene de pens\u00e9e (CoT) a \u00e9t\u00e9 salu\u00e9e comme une perc\u00e9e dans l'exploitation des capacit\u00e9s de raisonnement des grands mod\u00e8les de langage (LLM). Toutefois, des recherches r\u00e9centes ont remis en question ces affirmations et nous ont incit\u00e9s \u00e0 r\u00e9examiner cette technique.<\/p>\n\n\n<p><strong>Dans l'\u00e9dition de cette semaine de AI&amp;YOU, nous explorons les perspectives de trois blogs que nous avons publi\u00e9s sur le sujet :<\/strong><\/p>\n\n\n<ul class=\"wp-block-list\">\n<li><p><a rel=\"noopener noreferrer\" href=\"http:\/\/skimai.com\/fr\/quest-ce-que-la-chaine-de-pensee\/\">Qu'est-ce que la cha\u00eene de pens\u00e9e ?<\/a><\/p><\/li><li><p><a rel=\"noopener noreferrer\" href=\"http:\/\/skimai.com\/fr\/ai-research-paper-summarized-chain-of-thought-lessness-prompting\/\">La rupture d'un document de recherche sur l'IA : \"La cha\u00eene de l'irr\u00e9flexion ?<\/a><\/p><\/li><li><p><a rel=\"noopener noreferrer\" href=\"http:\/\/skimai.com\/fr\/les-10-meilleures-techniques-dincitation-de-lllm-pour-maximiser-la-performance-de-lai\/\">10 meilleures techniques d'incitation pour les \u00e9tudiants en master de droit<\/a><\/p><\/li>\n<\/ul>\n\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_1 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Table des mati\u00e8res<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Toggle Table des mati\u00e8res\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewbox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewbox=\"0 0 24 24\" version=\"1.2\" baseprofile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1' ><ul class='ez-toc-list-level-2' ><li class='ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/skimai.com\/fr\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#We_need_to_rethink_chain-of-thought_CoT_prompting_AI_YOU_68\" >Nous devons repenser la cha\u00eene de pens\u00e9e (CoT) qui incite l'IA&amp;YOU #68<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/skimai.com\/fr\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#How_CoT_Works\" >Comment fonctionne le CdT<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/skimai.com\/fr\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#Types_of_CoT_Prompting\" >Types de messages-guides du CdT<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-1'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/skimai.com\/fr\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#AI_Research_Paper_Breakdown_%E2%80%9CChain_of_Thoughtlessness%E2%80%9D\" >La rupture d'un document de recherche sur l'IA : \"La cha\u00eene de l'irr\u00e9flexion ?<\/a><ul class='ez-toc-list-level-2' ><li class='ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/skimai.com\/fr\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#Key_Findings_Unveiled\" >Les principaux r\u00e9sultats sont d\u00e9voil\u00e9s<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-6\" href=\"https:\/\/skimai.com\/fr\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#Implications_for_AI_Development\" >Implications pour le d\u00e9veloppement de l'IA<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-7\" href=\"https:\/\/skimai.com\/fr\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#Recommendations_for_AI_Practitioners\" >Recommandations pour les praticiens de l'IA :<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-1'><a class=\"ez-toc-link ez-toc-heading-8\" href=\"https:\/\/skimai.com\/fr\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#10_Best_Prompting_Techniques_for_LLMs\" >10 meilleures techniques d'incitation pour les \u00e9tudiants en master de droit<\/a><ul class='ez-toc-list-level-2' ><li class='ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-9\" href=\"https:\/\/skimai.com\/fr\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#Thank_you_for_taking_the_time_to_read_AI_YOU\" >Merci d'avoir pris le temps de lire AI &amp; YOU !<\/a><\/li><\/ul><\/li><\/ul><\/nav><\/div>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"We_need_to_rethink_chain-of-thought_CoT_prompting_AI_YOU_68\"><\/span><strong>Nous devons repenser la cha\u00eene de pens\u00e9e (CoT) qui incite l'IA&amp;YOU #68<\/strong><span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>Les LLMs d\u00e9montrent des capacit\u00e9s remarquables dans le traitement et la g\u00e9n\u00e9ration du langage naturel (NLP). Cependant, lorsqu'ils sont confront\u00e9s \u00e0 des t\u00e2ches de raisonnement complexes, ces mod\u00e8les peuvent avoir du mal \u00e0 produire des r\u00e9sultats pr\u00e9cis et fiables. C'est l\u00e0 qu'intervient l'incitation \u00e0 la cha\u00eene de pens\u00e9e (CoT), une technique qui vise \u00e0 am\u00e9liorer les capacit\u00e9s de r\u00e9solution de probl\u00e8mes des LLM.<\/p>\n\n\n<p>Un outil avanc\u00e9 <a rel=\"noopener noreferrer\" href=\"http:\/\/skimai.com\/fr\/quest-ce-que-lingenierie-rapide\/\">ing\u00e9nierie rapide<\/a> La technique CoT est con\u00e7ue pour guider les LLM \u00e0 travers un processus de raisonnement \u00e9tape par \u00e9tape. Contrairement aux m\u00e9thodes d'incitation standard qui visent \u00e0 obtenir des r\u00e9ponses directes, l'incitation CoT encourage le mod\u00e8le \u00e0 g\u00e9n\u00e9rer des \u00e9tapes de raisonnement interm\u00e9diaires avant d'arriver \u00e0 une r\u00e9ponse finale.<\/p>\n\n\n<p>\u00c0 la base, l'incitation CoT implique la structuration d'invites d'entr\u00e9e de mani\u00e8re \u00e0 susciter une s\u00e9quence logique de pens\u00e9es de la part du mod\u00e8le. En d\u00e9composant les probl\u00e8mes complexes en \u00e9tapes plus petites et plus faciles \u00e0 g\u00e9rer, le CoT tente de permettre aux LLM de naviguer plus efficacement \u00e0 travers des chemins de raisonnement complexes.<\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/b09a9a44-caab-4b70-ab0b-37bcbf039925.png\" \/>\n<\/figure>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"How_CoT_Works\"><\/span>Comment fonctionne le CdT<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>\u00c0 la base, l'invite CoT guide les mod\u00e8les linguistiques \u00e0 travers une s\u00e9rie d'\u00e9tapes de raisonnement interm\u00e9diaires avant d'aboutir \u00e0 une r\u00e9ponse finale. Ce processus implique g\u00e9n\u00e9ralement<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>D\u00e9composition du probl\u00e8me :<\/strong> La t\u00e2che complexe est d\u00e9compos\u00e9e en \u00e9tapes plus petites et plus faciles \u00e0 g\u00e9rer.<\/p><\/li><li><p><strong>Raisonnement pas \u00e0 pas :<\/strong> Le mod\u00e8le est invit\u00e9 \u00e0 r\u00e9fl\u00e9chir \u00e0 chaque \u00e9tape de mani\u00e8re explicite.<\/p><\/li><li><p><strong>Progression logique :<\/strong> Chaque \u00e9tape s'appuie sur la pr\u00e9c\u00e9dente, cr\u00e9ant ainsi une cha\u00eene de pens\u00e9es.<\/p><\/li><li><p><strong>Dessin de conclusion :<\/strong> La r\u00e9ponse finale est d\u00e9riv\u00e9e des \u00e9tapes de raisonnement accumul\u00e9es.<\/p><\/li>\n<\/ol>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Types_of_CoT_Prompting\"><\/span>Types de messages-guides du CdT<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>L'incitation \u00e0 la cha\u00eene de pens\u00e9e peut \u00eatre mise en \u0153uvre de diff\u00e9rentes mani\u00e8res, deux types principaux se distinguant :<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>CoT \u00e0 tir nul :<\/strong> Le CoT z\u00e9ro n'exige pas d'exemples sp\u00e9cifiques \u00e0 la t\u00e2che. Au lieu de cela, elle utilise une simple invite telle que \"Abordons cette question \u00e9tape par \u00e9tape\" pour encourager le mod\u00e8le \u00e0 d\u00e9composer son processus de raisonnement.****<\/p><\/li><li><p><strong>CoT \u00e0 quelques coups :<\/strong> Le CoT \u00e0 quelques reprises consiste \u00e0 fournir au mod\u00e8le un petit nombre d'exemples qui illustrent le processus de raisonnement souhait\u00e9. Ces exemples servent de mod\u00e8le au mod\u00e8le lorsqu'il s'attaque \u00e0 de nouveaux probl\u00e8mes in\u00e9dits.<\/p><\/li>\n<\/ol>\n\n\n<p><strong><u>CoT \u00e0 tir nul<\/u><\/strong><\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/275993ad-9125-47d7-86b8-db87250913d6.png\" \/>\n<\/figure>\n\n\n<p><strong><u>CoT \u00e0 quelques coups<\/u><\/strong><\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/773c3c88-21c2-41b6-be04-4c8a80329933.png\" \/>\n<\/figure>\n\n\n<h1 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"AI_Research_Paper_Breakdown_%E2%80%9CChain_of_Thoughtlessness%E2%80%9D\"><\/span>La rupture d'un document de recherche sur l'IA : \"La cha\u00eene de l'irr\u00e9flexion ?<span class=\"ez-toc-section-end\"><\/span><\/h1>\n\n\n<p>Maintenant que vous savez ce qu'est le CoT, nous allons nous pencher sur des recherches r\u00e9centes qui remettent en question certains de ses avantages et qui permettent de mieux comprendre quand il est r\u00e9ellement utile.<\/p>\n\n\n<p>Le document de recherche, intitul\u00e9 \"<a rel=\"noopener noreferrer\" href=\"https:\/\/arxiv.org\/pdf\/2405.04776\">La cha\u00eene de l'irr\u00e9flexion ? Une analyse de l'approche par les co\u00fbts dans le domaine de la planification,<\/a>L'\u00e9tude \"CoT prompting\" fournit un examen critique de l'efficacit\u00e9 et de la g\u00e9n\u00e9ralisabilit\u00e9 de l'incitation CoT. En tant que praticiens de l'IA, il est essentiel de comprendre ces r\u00e9sultats et leurs implications pour le d\u00e9veloppement d'applications d'IA n\u00e9cessitant des capacit\u00e9s de raisonnement sophistiqu\u00e9es.<\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/3ba0bde5-4dd5-4cad-b56e-d84fa715c2d1.png\" \/>\n<\/figure>\n\n\n<p>Les chercheurs ont choisi un domaine de planification classique appel\u00e9 Blocksworld comme principal terrain d'essai. Dans Blocksworld, la t\u00e2che consiste \u00e0 r\u00e9organiser un ensemble de blocs d'une configuration initiale \u00e0 une configuration cible \u00e0 l'aide d'une s\u00e9rie d'actions de d\u00e9placement. Ce domaine est id\u00e9al pour tester les capacit\u00e9s de raisonnement et de planification pour les raisons suivantes :<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p>Il permet de g\u00e9n\u00e9rer des probl\u00e8mes de complexit\u00e9 variable<\/p><\/li><li><p>Il propose des solutions claires et v\u00e9rifiables sur le plan algorithmique.<\/p><\/li><li><p>Il est peu probable qu'il soit fortement repr\u00e9sent\u00e9 dans les donn\u00e9es de formation du LLM.<\/p><\/li>\n<\/ol>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/96c5ef3f-d5b0-4d8a-af26-92be9c553340.png\" \/>\n<\/figure>\n\n\n<p>L'\u00e9tude a examin\u00e9 trois LLM de pointe : GPT-4, Claude-3-Opus et GPT-4-Turbo. Ces mod\u00e8les ont \u00e9t\u00e9 test\u00e9s \u00e0 l'aide d'invites de sp\u00e9cificit\u00e9 variable :<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>Cha\u00eene de pens\u00e9e \u00e0 z\u00e9ro coup (universelle) :<\/strong> Il suffit d'ajouter \"r\u00e9fl\u00e9chissons \u00e9tape par \u00e9tape\" \u00e0 l'invite.<\/p><\/li><li><p><strong>Preuve de progression (sp\u00e9cifique \u00e0 la PDDL) :<\/strong> Fournir une explication g\u00e9n\u00e9rale de l'exactitude du plan avec des exemples.<\/p><\/li><li><p><strong>Algorithme universel Blocksworld :<\/strong> D\u00e9monstration d'un algorithme g\u00e9n\u00e9ral permettant de r\u00e9soudre n'importe quel probl\u00e8me du monde des blocs.<\/p><\/li><li><p><strong>Promesse d'empilage :<\/strong> Se concentrer sur une sous-classe sp\u00e9cifique des probl\u00e8mes de Blocksworld (table \u00e0 pile).<\/p><\/li><li><p><strong>Empilement lexicographique :<\/strong> R\u00e9duction suppl\u00e9mentaire \u00e0 une forme syntaxique particuli\u00e8re de l'\u00e9tat d'objectif.<\/p><\/li>\n<\/ol>\n\n\n<p>En testant ces invites sur des probl\u00e8mes de complexit\u00e9 croissante, les chercheurs ont voulu \u00e9valuer dans quelle mesure les LLM pouvaient g\u00e9n\u00e9raliser le raisonnement d\u00e9montr\u00e9 dans les exemples.<\/p>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Key_Findings_Unveiled\"><\/span>Les principaux r\u00e9sultats sont d\u00e9voil\u00e9s<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>Les r\u00e9sultats de cette \u00e9tude remettent en question de nombreuses id\u00e9es re\u00e7ues sur les messages de la CdT :<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>Efficacit\u00e9 limit\u00e9e du CoT :<\/strong> Contrairement aux affirmations pr\u00e9c\u00e9dentes, l'invite CoT n'a montr\u00e9 une am\u00e9lioration significative des performances que lorsque les exemples fournis \u00e9taient extr\u00eamement similaires au probl\u00e8me de la requ\u00eate. D\u00e8s que les probl\u00e8mes s'\u00e9cartent du format exact des exemples, les performances chutent brutalement.<\/p><\/li><li><p><strong>D\u00e9gradation rapide des performances :<\/strong> Au fur et \u00e0 mesure que la complexit\u00e9 des probl\u00e8mes augmentait (mesur\u00e9e par le nombre de blocs impliqu\u00e9s), la pr\u00e9cision de tous les mod\u00e8les diminuait consid\u00e9rablement, quelle que soit l'invite CoT utilis\u00e9e. Cela sugg\u00e8re que les LLM ont du mal \u00e0 \u00e9tendre le raisonnement d\u00e9montr\u00e9 dans des exemples simples \u00e0 des sc\u00e9narios plus complexes.<\/p><\/li><li><p><strong>Inefficacit\u00e9 des messages d'incitation g\u00e9n\u00e9rale :<\/strong> Il est surprenant de constater que les messages plus g\u00e9n\u00e9raux de la CoT sont souvent moins performants que les messages standard sans exemples de raisonnement. Cela contredit l'id\u00e9e selon laquelle la CoT aide les LLM \u00e0 apprendre des strat\u00e9gies g\u00e9n\u00e9ralisables de r\u00e9solution de probl\u00e8mes.<\/p><\/li><li><p><strong>Compromis de sp\u00e9cificit\u00e9 :<\/strong> L'\u00e9tude a r\u00e9v\u00e9l\u00e9 que les messages guides tr\u00e8s sp\u00e9cifiques pouvaient atteindre un niveau de pr\u00e9cision \u00e9lev\u00e9, mais seulement pour un sous-ensemble tr\u00e8s \u00e9troit de probl\u00e8mes. Cela met en \u00e9vidence un compromis important entre les gains de performance et l'applicabilit\u00e9 de l'invite.<\/p><\/li><li><p><strong>Absence de v\u00e9ritable apprentissage algorithmique :<\/strong> Les r\u00e9sultats sugg\u00e8rent fortement que les LLM n'apprennent pas \u00e0 appliquer des proc\u00e9dures algorithmiques g\u00e9n\u00e9rales \u00e0 partir des exemples CoT. Au lieu de cela, ils semblent s'appuyer sur l'appariement de mod\u00e8les, qui s'effondre rapidement lorsqu'ils sont confront\u00e9s \u00e0 des probl\u00e8mes nouveaux ou plus complexes.<\/p><\/li>\n<\/ol>\n\n\n<p>Ces r\u00e9sultats ont des implications importantes pour les praticiens de l'IA et les entreprises qui cherchent \u00e0 tirer parti de l'incitation CoT dans leurs applications. Ils sugg\u00e8rent que si le CoT peut am\u00e9liorer les performances dans certains sc\u00e9narios \u00e9troits, il n'est peut-\u00eatre pas la panac\u00e9e pour les t\u00e2ches de raisonnement complexes que beaucoup esp\u00e9raient.<\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/c76d6112-c7ee-420a-8aa5-67c5b89614b5.png\" \/>\n<\/figure>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Implications_for_AI_Development\"><\/span>Implications pour le d\u00e9veloppement de l'IA<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>Les r\u00e9sultats de cette \u00e9tude ont des implications importantes pour le d\u00e9veloppement de l'IA, en particulier pour les entreprises qui travaillent sur des applications n\u00e9cessitant des capacit\u00e9s de raisonnement ou de planification complexes :<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>R\u00e9\u00e9valuation de l'efficacit\u00e9 de la formation continue :<\/strong> Les d\u00e9veloppeurs d'IA devraient \u00eatre prudents et ne pas s'appuyer sur le CoT pour les t\u00e2ches qui n\u00e9cessitent une v\u00e9ritable r\u00e9flexion algorithmique ou une g\u00e9n\u00e9ralisation \u00e0 de nouveaux sc\u00e9narios.<\/p><\/li><li><p><strong>Limites des programmes d'\u00e9ducation et de formation tout au long de la vie actuels :<\/strong> D'autres approches peuvent s'av\u00e9rer n\u00e9cessaires pour les applications n\u00e9cessitant une planification solide ou la r\u00e9solution de probl\u00e8mes en plusieurs \u00e9tapes.<\/p><\/li><li><p><strong>Le co\u00fbt de l'ing\u00e9nierie rapide :<\/strong> Si les messages guides tr\u00e8s sp\u00e9cifiques peuvent donner de bons r\u00e9sultats pour des ensembles de probl\u00e8mes restreints, l'effort humain n\u00e9cessaire pour \u00e9laborer ces messages guides peut l'emporter sur les avantages, surtout si l'on tient compte de leur faible capacit\u00e9 de g\u00e9n\u00e9ralisation.<\/p><\/li><li><p><strong>Repenser les mesures d'\u00e9valuation :<\/strong> Le fait de s'appuyer uniquement sur des ensembles de tests statiques peut entra\u00eener une surestimation des v\u00e9ritables capacit\u00e9s de raisonnement d'un mod\u00e8le.<\/p><\/li><li><p><strong>Le foss\u00e9 entre la perception et la r\u00e9alit\u00e9 :<\/strong> Il existe un \u00e9cart important entre la perception des capacit\u00e9s de raisonnement des MFR (souvent anthropomorphis\u00e9es dans le discours populaire) et leurs capacit\u00e9s r\u00e9elles, comme le d\u00e9montre cette \u00e9tude.<\/p><\/li>\n<\/ol>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Recommendations_for_AI_Practitioners\"><\/span>Recommandations pour les praticiens de l'IA :<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<ul class=\"wp-block-list\">\n<li><p><strong>\u00c9valuation :<\/strong> Mettre en \u0153uvre divers cadres de test pour \u00e9valuer la g\u00e9n\u00e9ralisation r\u00e9elle \u00e0 travers la complexit\u00e9 des probl\u00e8mes.<\/p><\/li><li><p><strong>Utilisation du CoT :<\/strong> Appliquer judicieusement l'incitation \u00e0 la cha\u00eene de pens\u00e9e, en reconnaissant ses limites en mati\u00e8re de g\u00e9n\u00e9ralisation.<\/p><\/li><li><p><strong>Solutions hybrides<\/strong>: Envisager de combiner les LLM avec des algorithmes traditionnels pour les t\u00e2ches de raisonnement complexes.<\/p><\/li><li><p><strong>Transparence :<\/strong> Communiquer clairement les limites des syst\u00e8mes d'IA, en particulier pour les t\u00e2ches de raisonnement ou de planification.<\/p><\/li><li><p><strong>L'accent sur la R&amp;D :<\/strong> Investir dans la recherche pour am\u00e9liorer les v\u00e9ritables capacit\u00e9s de raisonnement des syst\u00e8mes d'intelligence artificielle.<\/p><\/li><li><p><strong>Ajustement minutieux :<\/strong> Envisager un r\u00e9glage fin sp\u00e9cifique au domaine, mais \u00eatre conscient des limites potentielles de la g\u00e9n\u00e9ralisation.<\/p><\/li>\n<\/ul>\n\n\n<p>Pour les praticiens et les entreprises de l'IA, ces r\u00e9sultats soulignent l'importance de combiner les forces du LLM avec des approches de raisonnement sp\u00e9cialis\u00e9es, d'investir dans des solutions sp\u00e9cifiques au domaine si n\u00e9cessaire, et de maintenir la transparence sur les limites des syst\u00e8mes d'IA. \u00c0 mesure que nous avan\u00e7ons, la communaut\u00e9 de l'IA doit se concentrer sur le d\u00e9veloppement de nouvelles architectures et m\u00e9thodes de formation qui peuvent combler le foss\u00e9 entre l'appariement de mod\u00e8les et le v\u00e9ritable raisonnement algorithmique.<\/p>\n\n\n<h1 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"10_Best_Prompting_Techniques_for_LLMs\"><\/span>10 meilleures techniques d'incitation pour les \u00e9tudiants en master de droit<span class=\"ez-toc-section-end\"><\/span><\/h1>\n\n\n<p>Cette semaine, nous explorons \u00e9galement dix des techniques d'incitation les plus puissantes et les plus courantes, en donnant un aper\u00e7u de leurs applications et des meilleures pratiques.<\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/8fe201b3-003e-4190-a06f-e5553d6b1126.png\" \/>\n<\/figure>\n\n\n<p>Des messages-guides bien con\u00e7us peuvent am\u00e9liorer consid\u00e9rablement les performances d'un LLM, en permettant d'obtenir des r\u00e9sultats plus pr\u00e9cis, plus pertinents et plus cr\u00e9atifs. Que vous soyez un d\u00e9veloppeur d'IA chevronn\u00e9 ou que vous d\u00e9butiez avec les LLM, ces techniques vous aideront \u00e0 exploiter tout le potentiel des mod\u00e8les d'IA.<\/p>\n\n\n<p>Ne manquez pas de consulter l'int\u00e9gralit\u00e9 du blog pour en savoir plus sur chacun d'entre eux.<\/p>\n\n\n<hr class=\"wp-block-separator\" \/>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Thank_you_for_taking_the_time_to_read_AI_YOU\"><\/span><strong>Merci d'avoir pris le temps de lire AI &amp; YOU !<\/strong><span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p><strong>Pour obtenir encore plus de contenu sur l'IA d'entreprise, y compris des infographies, des statistiques, des guides pratiques, des articles et des vid\u00e9os, suivez Skim AI sur <\/strong><a rel=\"noopener noreferrer\" href=\"https:\/\/linkedin.com\/company\/skim-ai\"><strong>LinkedIn<\/strong><\/a><\/p>\n\n\n<p>Vous \u00eates un fondateur, un PDG, un investisseur en capital-risque ou un investisseur \u00e0 la recherche de services de conseil en IA, de d\u00e9veloppement d'IA fractionn\u00e9e ou de due diligence ? Obtenez les conseils dont vous avez besoin pour prendre des d\u00e9cisions \u00e9clair\u00e9es sur la strat\u00e9gie des produits d'IA de votre entreprise et les opportunit\u00e9s d'investissement.<\/p>\n\n\n<p><a rel=\"noopener noreferrer\" href=\"https:\/\/meetings.hubspot.com\/gregg15\/15-min-about-enterprise-ai?utm_source=hs_email&utm_medium=email\">Vous avez besoin d'aide pour lancer votre solution d'IA d'entreprise ? Vous cherchez \u00e0 cr\u00e9er vos propres travailleurs de l'IA avec notre plateforme de gestion de la main-d'\u0153uvre de l'IA ? Parlons-en<\/a><\/p>\n\n\n<p>Nous construisons des solutions d'IA personnalis\u00e9es pour les entreprises financ\u00e9es par le capital-risque et le capital-investissement dans les secteurs suivants : Technologie m\u00e9dicale, agr\u00e9gation de nouvelles\/contenu, production de films et de photos, technologie \u00e9ducative, technologie juridique, Fintech &amp; Cryptocurrency.<\/p>","protected":false},"excerpt":{"rendered":"<p>Stat of the Week: Zero-shot CoT performance was only 5.55% for GPT-4-Turbo, 8.51% for Claude-3-Opus, and 4.44% for GPT-4. (&#8220;Chain of Thoughtlessness?&#8221; paper) Chain-of-Thought (CoT) prompting has been hailed as a breakthrough in unlocking the reasoning capabilities of large language models (LLMs). However, recent research has challenged these claims and prompted us to revisit the [&hellip;]<\/p>\n","protected":false},"author":1003,"featured_media":13098,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"single-custom-post-template.php","format":"standard","meta":{"_et_pb_use_builder":"","_et_pb_old_content":"","_et_gb_content_width":"","footnotes":""},"categories":[109,119],"tags":[],"class_list":["post-13060","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-newsletter","category-prompt-engineering"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v24.1 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>We need to rethink chain-of-thought (CoT) prompting AI&amp;YOU #68 - Skim AI<\/title>\n<meta name=\"description\" content=\"New research reveals that Chain-of-Thought (CoT) prompting may not be the AI breakthrough we hoped for. Learn why CoT&#039;s effectiveness is limited in complex reasoning tasks and how LLMs struggle with generalization. Discover how to rethink AI prompting techniques for better performance.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/skimai.com\/fr\/nous-devons-repenser-la-chaine-de-pensee-et-lincitation-a-laction-aiyou-68\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"We need to rethink chain-of-thought (CoT) prompting AI&amp;YOU #68 - Skim AI\" \/>\n<meta property=\"og:description\" content=\"New research reveals that Chain-of-Thought (CoT) prompting may not be the AI breakthrough we hoped for. Learn why CoT&#039;s effectiveness is limited in complex reasoning tasks and how LLMs struggle with generalization. Discover how to rethink AI prompting techniques for better performance.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/skimai.com\/fr\/nous-devons-repenser-la-chaine-de-pensee-et-lincitation-a-laction-aiyou-68\/\" \/>\n<meta property=\"og:site_name\" content=\"Skim AI\" \/>\n<meta property=\"article:published_time\" content=\"2024-09-20T04:44:34+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png\" \/>\n\t<meta property=\"og:image:width\" content=\"1092\" \/>\n\t<meta property=\"og:image:height\" content=\"612\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Greggory Elias\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"\u00c9crit par\" \/>\n\t<meta name=\"twitter:data1\" content=\"Greggory Elias\" \/>\n\t<meta name=\"twitter:label2\" content=\"Dur\u00e9e de lecture estim\u00e9e\" \/>\n\t<meta name=\"twitter:data2\" content=\"8 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/\"},\"author\":{\"name\":\"Greggory Elias\",\"@id\":\"https:\/\/skimai.com\/uk\/#\/schema\/person\/7a883b4a2d2ea22040f42a7975eb86c6\"},\"headline\":\"We need to rethink chain-of-thought (CoT) prompting AI&#038;YOU #68\",\"datePublished\":\"2024-09-20T04:44:34+00:00\",\"dateModified\":\"2024-09-20T04:44:34+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/\"},\"wordCount\":1446,\"publisher\":{\"@id\":\"https:\/\/skimai.com\/uk\/#organization\"},\"image\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png\",\"articleSection\":[\"Newsletter\",\"Prompt Engineering\"],\"inLanguage\":\"fr-FR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/\",\"url\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/\",\"name\":\"We need to rethink chain-of-thought (CoT) prompting AI&YOU #68 - Skim AI\",\"isPartOf\":{\"@id\":\"https:\/\/skimai.com\/uk\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png\",\"datePublished\":\"2024-09-20T04:44:34+00:00\",\"dateModified\":\"2024-09-20T04:44:34+00:00\",\"description\":\"New research reveals that Chain-of-Thought (CoT) prompting may not be the AI breakthrough we hoped for. Learn why CoT's effectiveness is limited in complex reasoning tasks and how LLMs struggle with generalization. Discover how to rethink AI prompting techniques for better performance.\",\"breadcrumb\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage\",\"url\":\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png\",\"contentUrl\":\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png\",\"width\":1092,\"height\":612,\"caption\":\"AI&YOU#68\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/skimai.com\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"We need to rethink chain-of-thought (CoT) prompting AI&#038;YOU #68\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/skimai.com\/uk\/#website\",\"url\":\"https:\/\/skimai.com\/uk\/\",\"name\":\"Skim AI\",\"description\":\"The AI Agent Workforce Platform\",\"publisher\":{\"@id\":\"https:\/\/skimai.com\/uk\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/skimai.com\/uk\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/skimai.com\/uk\/#organization\",\"name\":\"Skim AI\",\"url\":\"https:\/\/skimai.com\/uk\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/skimai.com\/uk\/#\/schema\/logo\/image\/\",\"url\":\"http:\/\/skimai.com\/wp-content\/uploads\/2020\/07\/SKIM-AI-Header-Logo.png\",\"contentUrl\":\"http:\/\/skimai.com\/wp-content\/uploads\/2020\/07\/SKIM-AI-Header-Logo.png\",\"width\":194,\"height\":58,\"caption\":\"Skim AI\"},\"image\":{\"@id\":\"https:\/\/skimai.com\/uk\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/www.linkedin.com\/company\/skim-ai\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/skimai.com\/uk\/#\/schema\/person\/7a883b4a2d2ea22040f42a7975eb86c6\",\"name\":\"Greggory Elias\",\"url\":\"https:\/\/skimai.com\/fr\/author\/gregg\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Nous devons repenser la cha\u00eene de pens\u00e9e (CoT) AI&amp;YOU #68 - Skim AI","description":"De nouvelles recherches r\u00e9v\u00e8lent que la cha\u00eene de pens\u00e9e (CoT) n'est peut-\u00eatre pas la perc\u00e9e en mati\u00e8re d'IA que nous esp\u00e9rions. Apprenez pourquoi l'efficacit\u00e9 de la cha\u00eene de pens\u00e9e est limit\u00e9e dans les t\u00e2ches de raisonnement complexes et comment les LLM se d\u00e9battent avec la g\u00e9n\u00e9ralisation. D\u00e9couvrez comment repenser les techniques d'incitation de l'IA pour am\u00e9liorer les performances.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/skimai.com\/fr\/nous-devons-repenser-la-chaine-de-pensee-et-lincitation-a-laction-aiyou-68\/","og_locale":"fr_FR","og_type":"article","og_title":"We need to rethink chain-of-thought (CoT) prompting AI&YOU #68 - Skim AI","og_description":"New research reveals that Chain-of-Thought (CoT) prompting may not be the AI breakthrough we hoped for. Learn why CoT's effectiveness is limited in complex reasoning tasks and how LLMs struggle with generalization. Discover how to rethink AI prompting techniques for better performance.","og_url":"https:\/\/skimai.com\/fr\/nous-devons-repenser-la-chaine-de-pensee-et-lincitation-a-laction-aiyou-68\/","og_site_name":"Skim AI","article_published_time":"2024-09-20T04:44:34+00:00","og_image":[{"width":1092,"height":612,"url":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png","type":"image\/png"}],"author":"Greggory Elias","twitter_card":"summary_large_image","twitter_misc":{"\u00c9crit par":"Greggory Elias","Dur\u00e9e de lecture estim\u00e9e":"8 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#article","isPartOf":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/"},"author":{"name":"Greggory Elias","@id":"https:\/\/skimai.com\/uk\/#\/schema\/person\/7a883b4a2d2ea22040f42a7975eb86c6"},"headline":"We need to rethink chain-of-thought (CoT) prompting AI&#038;YOU #68","datePublished":"2024-09-20T04:44:34+00:00","dateModified":"2024-09-20T04:44:34+00:00","mainEntityOfPage":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/"},"wordCount":1446,"publisher":{"@id":"https:\/\/skimai.com\/uk\/#organization"},"image":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage"},"thumbnailUrl":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png","articleSection":["Newsletter","Prompt Engineering"],"inLanguage":"fr-FR"},{"@type":"WebPage","@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/","url":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/","name":"Nous devons repenser la cha\u00eene de pens\u00e9e (CoT) AI&amp;YOU #68 - Skim AI","isPartOf":{"@id":"https:\/\/skimai.com\/uk\/#website"},"primaryImageOfPage":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage"},"image":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage"},"thumbnailUrl":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png","datePublished":"2024-09-20T04:44:34+00:00","dateModified":"2024-09-20T04:44:34+00:00","description":"De nouvelles recherches r\u00e9v\u00e8lent que la cha\u00eene de pens\u00e9e (CoT) n'est peut-\u00eatre pas la perc\u00e9e en mati\u00e8re d'IA que nous esp\u00e9rions. Apprenez pourquoi l'efficacit\u00e9 de la cha\u00eene de pens\u00e9e est limit\u00e9e dans les t\u00e2ches de raisonnement complexes et comment les LLM se d\u00e9battent avec la g\u00e9n\u00e9ralisation. D\u00e9couvrez comment repenser les techniques d'incitation de l'IA pour am\u00e9liorer les performances.","breadcrumb":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/"]}]},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage","url":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png","contentUrl":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png","width":1092,"height":612,"caption":"AI&YOU#68"},{"@type":"BreadcrumbList","@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/skimai.com\/"},{"@type":"ListItem","position":2,"name":"We need to rethink chain-of-thought (CoT) prompting AI&#038;YOU #68"}]},{"@type":"WebSite","@id":"https:\/\/skimai.com\/uk\/#website","url":"https:\/\/skimai.com\/uk\/","name":"Skim AI","description":"La plateforme de travail des agents de l'IA","publisher":{"@id":"https:\/\/skimai.com\/uk\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/skimai.com\/uk\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR"},{"@type":"Organization","@id":"https:\/\/skimai.com\/uk\/#organization","name":"Skim AI","url":"https:\/\/skimai.com\/uk\/","logo":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/skimai.com\/uk\/#\/schema\/logo\/image\/","url":"http:\/\/skimai.com\/wp-content\/uploads\/2020\/07\/SKIM-AI-Header-Logo.png","contentUrl":"http:\/\/skimai.com\/wp-content\/uploads\/2020\/07\/SKIM-AI-Header-Logo.png","width":194,"height":58,"caption":"Skim AI"},"image":{"@id":"https:\/\/skimai.com\/uk\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.linkedin.com\/company\/skim-ai"]},{"@type":"Person","@id":"https:\/\/skimai.com\/uk\/#\/schema\/person\/7a883b4a2d2ea22040f42a7975eb86c6","name":"Greggory Elias","url":"https:\/\/skimai.com\/fr\/author\/gregg\/"}]}},"_links":{"self":[{"href":"https:\/\/skimai.com\/fr\/wp-json\/wp\/v2\/posts\/13060","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/skimai.com\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/skimai.com\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/skimai.com\/fr\/wp-json\/wp\/v2\/users\/1003"}],"replies":[{"embeddable":true,"href":"https:\/\/skimai.com\/fr\/wp-json\/wp\/v2\/comments?post=13060"}],"version-history":[{"count":0,"href":"https:\/\/skimai.com\/fr\/wp-json\/wp\/v2\/posts\/13060\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/skimai.com\/fr\/wp-json\/wp\/v2\/media\/13098"}],"wp:attachment":[{"href":"https:\/\/skimai.com\/fr\/wp-json\/wp\/v2\/media?parent=13060"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/skimai.com\/fr\/wp-json\/wp\/v2\/categories?post=13060"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/skimai.com\/fr\/wp-json\/wp\/v2\/tags?post=13060"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}