{"id":13060,"date":"2024-09-19T23:44:34","date_gmt":"2024-09-20T04:44:34","guid":{"rendered":"http:\/\/skimai.com\/?p=13060"},"modified":"2024-09-19T23:44:34","modified_gmt":"2024-09-20T04:44:34","slug":"dobbiamo-ripensare-la-catena-di-pensiero-che-spinge-il-lettino-ad-andare-in-giro-per-il-mondo-68","status":"publish","type":"post","link":"https:\/\/skimai.com\/it\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/","title":{"rendered":"Dobbiamo ripensare la catena del pensiero (CoT) che spinge l'AI&amp;YOU #68"},"content":{"rendered":"<p><strong>Statistica della settimana:<\/strong> Le prestazioni di CoT a colpo zero sono state solo 5,55% per GPT-4-Turbo, 8,51% per Claude-3-Opus e 4,44% per GPT-4. (documento \"Catena di sconsideratezza?\")<\/p>\n\n\n<p>Il prompt Chain-of-Thought (CoT) \u00e8 stato salutato come una svolta per sbloccare le capacit\u00e0 di ragionamento dei modelli linguistici di grandi dimensioni (LLM). Tuttavia, recenti ricerche hanno messo in discussione queste affermazioni e ci hanno spinto a rivedere la tecnica.<\/p>\n\n\n<p><strong>Nell'edizione di questa settimana di AI&amp;YOU, esploriamo le intuizioni di tre blog che abbiamo pubblicato sull'argomento:<\/strong><\/p>\n\n\n<ul class=\"wp-block-list\">\n<li><p><a rel=\"noopener noreferrer\" href=\"http:\/\/skimai.com\/it\/cose-la-catena-di-pensiero-del-lettino\/\">Che cos'\u00e8 il Prompting a catena del pensiero (CoT)?<\/a><\/p><\/li><li><p><a rel=\"noopener noreferrer\" href=\"http:\/\/skimai.com\/it\/ai-research-paper-riassunto-catena-di-pensiero-lessness-prompting\/\">Analisi del documento di ricerca sull'IA: \"Catena di sconsideratezza?\"<\/a><\/p><\/li><li><p><a rel=\"noopener noreferrer\" href=\"http:\/\/skimai.com\/it\/le-10-migliori-tecniche-di-prompting-llm-per-massimizzare-le-prestazioni-ai\/\">10 migliori tecniche di sollecitazione per i LLM<\/a><\/p><\/li>\n<\/ul>\n\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_1 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Indice dei contenuti<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Allinea la tabella dei contenuti\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewbox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewbox=\"0 0 24 24\" version=\"1.2\" baseprofile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1' ><ul class='ez-toc-list-level-2' ><li class='ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/skimai.com\/it\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#We_need_to_rethink_chain-of-thought_CoT_prompting_AI_YOU_68\" >Dobbiamo ripensare la catena del pensiero (CoT) che spinge l'AI&amp;YOU #68<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/skimai.com\/it\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#How_CoT_Works\" >Come funziona la CoT<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/skimai.com\/it\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#Types_of_CoT_Prompting\" >Tipi di sollecitazione della CoT<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-1'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/skimai.com\/it\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#AI_Research_Paper_Breakdown_%E2%80%9CChain_of_Thoughtlessness%E2%80%9D\" >Analisi del documento di ricerca sull'IA: \"Catena di sconsideratezza?\"<\/a><ul class='ez-toc-list-level-2' ><li class='ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/skimai.com\/it\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#Key_Findings_Unveiled\" >Svelati i risultati principali<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-6\" href=\"https:\/\/skimai.com\/it\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#Implications_for_AI_Development\" >Implicazioni per lo sviluppo dell'IA<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-7\" href=\"https:\/\/skimai.com\/it\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#Recommendations_for_AI_Practitioners\" >Raccomandazioni per gli operatori dell'IA:<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-1'><a class=\"ez-toc-link ez-toc-heading-8\" href=\"https:\/\/skimai.com\/it\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#10_Best_Prompting_Techniques_for_LLMs\" >10 migliori tecniche di sollecitazione per i LLM<\/a><ul class='ez-toc-list-level-2' ><li class='ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-9\" href=\"https:\/\/skimai.com\/it\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#Thank_you_for_taking_the_time_to_read_AI_YOU\" >Grazie per aver dedicato del tempo alla lettura di AI &amp; YOU!<\/a><\/li><\/ul><\/li><\/ul><\/nav><\/div>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"We_need_to_rethink_chain-of-thought_CoT_prompting_AI_YOU_68\"><\/span><strong>Dobbiamo ripensare la catena del pensiero (CoT) che spinge l'AI&amp;YOU #68<\/strong><span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>I LLM dimostrano notevoli capacit\u00e0 di elaborazione e generazione del linguaggio naturale (NLP). Tuttavia, di fronte a compiti di ragionamento complessi, questi modelli possono faticare a produrre risultati accurati e affidabili. \u00c8 qui che entra in gioco il Chain-of-Thought (CoT) prompting, una tecnica che mira a migliorare le capacit\u00e0 di problem solving dei LLM.<\/p>\n\n\n<p>Un'avanzata <a rel=\"noopener noreferrer\" href=\"http:\/\/skimai.com\/it\/che-cose-lingegneria-rapida\/\">ingegneria tempestiva<\/a> \u00e8 stata progettata per guidare i LLM attraverso un processo di ragionamento graduale. A differenza dei metodi di prompting standard che mirano a ottenere risposte dirette, il prompting CoT incoraggia il modello a generare fasi di ragionamento intermedie prima di arrivare a una risposta finale.<\/p>\n\n\n<p>Il nucleo della CoT consiste nello strutturare le richieste di input in modo da suscitare una sequenza logica di pensieri da parte del modello. Scomponendo i problemi complessi in fasi pi\u00f9 piccole e gestibili, la CoT tenta di consentire ai LLM di navigare attraverso percorsi di ragionamento intricati in modo pi\u00f9 efficace.<\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/b09a9a44-caab-4b70-ab0b-37bcbf039925.png\" \/>\n<\/figure>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"How_CoT_Works\"><\/span>Come funziona la CoT<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>Nella sua essenza, la richiesta di CoT guida i modelli linguistici attraverso una serie di fasi intermedie di ragionamento prima di arrivare a una risposta finale. Questo processo prevede in genere:<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>Decomposizione del problema:<\/strong> Il compito complesso viene suddiviso in fasi pi\u00f9 piccole e gestibili.<\/p><\/li><li><p><strong>Ragionamento passo-passo:<\/strong> Il modello viene invitato a riflettere esplicitamente su ogni fase.<\/p><\/li><li><p><strong>Progressione logica:<\/strong> Ogni passo si basa sul precedente, creando una catena di pensieri.<\/p><\/li><li><p><strong>Disegno di conclusione:<\/strong> La risposta finale deriva dalle fasi di ragionamento accumulate.<\/p><\/li>\n<\/ol>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Types_of_CoT_Prompting\"><\/span>Tipi di sollecitazione della CoT<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>La sollecitazione della catena di pensiero pu\u00f2 essere attuata in vari modi, tra cui spiccano due tipi principali:<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>CoT a colpo zero:<\/strong> La CoT a colpo zero non richiede esempi specifici per il compito. Al contrario, utilizza un semplice prompt come \"Affrontiamo la questione passo dopo passo\" per incoraggiare il modello a scomporre il suo processo di ragionamento.****<\/p><\/li><li><p><strong>CoT a pochi colpi:<\/strong> La CoT a pochi colpi consiste nel fornire al modello un piccolo numero di esempi che dimostrano il processo di ragionamento desiderato. Questi esempi servono come modello da seguire per il modello quando affronta problemi nuovi e sconosciuti.<\/p><\/li>\n<\/ol>\n\n\n<p><strong><u>CoT a colpo zero<\/u><\/strong><\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/275993ad-9125-47d7-86b8-db87250913d6.png\" \/>\n<\/figure>\n\n\n<p><strong><u>CoT a pochi colpi<\/u><\/strong><\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/773c3c88-21c2-41b6-be04-4c8a80329933.png\" \/>\n<\/figure>\n\n\n<h1 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"AI_Research_Paper_Breakdown_%E2%80%9CChain_of_Thoughtlessness%E2%80%9D\"><\/span>Analisi del documento di ricerca sull'IA: \"Catena di sconsideratezza?\"<span class=\"ez-toc-section-end\"><\/span><\/h1>\n\n\n<p>Ora che sapete che cos'\u00e8 il prompting della CoT, possiamo immergerci in alcune ricerche recenti che mettono in discussione alcuni dei suoi benefici e offrono alcune indicazioni su quando \u00e8 effettivamente utile.<\/p>\n\n\n<p>Il documento di ricerca, intitolato \"<a rel=\"noopener noreferrer\" href=\"https:\/\/arxiv.org\/pdf\/2405.04776\">Catena di sconsideratezza? Un'analisi della CoT nella pianificazione,<\/a>\" fornisce un esame critico dell'efficacia e della generalizzabilit\u00e0 del prompt della CoT. Come professionisti dell'IA, \u00e8 fondamentale comprendere questi risultati e le loro implicazioni per lo sviluppo di applicazioni di IA che richiedono sofisticate capacit\u00e0 di ragionamento.<\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/3ba0bde5-4dd5-4cad-b56e-d84fa715c2d1.png\" \/>\n<\/figure>\n\n\n<p>I ricercatori hanno scelto un dominio di pianificazione classico chiamato Blocksworld come terreno di prova principale. In Blocksworld, il compito \u00e8 quello di riorganizzare un insieme di blocchi da una configurazione iniziale a una configurazione finale, utilizzando una serie di azioni di spostamento. Questo dominio \u00e8 ideale per testare le capacit\u00e0 di ragionamento e di pianificazione perch\u00e9:<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p>Permette di generare problemi di complessit\u00e0 variabile.<\/p><\/li><li><p>Ha soluzioni chiare e verificabili dal punto di vista algoritmico.<\/p><\/li><li><p>\u00c8 improbabile che sia molto rappresentato nei dati di formazione di LLM.<\/p><\/li>\n<\/ol>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/96c5ef3f-d5b0-4d8a-af26-92be9c553340.png\" \/>\n<\/figure>\n\n\n<p>Lo studio ha esaminato tre LLM di ultima generazione: GPT-4, Claude-3-Opus e GPT-4-Turbo. Questi modelli sono stati testati utilizzando prompt di diversa specificit\u00e0:<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>Catena di pensieri a colpo zero (Universale):<\/strong> Semplicemente aggiungendo \"pensiamo passo dopo passo\" al prompt.<\/p><\/li><li><p><strong>Prova di progressione (specifica per la PDDL):<\/strong> Fornire una spiegazione generale della correttezza del piano con esempi.<\/p><\/li><li><p><strong>Algoritmo universale di Blocksworld:<\/strong> Dimostrare un algoritmo generale per risolvere qualsiasi problema di Blocksworld.<\/p><\/li><li><p><strong>Prompt di impilamento:<\/strong> Concentrarsi su una sottoclasse specifica di problemi di Blocksworld (table-to-stack).<\/p><\/li><li><p><strong>Accatastamento lessicografico:<\/strong> Ulteriore restringimento a una particolare forma sintattica dello stato obiettivo.<\/p><\/li>\n<\/ol>\n\n\n<p>Testando questi suggerimenti su problemi di complessit\u00e0 crescente, i ricercatori hanno voluto valutare quanto i LLM fossero in grado di generalizzare il ragionamento dimostrato negli esempi.<\/p>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Key_Findings_Unveiled\"><\/span>Svelati i risultati principali<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>I risultati di questo studio mettono in discussione molte delle ipotesi prevalenti sulla richiesta di CoT:<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>Efficacia limitata della CoT:<\/strong> Contrariamente a quanto affermato in precedenza, la richiesta di CoT ha mostrato miglioramenti significativi delle prestazioni solo quando gli esempi forniti erano estremamente simili al problema da interrogare. Non appena i problemi si discostano dall'esatto formato mostrato negli esempi, le prestazioni calano drasticamente.<\/p><\/li><li><p><strong>Rapido degrado delle prestazioni:<\/strong> Con l'aumentare della complessit\u00e0 dei problemi (misurata in base al numero di blocchi coinvolti), l'accuratezza di tutti i modelli \u00e8 diminuita drasticamente, indipendentemente dal prompt CoT utilizzato. Ci\u00f2 suggerisce che i LLM faticano a estendere il ragionamento dimostrato in esempi semplici a scenari pi\u00f9 complessi.<\/p><\/li><li><p><strong>Inefficacia dei suggerimenti generali:<\/strong> Sorprendentemente, i suggerimenti pi\u00f9 generali della CoT hanno spesso dato risultati peggiori rispetto a quelli standard senza esempi di ragionamento. Questo contraddice l'idea che la CoT aiuti i LLM ad apprendere strategie generalizzabili di risoluzione dei problemi.<\/p><\/li><li><p><strong>Trade-off di specificit\u00e0:<\/strong> Lo studio ha rilevato che i prompt altamente specifici possono raggiungere un'elevata accuratezza, ma solo su un sottoinsieme molto ristretto di problemi. Ci\u00f2 evidenzia un forte compromesso tra l'aumento delle prestazioni e l'applicabilit\u00e0 del prompt.<\/p><\/li><li><p><strong>Mancanza di un vero apprendimento algoritmico:<\/strong> I risultati suggeriscono fortemente che i LLM non stanno imparando ad applicare procedure algoritmiche generali dagli esempi di CoT. Sembrano invece affidarsi alla corrispondenza dei modelli, che si rompe rapidamente quando si trovano di fronte a problemi nuovi o pi\u00f9 complessi.<\/p><\/li>\n<\/ol>\n\n\n<p>Questi risultati hanno implicazioni significative per i professionisti dell'intelligenza artificiale e per le aziende che desiderano sfruttare i prompt della CoT nelle loro applicazioni. Suggeriscono che, sebbene la CoT possa aumentare le prestazioni in alcuni scenari ristretti, potrebbe non essere la panacea per i compiti di ragionamento complessi che molti avevano sperato.<\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/c76d6112-c7ee-420a-8aa5-67c5b89614b5.png\" \/>\n<\/figure>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Implications_for_AI_Development\"><\/span>Implicazioni per lo sviluppo dell'IA<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>I risultati di questo studio hanno implicazioni significative per lo sviluppo dell'IA, in particolare per le imprese che lavorano su applicazioni che richiedono capacit\u00e0 complesse di ragionamento o pianificazione:<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>Rivalutazione dell'efficacia della CTF:<\/strong> Gli sviluppatori di IA dovrebbero essere cauti nell'affidarsi alla CoT per compiti che richiedono un vero pensiero algoritmico o la generalizzazione a scenari nuovi.<\/p><\/li><li><p><strong>Limiti degli attuali LLM:<\/strong> Per le applicazioni che richiedono una solida pianificazione o la risoluzione di problemi in pi\u00f9 fasi possono essere necessari approcci alternativi.<\/p><\/li><li><p><strong>Il costo dell'ingegneria tempestiva:<\/strong> Sebbene i suggerimenti di CoT altamente specifici possano dare buoni risultati per insiemi di problemi ristretti, l'impegno umano richiesto per creare questi suggerimenti pu\u00f2 superare i benefici, soprattutto in considerazione della loro limitata generalizzabilit\u00e0.<\/p><\/li><li><p><strong>Ripensare le metriche di valutazione:<\/strong> Affidarsi esclusivamente a set di test statici pu\u00f2 portare a sovrastimare le reali capacit\u00e0 di ragionamento di un modello.<\/p><\/li><li><p><strong>Il divario tra percezione e realt\u00e0:<\/strong> C'\u00e8 una discrepanza significativa tra le capacit\u00e0 di ragionamento percepite dei LLM (spesso antropomorfizzate nel discorso popolare) e le loro reali capacit\u00e0, come dimostrato in questo studio.<\/p><\/li>\n<\/ol>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Recommendations_for_AI_Practitioners\"><\/span>Raccomandazioni per gli operatori dell'IA:<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<ul class=\"wp-block-list\">\n<li><p><strong>Valutazione:<\/strong> Implementare diversi framework di test per valutare l'effettiva generalizzazione attraverso la complessit\u00e0 dei problemi.<\/p><\/li><li><p><strong>Utilizzo del CoT:<\/strong> Applicare la sollecitazione a catena di pensieri con giudizio, riconoscendo i suoi limiti nella generalizzazione.<\/p><\/li><li><p><strong>Soluzioni ibride<\/strong>: Considerare la possibilit\u00e0 di combinare gli LLM con algoritmi tradizionali per compiti di ragionamento complessi.<\/p><\/li><li><p><strong>Trasparenza:<\/strong> Comunicare chiaramente i limiti del sistema di IA, soprattutto per i compiti di ragionamento o di pianificazione.<\/p><\/li><li><p><strong>Focus R&amp;S:<\/strong> Investire nella ricerca per migliorare le reali capacit\u00e0 di ragionamento dei sistemi di IA.<\/p><\/li><li><p><strong>Messa a punto:<\/strong> Considerare la messa a punto specifica del dominio, ma essere consapevoli dei potenziali limiti di generalizzazione.<\/p><\/li>\n<\/ul>\n\n\n<p>Per gli operatori dell'IA e le imprese, questi risultati evidenziano l'importanza di combinare i punti di forza dell'LLM con approcci di ragionamento specializzati, di investire in soluzioni specifiche per il dominio, ove necessario, e di mantenere la trasparenza sui limiti dei sistemi di IA. La comunit\u00e0 dell'IA deve concentrarsi sullo sviluppo di nuove architetture e metodi di addestramento in grado di colmare il divario tra la corrispondenza dei modelli e il vero ragionamento algoritmico.<\/p>\n\n\n<h1 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"10_Best_Prompting_Techniques_for_LLMs\"><\/span>10 migliori tecniche di sollecitazione per i LLM<span class=\"ez-toc-section-end\"><\/span><\/h1>\n\n\n<p>Questa settimana esploriamo anche dieci delle tecniche di prompting pi\u00f9 potenti e comuni, offrendo approfondimenti sulle loro applicazioni e sulle migliori pratiche.<\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/8fe201b3-003e-4190-a06f-e5553d6b1126.png\" \/>\n<\/figure>\n\n\n<p>I suggerimenti ben progettati possono migliorare significativamente le prestazioni di un LLM, consentendo di ottenere risultati pi\u00f9 accurati, pertinenti e creativi. Che siate sviluppatori di IA esperti o alle prime armi con gli LLM, queste tecniche vi aiuteranno a sbloccare il pieno potenziale dei modelli di IA.<\/p>\n\n\n<p>Per saperne di pi\u00f9 su ciascuno di essi, visitate il blog completo.<\/p>\n\n\n<hr class=\"wp-block-separator\" \/>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Thank_you_for_taking_the_time_to_read_AI_YOU\"><\/span><strong>Grazie per aver dedicato del tempo alla lettura di AI &amp; YOU!<\/strong><span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p><strong>Per ulteriori contenuti sull'IA aziendale, tra cui infografiche, statistiche, guide, articoli e video, seguite Skim AI su <\/strong><a rel=\"noopener noreferrer\" href=\"https:\/\/linkedin.com\/company\/skim-ai\"><strong>LinkedIn<\/strong><\/a><\/p>\n\n\n<p>Siete un fondatore, un CEO, un Venture Capitalist o un investitore alla ricerca di servizi di consulenza sull'IA, di sviluppo frazionario dell'IA o di due diligence? Ottenete la guida necessaria per prendere decisioni informate sulla strategia di prodotto AI della vostra azienda e sulle opportunit\u00e0 di investimento.<\/p>\n\n\n<p><a rel=\"noopener noreferrer\" href=\"https:\/\/meetings.hubspot.com\/gregg15\/15-min-about-enterprise-ai?utm_source=hs_email&utm_medium=email\">Avete bisogno di aiuto per lanciare la vostra soluzione AI aziendale? Volete creare i vostri lavoratori AI con la nostra piattaforma di gestione della forza lavoro AI? Parliamone<\/a><\/p>\n\n\n<p>Realizziamo soluzioni AI personalizzate per aziende sostenute da Venture Capital e Private Equity nei seguenti settori: Tecnologia medica, aggregazione di notizie e contenuti, produzione di film e foto, tecnologia educativa, tecnologia legale, Fintech e criptovalute.<\/p>","protected":false},"excerpt":{"rendered":"<p>Stat of the Week: Zero-shot CoT performance was only 5.55% for GPT-4-Turbo, 8.51% for Claude-3-Opus, and 4.44% for GPT-4. (&#8220;Chain of Thoughtlessness?&#8221; paper) Chain-of-Thought (CoT) prompting has been hailed as a breakthrough in unlocking the reasoning capabilities of large language models (LLMs). However, recent research has challenged these claims and prompted us to revisit the [&hellip;]<\/p>\n","protected":false},"author":1003,"featured_media":13098,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"single-custom-post-template.php","format":"standard","meta":{"_et_pb_use_builder":"","_et_pb_old_content":"","_et_gb_content_width":"","footnotes":""},"categories":[109,119],"tags":[],"class_list":["post-13060","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-newsletter","category-prompt-engineering"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v24.1 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>We need to rethink chain-of-thought (CoT) prompting AI&amp;YOU #68 - Skim AI<\/title>\n<meta name=\"description\" content=\"New research reveals that Chain-of-Thought (CoT) prompting may not be the AI breakthrough we hoped for. Learn why CoT&#039;s effectiveness is limited in complex reasoning tasks and how LLMs struggle with generalization. Discover how to rethink AI prompting techniques for better performance.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/skimai.com\/it\/dobbiamo-ripensare-la-catena-di-pensiero-che-spinge-il-lettino-ad-andare-in-giro-per-il-mondo-68\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"We need to rethink chain-of-thought (CoT) prompting AI&amp;YOU #68 - Skim AI\" \/>\n<meta property=\"og:description\" content=\"New research reveals that Chain-of-Thought (CoT) prompting may not be the AI breakthrough we hoped for. Learn why CoT&#039;s effectiveness is limited in complex reasoning tasks and how LLMs struggle with generalization. Discover how to rethink AI prompting techniques for better performance.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/skimai.com\/it\/dobbiamo-ripensare-la-catena-di-pensiero-che-spinge-il-lettino-ad-andare-in-giro-per-il-mondo-68\/\" \/>\n<meta property=\"og:site_name\" content=\"Skim AI\" \/>\n<meta property=\"article:published_time\" content=\"2024-09-20T04:44:34+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png\" \/>\n\t<meta property=\"og:image:width\" content=\"1092\" \/>\n\t<meta property=\"og:image:height\" content=\"612\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Greggory Elias\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Scritto da\" \/>\n\t<meta name=\"twitter:data1\" content=\"Greggory Elias\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tempo di lettura stimato\" \/>\n\t<meta name=\"twitter:data2\" content=\"8 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/\"},\"author\":{\"name\":\"Greggory Elias\",\"@id\":\"https:\/\/skimai.com\/uk\/#\/schema\/person\/7a883b4a2d2ea22040f42a7975eb86c6\"},\"headline\":\"We need to rethink chain-of-thought (CoT) prompting AI&#038;YOU #68\",\"datePublished\":\"2024-09-20T04:44:34+00:00\",\"dateModified\":\"2024-09-20T04:44:34+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/\"},\"wordCount\":1446,\"publisher\":{\"@id\":\"https:\/\/skimai.com\/uk\/#organization\"},\"image\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png\",\"articleSection\":[\"Newsletter\",\"Prompt Engineering\"],\"inLanguage\":\"it-IT\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/\",\"url\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/\",\"name\":\"We need to rethink chain-of-thought (CoT) prompting AI&YOU #68 - Skim AI\",\"isPartOf\":{\"@id\":\"https:\/\/skimai.com\/uk\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png\",\"datePublished\":\"2024-09-20T04:44:34+00:00\",\"dateModified\":\"2024-09-20T04:44:34+00:00\",\"description\":\"New research reveals that Chain-of-Thought (CoT) prompting may not be the AI breakthrough we hoped for. Learn why CoT's effectiveness is limited in complex reasoning tasks and how LLMs struggle with generalization. Discover how to rethink AI prompting techniques for better performance.\",\"breadcrumb\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage\",\"url\":\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png\",\"contentUrl\":\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png\",\"width\":1092,\"height\":612,\"caption\":\"AI&YOU#68\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/skimai.com\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"We need to rethink chain-of-thought (CoT) prompting AI&#038;YOU #68\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/skimai.com\/uk\/#website\",\"url\":\"https:\/\/skimai.com\/uk\/\",\"name\":\"Skim AI\",\"description\":\"The AI Agent Workforce Platform\",\"publisher\":{\"@id\":\"https:\/\/skimai.com\/uk\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/skimai.com\/uk\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/skimai.com\/uk\/#organization\",\"name\":\"Skim AI\",\"url\":\"https:\/\/skimai.com\/uk\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/skimai.com\/uk\/#\/schema\/logo\/image\/\",\"url\":\"http:\/\/skimai.com\/wp-content\/uploads\/2020\/07\/SKIM-AI-Header-Logo.png\",\"contentUrl\":\"http:\/\/skimai.com\/wp-content\/uploads\/2020\/07\/SKIM-AI-Header-Logo.png\",\"width\":194,\"height\":58,\"caption\":\"Skim AI\"},\"image\":{\"@id\":\"https:\/\/skimai.com\/uk\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/www.linkedin.com\/company\/skim-ai\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/skimai.com\/uk\/#\/schema\/person\/7a883b4a2d2ea22040f42a7975eb86c6\",\"name\":\"Greggory Elias\",\"url\":\"https:\/\/skimai.com\/it\/author\/gregg\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Dobbiamo ripensare la catena del pensiero (CoT) per sollecitare l'AI&amp;YOU #68 - Skim AI","description":"Una nuova ricerca rivela che il prompt a catena del pensiero (CoT) potrebbe non essere la svolta dell'intelligenza artificiale che speravamo. Scoprite perch\u00e9 l'efficacia della CoT \u00e8 limitata nelle attivit\u00e0 di ragionamento complesse e come i LLM lottano con la generalizzazione. Scoprite come ripensare le tecniche di prompting dell'IA per ottenere prestazioni migliori.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/skimai.com\/it\/dobbiamo-ripensare-la-catena-di-pensiero-che-spinge-il-lettino-ad-andare-in-giro-per-il-mondo-68\/","og_locale":"it_IT","og_type":"article","og_title":"We need to rethink chain-of-thought (CoT) prompting AI&YOU #68 - Skim AI","og_description":"New research reveals that Chain-of-Thought (CoT) prompting may not be the AI breakthrough we hoped for. Learn why CoT's effectiveness is limited in complex reasoning tasks and how LLMs struggle with generalization. Discover how to rethink AI prompting techniques for better performance.","og_url":"https:\/\/skimai.com\/it\/dobbiamo-ripensare-la-catena-di-pensiero-che-spinge-il-lettino-ad-andare-in-giro-per-il-mondo-68\/","og_site_name":"Skim AI","article_published_time":"2024-09-20T04:44:34+00:00","og_image":[{"width":1092,"height":612,"url":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png","type":"image\/png"}],"author":"Greggory Elias","twitter_card":"summary_large_image","twitter_misc":{"Scritto da":"Greggory Elias","Tempo di lettura stimato":"8 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#article","isPartOf":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/"},"author":{"name":"Greggory Elias","@id":"https:\/\/skimai.com\/uk\/#\/schema\/person\/7a883b4a2d2ea22040f42a7975eb86c6"},"headline":"We need to rethink chain-of-thought (CoT) prompting AI&#038;YOU #68","datePublished":"2024-09-20T04:44:34+00:00","dateModified":"2024-09-20T04:44:34+00:00","mainEntityOfPage":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/"},"wordCount":1446,"publisher":{"@id":"https:\/\/skimai.com\/uk\/#organization"},"image":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage"},"thumbnailUrl":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png","articleSection":["Newsletter","Prompt Engineering"],"inLanguage":"it-IT"},{"@type":"WebPage","@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/","url":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/","name":"Dobbiamo ripensare la catena del pensiero (CoT) per sollecitare l'AI&amp;YOU #68 - Skim AI","isPartOf":{"@id":"https:\/\/skimai.com\/uk\/#website"},"primaryImageOfPage":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage"},"image":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage"},"thumbnailUrl":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png","datePublished":"2024-09-20T04:44:34+00:00","dateModified":"2024-09-20T04:44:34+00:00","description":"Una nuova ricerca rivela che il prompt a catena del pensiero (CoT) potrebbe non essere la svolta dell'intelligenza artificiale che speravamo. Scoprite perch\u00e9 l'efficacia della CoT \u00e8 limitata nelle attivit\u00e0 di ragionamento complesse e come i LLM lottano con la generalizzazione. Scoprite come ripensare le tecniche di prompting dell'IA per ottenere prestazioni migliori.","breadcrumb":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/"]}]},{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage","url":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png","contentUrl":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png","width":1092,"height":612,"caption":"AI&YOU#68"},{"@type":"BreadcrumbList","@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/skimai.com\/"},{"@type":"ListItem","position":2,"name":"We need to rethink chain-of-thought (CoT) prompting AI&#038;YOU #68"}]},{"@type":"WebSite","@id":"https:\/\/skimai.com\/uk\/#website","url":"https:\/\/skimai.com\/uk\/","name":"Skim AI","description":"La piattaforma per la forza lavoro degli agenti AI","publisher":{"@id":"https:\/\/skimai.com\/uk\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/skimai.com\/uk\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"it-IT"},{"@type":"Organization","@id":"https:\/\/skimai.com\/uk\/#organization","name":"Skim AI","url":"https:\/\/skimai.com\/uk\/","logo":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/skimai.com\/uk\/#\/schema\/logo\/image\/","url":"http:\/\/skimai.com\/wp-content\/uploads\/2020\/07\/SKIM-AI-Header-Logo.png","contentUrl":"http:\/\/skimai.com\/wp-content\/uploads\/2020\/07\/SKIM-AI-Header-Logo.png","width":194,"height":58,"caption":"Skim AI"},"image":{"@id":"https:\/\/skimai.com\/uk\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.linkedin.com\/company\/skim-ai"]},{"@type":"Person","@id":"https:\/\/skimai.com\/uk\/#\/schema\/person\/7a883b4a2d2ea22040f42a7975eb86c6","name":"Greggory Elias","url":"https:\/\/skimai.com\/it\/author\/gregg\/"}]}},"_links":{"self":[{"href":"https:\/\/skimai.com\/it\/wp-json\/wp\/v2\/posts\/13060","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/skimai.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/skimai.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/skimai.com\/it\/wp-json\/wp\/v2\/users\/1003"}],"replies":[{"embeddable":true,"href":"https:\/\/skimai.com\/it\/wp-json\/wp\/v2\/comments?post=13060"}],"version-history":[{"count":0,"href":"https:\/\/skimai.com\/it\/wp-json\/wp\/v2\/posts\/13060\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/skimai.com\/it\/wp-json\/wp\/v2\/media\/13098"}],"wp:attachment":[{"href":"https:\/\/skimai.com\/it\/wp-json\/wp\/v2\/media?parent=13060"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/skimai.com\/it\/wp-json\/wp\/v2\/categories?post=13060"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/skimai.com\/it\/wp-json\/wp\/v2\/tags?post=13060"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}