{"id":13060,"date":"2024-09-19T23:44:34","date_gmt":"2024-09-20T04:44:34","guid":{"rendered":"http:\/\/skimai.com\/?p=13060"},"modified":"2024-09-19T23:44:34","modified_gmt":"2024-09-20T04:44:34","slug":"wir-mussen-die-gedankenkette-uberdenken-die-zu-aiyou-68-fuhrt","status":"publish","type":"post","link":"https:\/\/skimai.com\/de\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/","title":{"rendered":"Wir m\u00fcssen die Gedankenkette (CoT) \u00fcberdenken, die AI&amp;YOU #68 ausl\u00f6st"},"content":{"rendered":"<p><strong>Statistik der Woche:<\/strong> Die Nullschuss-CoT-Leistung betrug nur 5,55% f\u00fcr GPT-4-Turbo, 8,51% f\u00fcr Claude-3-Opus und 4,44% f\u00fcr GPT-4. (\"Chain of Thoughtlessness?\" Papier)<\/p>\n\n\n<p>Chain-of-Thought (CoT) Prompting wurde als Durchbruch bei der Erschlie\u00dfung der logischen F\u00e4higkeiten von gro\u00dfen Sprachmodellen (LLMs) gepriesen. J\u00fcngste Forschungsergebnisse haben diese Behauptungen jedoch in Frage gestellt und uns dazu veranlasst, die Technik zu \u00fcberdenken.<\/p>\n\n\n<p><strong>In der diesj\u00e4hrigen Ausgabe von AI&amp;YOU befassen wir uns mit den Erkenntnissen aus drei Blogs, die wir zu diesem Thema ver\u00f6ffentlicht haben:<\/strong><\/p>\n\n\n<ul class=\"wp-block-list\">\n<li><p><a rel=\"noopener noreferrer\" href=\"http:\/\/skimai.com\/de\/was-ist-die-gedankenkette-der-kinderbettaufforderung\/\">Was ist Chain of Thought (CoT) Prompting?<\/a><\/p><\/li><li><p><a rel=\"noopener noreferrer\" href=\"http:\/\/skimai.com\/de\/ai-forschungspapier-zusammenfassung-gedankenkette-lessness-anregung\/\">AI Research Paper Breakdown: \"Kette der Gedankenlosigkeit?\"<\/a><\/p><\/li><li><p><a rel=\"noopener noreferrer\" href=\"http:\/\/skimai.com\/de\/die-10-besten-llm-aufforderungstechniken-zur-maximierung-der-ki-leistung\/\">Die 10 besten Prompting-Techniken f\u00fcr LLMs<\/a><\/p><\/li>\n<\/ul>\n\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_1 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Inhalts\u00fcbersicht<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Inhaltsverzeichnis umschalten\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Umschalten auf<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewbox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewbox=\"0 0 24 24\" version=\"1.2\" baseprofile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1' ><ul class='ez-toc-list-level-2' ><li class='ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/skimai.com\/de\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#We_need_to_rethink_chain-of-thought_CoT_prompting_AI_YOU_68\" >Wir m\u00fcssen die Gedankenkette (CoT) \u00fcberdenken, die AI&amp;YOU #68 ausl\u00f6st<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/skimai.com\/de\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#How_CoT_Works\" >Wie CoT funktioniert<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/skimai.com\/de\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#Types_of_CoT_Prompting\" >Arten von CoT Prompting<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-1'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/skimai.com\/de\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#AI_Research_Paper_Breakdown_%E2%80%9CChain_of_Thoughtlessness%E2%80%9D\" >AI Research Paper Breakdown: \"Kette der Gedankenlosigkeit?\"<\/a><ul class='ez-toc-list-level-2' ><li class='ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/skimai.com\/de\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#Key_Findings_Unveiled\" >Wesentliche Ergebnisse enth\u00fcllt<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-6\" href=\"https:\/\/skimai.com\/de\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#Implications_for_AI_Development\" >Auswirkungen auf die KI-Entwicklung<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-7\" href=\"https:\/\/skimai.com\/de\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#Recommendations_for_AI_Practitioners\" >Empfehlungen f\u00fcr AI-Praktiker:<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-1'><a class=\"ez-toc-link ez-toc-heading-8\" href=\"https:\/\/skimai.com\/de\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#10_Best_Prompting_Techniques_for_LLMs\" >Die 10 besten Prompting-Techniken f\u00fcr LLMs<\/a><ul class='ez-toc-list-level-2' ><li class='ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-9\" href=\"https:\/\/skimai.com\/de\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#Thank_you_for_taking_the_time_to_read_AI_YOU\" >Danke, dass Sie sich die Zeit genommen haben, AI &amp; YOU zu lesen!<\/a><\/li><\/ul><\/li><\/ul><\/nav><\/div>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"We_need_to_rethink_chain-of-thought_CoT_prompting_AI_YOU_68\"><\/span><strong>Wir m\u00fcssen die Gedankenkette (CoT) \u00fcberdenken, die AI&amp;YOU #68 ausl\u00f6st<\/strong><span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>LLMs zeigen bemerkenswerte F\u00e4higkeiten bei der Verarbeitung und Erzeugung nat\u00fcrlicher Sprache (NLP). Wenn sie jedoch mit komplexen Denkaufgaben konfrontiert werden, k\u00f6nnen diese Modelle Schwierigkeiten haben, genaue und zuverl\u00e4ssige Ergebnisse zu erzielen. Hier kommt das Chain-of-Thought (CoT) Prompting ins Spiel, eine Technik, die darauf abzielt, die Probleml\u00f6sungsf\u00e4higkeiten von LLMs zu verbessern.<\/p>\n\n\n<p>Eine fortgeschrittene <a rel=\"noopener noreferrer\" href=\"http:\/\/skimai.com\/de\/was-ist-sofortengineering\/\">schnelles Engineering<\/a> Technik ist darauf ausgelegt, LLMs durch einen schrittweisen Denkprozess zu f\u00fchren. Im Gegensatz zu Standard-Prompting-Methoden, die auf direkte Antworten abzielen, ermutigt das CoT-Prompting das Modell, zwischenzeitliche Argumentationsschritte zu generieren, bevor es zu einer endg\u00fcltigen Antwort kommt.<\/p>\n\n\n<p>Im Kern geht es bei der CoT-Eingabeaufforderung darum, die Eingabeaufforderungen so zu strukturieren, dass sie dem Modell eine logische Abfolge von Gedanken entlocken. Durch die Zerlegung komplexer Probleme in kleinere, \u00fcberschaubare Schritte versucht CoT, LLMs in die Lage zu versetzen, effektiver durch komplizierte Argumentationspfade zu navigieren.<\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/b09a9a44-caab-4b70-ab0b-37bcbf039925.png\" \/>\n<\/figure>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"How_CoT_Works\"><\/span>Wie CoT funktioniert<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>Im Kern f\u00fchrt das CoT-Prompting Sprachmodelle durch eine Reihe von Zwischenschritten, bevor sie zu einer endg\u00fcltigen Antwort gelangen. Dieser Prozess umfasst in der Regel folgende Schritte:<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>Problem-Zerlegung:<\/strong> Die komplexe Aufgabe wird in kleinere, \u00fcberschaubare Schritte aufgeteilt.<\/p><\/li><li><p><strong>Schritt-f\u00fcr-Schritt-Reasoning:<\/strong> Das Modell wird dazu aufgefordert, jeden Schritt explizit zu durchdenken.<\/p><\/li><li><p><strong>Logische Progression:<\/strong> Jeder Schritt baut auf dem vorherigen auf und bildet eine Gedankenkette.<\/p><\/li><li><p><strong>Fazit Zeichnung:<\/strong> Die endg\u00fcltige Antwort ergibt sich aus den kumulierten Argumentationsschritten.<\/p><\/li>\n<\/ol>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Types_of_CoT_Prompting\"><\/span>Arten von CoT Prompting<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>Das Prompting der Gedankenkette kann auf verschiedene Weise umgesetzt werden, wobei zwei Haupttypen hervorstechen:<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>Null-Schuss CoT:<\/strong> Die Zero-Shot CoT erfordert keine aufgabenspezifischen Beispiele. Stattdessen wird eine einfache Aufforderung wie \"Gehen wir das Schritt f\u00fcr Schritt an\" verwendet, um das Modell zu ermutigen, seinen Denkprozess aufzuschl\u00fcsseln. ****<\/p><\/li><li><p><strong>Wenige Sch\u00fcsse CoT:<\/strong> Beim Few-shot CoT wird dem Modell eine kleine Anzahl von Beispielen zur Verf\u00fcgung gestellt, die den gew\u00fcnschten Denkprozess veranschaulichen. Diese Beispiele dienen als Vorlage f\u00fcr das Modell, wenn es neue, unbekannte Probleme angeht.<\/p><\/li>\n<\/ol>\n\n\n<p><strong><u>Null-Schuss CoT<\/u><\/strong><\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/275993ad-9125-47d7-86b8-db87250913d6.png\" \/>\n<\/figure>\n\n\n<p><strong><u>Wenige Sch\u00fcsse CoT<\/u><\/strong><\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/773c3c88-21c2-41b6-be04-4c8a80329933.png\" \/>\n<\/figure>\n\n\n<h1 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"AI_Research_Paper_Breakdown_%E2%80%9CChain_of_Thoughtlessness%E2%80%9D\"><\/span>AI Research Paper Breakdown: \"Kette der Gedankenlosigkeit?\"<span class=\"ez-toc-section-end\"><\/span><\/h1>\n\n\n<p>Da Sie nun wissen, was CoT-Prompting ist, k\u00f6nnen wir uns mit einigen neueren Forschungsergebnissen befassen, die einige seiner Vorteile in Frage stellen und einen Einblick geben, wann es tats\u00e4chlich n\u00fctzlich ist.<\/p>\n\n\n<p>Das Forschungspapier mit dem Titel \"<a rel=\"noopener noreferrer\" href=\"https:\/\/arxiv.org\/pdf\/2405.04776\">Kette der R\u00fccksichtslosigkeit? Eine Analyse der CoT in der Planung,<\/a>\" bietet eine kritische Untersuchung der Effektivit\u00e4t und Verallgemeinerbarkeit von CoT-Prompting. F\u00fcr KI-Praktiker ist es von entscheidender Bedeutung, diese Ergebnisse und ihre Auswirkungen auf die Entwicklung von KI-Anwendungen zu verstehen, die ausgefeilte Argumentationsf\u00e4higkeiten erfordern.<\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/3ba0bde5-4dd5-4cad-b56e-d84fa715c2d1.png\" \/>\n<\/figure>\n\n\n<p>Die Forscher w\u00e4hlten eine klassische Planungsdom\u00e4ne namens Blocksworld als prim\u00e4res Testfeld. In Blocksworld besteht die Aufgabe darin, eine Reihe von Bl\u00f6cken von einer Ausgangskonfiguration zu einer Zielkonfiguration umzuordnen, indem eine Reihe von Bewegungsaktionen durchgef\u00fchrt wird. Diese Dom\u00e4ne eignet sich ideal zum Testen von Denk- und Planungsf\u00e4higkeiten, denn:<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p>Es erm\u00f6glicht die Generierung von Problemen mit unterschiedlicher Komplexit\u00e4t<\/p><\/li><li><p>Sie hat klare, algorithmisch \u00fcberpr\u00fcfbare L\u00f6sungen<\/p><\/li><li><p>Es ist unwahrscheinlich, dass sie in den LLM-Trainingsdaten stark vertreten ist.<\/p><\/li>\n<\/ol>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/96c5ef3f-d5b0-4d8a-af26-92be9c553340.png\" \/>\n<\/figure>\n\n\n<p>In der Studie wurden drei moderne LLMs untersucht: GPT-4, Claude-3-Opus und GPT-4-Turbo. Diese Modelle wurden mit Aufforderungen unterschiedlicher Spezifit\u00e4t getestet:<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>Null-Schuss Gedankenkette (Universal):<\/strong> Es gen\u00fcgt, der Aufforderung \"Denken wir Schritt f\u00fcr Schritt\" hinzuzuf\u00fcgen.<\/p><\/li><li><p><strong>Fortschrittsnachweis (speziell f\u00fcr PDDL):<\/strong> Eine allgemeine Erl\u00e4uterung der Korrektheit von Pl\u00e4nen mit Beispielen.<\/p><\/li><li><p><strong>Blocksworld Universal Algorithmus:<\/strong> Demonstration eines allgemeinen Algorithmus zur L\u00f6sung beliebiger Blocksworld-Probleme.<\/p><\/li><li><p><strong>Aufforderung zum Stapeln:<\/strong> Konzentration auf eine bestimmte Unterklasse von Blocksworld-Problemen (Tisch-zu-Stapel).<\/p><\/li><li><p><strong>Lexikografische Stapelung:<\/strong> Weitere Eingrenzung auf eine bestimmte syntaktische Form des Zielzustandes.<\/p><\/li>\n<\/ol>\n\n\n<p>Durch das Testen dieser Aufforderungen an immer komplexeren Problemen wollten die Forscher herausfinden, wie gut LLMs das in den Beispielen demonstrierte Denken verallgemeinern k\u00f6nnen.<\/p>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Key_Findings_Unveiled\"><\/span>Wesentliche Ergebnisse enth\u00fcllt<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>Die Ergebnisse dieser Studie stellen viele der vorherrschenden Annahmen \u00fcber CoT-Prompting in Frage:<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>Begrenzte Wirksamkeit des CoT:<\/strong> Entgegen fr\u00fcherer Behauptungen zeigte das CoT-Prompting nur dann signifikante Leistungsverbesserungen, wenn die bereitgestellten Beispiele dem Abfrageproblem extrem \u00e4hnlich waren. Sobald die Probleme vom exakten Format der Beispiele abwichen, sank die Leistung drastisch.<\/p><\/li><li><p><strong>Rasche Verschlechterung der Leistung:<\/strong> Mit zunehmender Komplexit\u00e4t der Probleme (gemessen an der Anzahl der beteiligten Bl\u00f6cke) nahm die Genauigkeit aller Modelle drastisch ab, unabh\u00e4ngig von der verwendeten CoT-Aufforderung. Dies deutet darauf hin, dass LLMs Schwierigkeiten haben, das in einfachen Beispielen gezeigte logische Denken auf komplexere Szenarien zu \u00fcbertragen.<\/p><\/li><li><p><strong>Unwirksamkeit von allgemeinen Aufforderungen:<\/strong> \u00dcberraschenderweise schnitten allgemeinere CoT-Aufforderungen oft schlechter ab als Standardaufforderungen ohne Argumentationsbeispiele. Dies widerspricht der Vorstellung, dass CoT LLMs hilft, verallgemeinerbare Probleml\u00f6sungsstrategien zu lernen.<\/p><\/li><li><p><strong>Kompromiss bei der Spezifit\u00e4t:<\/strong> Die Studie ergab, dass mit hochspezifischen Aufforderungen eine hohe Genauigkeit erreicht werden kann, allerdings nur bei einer sehr kleinen Teilmenge von Problemen. Dies zeigt, dass es einen starken Kompromiss zwischen Leistungssteigerung und Anwendbarkeit der Aufforderung gibt.<\/p><\/li><li><p><strong>Fehlen eines echten algorithmischen Lernens:<\/strong> Die Ergebnisse deuten stark darauf hin, dass LLMs nicht lernen, allgemeine algorithmische Verfahren aus den CoT-Beispielen anzuwenden. Stattdessen scheinen sie sich auf Mustervergleiche zu verlassen, die bei neuartigen oder komplexeren Problemen schnell versagen.<\/p><\/li>\n<\/ol>\n\n\n<p>Diese Ergebnisse haben erhebliche Auswirkungen f\u00fcr KI-Praktiker und Unternehmen, die CoT-Prompting in ihren Anwendungen nutzen wollen. Sie deuten darauf hin, dass CoT zwar die Leistung in bestimmten engen Szenarien steigern kann, aber m\u00f6glicherweise nicht das Allheilmittel f\u00fcr komplexe Denkaufgaben ist, auf das viele gehofft hatten.<\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/c76d6112-c7ee-420a-8aa5-67c5b89614b5.png\" \/>\n<\/figure>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Implications_for_AI_Development\"><\/span>Auswirkungen auf die KI-Entwicklung<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>Die Ergebnisse dieser Studie haben erhebliche Auswirkungen auf die KI-Entwicklung, insbesondere f\u00fcr Unternehmen, die an Anwendungen arbeiten, die komplexe Denk- oder Planungsfunktionen erfordern:<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>Neubewertung der CoT-Wirksamkeit:<\/strong> KI-Entwickler sollten vorsichtig sein, wenn es darum geht, sich bei Aufgaben, die echtes algorithmisches Denken oder die Verallgemeinerung auf neue Szenarien erfordern, auf CoT zu verlassen.<\/p><\/li><li><p><strong>Beschr\u00e4nkungen der derzeitigen LLMs:<\/strong> F\u00fcr Anwendungen, die eine solide Planung oder eine mehrstufige Probleml\u00f6sung erfordern, k\u00f6nnen alternative Ans\u00e4tze erforderlich sein.<\/p><\/li><li><p><strong>Die Kosten einer prompten Entwicklung:<\/strong> W\u00e4hrend hochspezifische CoT-Prompts gute Ergebnisse f\u00fcr enge Problemgruppen liefern k\u00f6nnen, kann der menschliche Aufwand, der f\u00fcr die Erstellung dieser Prompts erforderlich ist, die Vorteile \u00fcberwiegen, insbesondere angesichts ihrer begrenzten Verallgemeinerbarkeit.<\/p><\/li><li><p><strong>Bewertungsmetriken \u00fcberdenken:<\/strong> Wenn man sich ausschlie\u00dflich auf statische Tests\u00e4tze verl\u00e4sst, kann die tats\u00e4chliche Denkf\u00e4higkeit eines Modells \u00fcbersch\u00e4tzt werden.<\/p><\/li><li><p><strong>Die Kluft zwischen Wahrnehmung und Realit\u00e4t:<\/strong> Es besteht eine erhebliche Diskrepanz zwischen den wahrgenommenen Argumentationsf\u00e4higkeiten von LLMs (die im popul\u00e4ren Diskurs oft anthropomorphisiert werden) und ihren tats\u00e4chlichen F\u00e4higkeiten, wie in dieser Studie gezeigt wurde.<\/p><\/li>\n<\/ol>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Recommendations_for_AI_Practitioners\"><\/span>Empfehlungen f\u00fcr AI-Praktiker:<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<ul class=\"wp-block-list\">\n<li><p><strong>Bewertung:<\/strong> Implementierung verschiedener Testverfahren, um die tats\u00e4chliche Generalisierung \u00fcber verschiedene Problemkomplexe hinweg zu bewerten.<\/p><\/li><li><p><strong>CoT-Verwendung:<\/strong> Wenden Sie die Gedankenkette mit Bedacht an und erkennen Sie ihre Grenzen bei der Verallgemeinerung.<\/p><\/li><li><p><strong>Hybride L\u00f6sungen<\/strong>: Erw\u00e4gen Sie die Kombination von LLMs mit traditionellen Algorithmen f\u00fcr komplexe Schlussfolgerungsaufgaben.<\/p><\/li><li><p><strong>Transparenz:<\/strong> Die Grenzen des KI-Systems sollten klar kommuniziert werden, insbesondere bei Denk- und Planungsaufgaben.<\/p><\/li><li><p><strong>Schwerpunkt F&amp;E:<\/strong> Investitionen in die Forschung zur Verbesserung der echten Denkf\u00e4higkeiten von KI-Systemen.<\/p><\/li><li><p><strong>Feinabstimmung:<\/strong> Ziehen Sie eine bereichsspezifische Feinabstimmung in Betracht, aber seien Sie sich der m\u00f6glichen Grenzen der Verallgemeinerbarkeit bewusst.<\/p><\/li>\n<\/ul>\n\n\n<p>F\u00fcr KI-Praktiker und Unternehmen zeigen diese Ergebnisse, wie wichtig es ist, LLM-St\u00e4rken mit spezialisierten Schlussfolgerungsans\u00e4tzen zu kombinieren, bei Bedarf in dom\u00e4nenspezifische L\u00f6sungen zu investieren und die Grenzen von KI-Systemen transparent zu machen. In Zukunft muss sich die KI-Gemeinschaft auf die Entwicklung neuer Architekturen und Trainingsmethoden konzentrieren, die die L\u00fccke zwischen Mustererkennung und echtem algorithmischen Denken schlie\u00dfen k\u00f6nnen.<\/p>\n\n\n<h1 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"10_Best_Prompting_Techniques_for_LLMs\"><\/span>Die 10 besten Prompting-Techniken f\u00fcr LLMs<span class=\"ez-toc-section-end\"><\/span><\/h1>\n\n\n<p>In dieser Woche untersuchen wir zehn der leistungsf\u00e4higsten und g\u00e4ngigsten Prompting-Techniken und geben Einblicke in ihre Anwendungen und besten Praktiken.<\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/8fe201b3-003e-4190-a06f-e5553d6b1126.png\" \/>\n<\/figure>\n\n\n<p>Gut konzipierte Eingabeaufforderungen k\u00f6nnen die Leistung eines LLM erheblich verbessern und genauere, relevantere und kreativere Ergebnisse erm\u00f6glichen. Egal, ob Sie ein erfahrener KI-Entwickler sind oder gerade erst mit LLMs beginnen, diese Techniken werden Ihnen helfen, das volle Potenzial von KI-Modellen zu erschlie\u00dfen.<\/p>\n\n\n<p>Schauen Sie sich den vollst\u00e4ndigen Blog an, um mehr \u00fcber jedes einzelne Produkt zu erfahren.<\/p>\n\n\n<hr class=\"wp-block-separator\" \/>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Thank_you_for_taking_the_time_to_read_AI_YOU\"><\/span><strong>Danke, dass Sie sich die Zeit genommen haben, AI &amp; YOU zu lesen!<\/strong><span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p><strong>F\u00fcr noch mehr Inhalte zum Thema KI f\u00fcr Unternehmen, einschlie\u00dflich Infografiken, Statistiken, Anleitungen, Artikeln und Videos, folgen Sie Skim AI auf <\/strong><a rel=\"noopener noreferrer\" href=\"https:\/\/linkedin.com\/company\/skim-ai\"><strong>LinkedIn<\/strong><\/a><\/p>\n\n\n<p>Sie sind Gr\u00fcnder, CEO, Risikokapitalgeber oder Investor und suchen KI-Beratung, fraktionierte KI-Entwicklung oder Due-Diligence-Dienstleistungen? Holen Sie sich die Beratung, die Sie brauchen, um fundierte Entscheidungen \u00fcber die KI-Produktstrategie Ihres Unternehmens und Investitionsm\u00f6glichkeiten zu treffen.<\/p>\n\n\n<p><a rel=\"noopener noreferrer\" href=\"https:\/\/meetings.hubspot.com\/gregg15\/15-min-about-enterprise-ai?utm_source=hs_email&utm_medium=email\">Ben\u00f6tigen Sie Hilfe bei der Einf\u00fchrung Ihrer KI-L\u00f6sung f\u00fcr Unternehmen? M\u00f6chten Sie Ihre eigenen KI-Arbeitnehmer mit unserer KI-Workforce-Management-Plattform aufbauen? Lassen Sie uns reden<\/a><\/p>\n\n\n<p>Wir entwickeln ma\u00dfgeschneiderte KI-L\u00f6sungen f\u00fcr von Venture Capital und Private Equity unterst\u00fctzte Unternehmen in den folgenden Branchen: Medizintechnik, Nachrichten\/Content-Aggregation, Film- und Fotoproduktion, Bildungstechnologie, Rechtstechnologie, Fintech und Kryptow\u00e4hrungen.<\/p>","protected":false},"excerpt":{"rendered":"<p>Stat of the Week: Zero-shot CoT performance was only 5.55% for GPT-4-Turbo, 8.51% for Claude-3-Opus, and 4.44% for GPT-4. (&#8220;Chain of Thoughtlessness?&#8221; paper) Chain-of-Thought (CoT) prompting has been hailed as a breakthrough in unlocking the reasoning capabilities of large language models (LLMs). However, recent research has challenged these claims and prompted us to revisit the [&hellip;]<\/p>\n","protected":false},"author":1003,"featured_media":13098,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"single-custom-post-template.php","format":"standard","meta":{"_et_pb_use_builder":"","_et_pb_old_content":"","_et_gb_content_width":"","footnotes":""},"categories":[109,119],"tags":[],"class_list":["post-13060","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-newsletter","category-prompt-engineering"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v24.1 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>We need to rethink chain-of-thought (CoT) prompting AI&amp;YOU #68 - Skim AI<\/title>\n<meta name=\"description\" content=\"New research reveals that Chain-of-Thought (CoT) prompting may not be the AI breakthrough we hoped for. Learn why CoT&#039;s effectiveness is limited in complex reasoning tasks and how LLMs struggle with generalization. Discover how to rethink AI prompting techniques for better performance.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/skimai.com\/de\/wir-mussen-die-gedankenkette-uberdenken-die-zu-aiyou-68-fuhrt\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"We need to rethink chain-of-thought (CoT) prompting AI&amp;YOU #68 - Skim AI\" \/>\n<meta property=\"og:description\" content=\"New research reveals that Chain-of-Thought (CoT) prompting may not be the AI breakthrough we hoped for. Learn why CoT&#039;s effectiveness is limited in complex reasoning tasks and how LLMs struggle with generalization. Discover how to rethink AI prompting techniques for better performance.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/skimai.com\/de\/wir-mussen-die-gedankenkette-uberdenken-die-zu-aiyou-68-fuhrt\/\" \/>\n<meta property=\"og:site_name\" content=\"Skim AI\" \/>\n<meta property=\"article:published_time\" content=\"2024-09-20T04:44:34+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png\" \/>\n\t<meta property=\"og:image:width\" content=\"1092\" \/>\n\t<meta property=\"og:image:height\" content=\"612\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Greggory Elias\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Greggory Elias\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"8\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/\"},\"author\":{\"name\":\"Greggory Elias\",\"@id\":\"https:\/\/skimai.com\/uk\/#\/schema\/person\/7a883b4a2d2ea22040f42a7975eb86c6\"},\"headline\":\"We need to rethink chain-of-thought (CoT) prompting AI&#038;YOU #68\",\"datePublished\":\"2024-09-20T04:44:34+00:00\",\"dateModified\":\"2024-09-20T04:44:34+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/\"},\"wordCount\":1446,\"publisher\":{\"@id\":\"https:\/\/skimai.com\/uk\/#organization\"},\"image\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png\",\"articleSection\":[\"Newsletter\",\"Prompt Engineering\"],\"inLanguage\":\"de\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/\",\"url\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/\",\"name\":\"We need to rethink chain-of-thought (CoT) prompting AI&YOU #68 - Skim AI\",\"isPartOf\":{\"@id\":\"https:\/\/skimai.com\/uk\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png\",\"datePublished\":\"2024-09-20T04:44:34+00:00\",\"dateModified\":\"2024-09-20T04:44:34+00:00\",\"description\":\"New research reveals that Chain-of-Thought (CoT) prompting may not be the AI breakthrough we hoped for. Learn why CoT's effectiveness is limited in complex reasoning tasks and how LLMs struggle with generalization. Discover how to rethink AI prompting techniques for better performance.\",\"breadcrumb\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage\",\"url\":\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png\",\"contentUrl\":\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png\",\"width\":1092,\"height\":612,\"caption\":\"AI&YOU#68\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/skimai.com\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"We need to rethink chain-of-thought (CoT) prompting AI&#038;YOU #68\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/skimai.com\/uk\/#website\",\"url\":\"https:\/\/skimai.com\/uk\/\",\"name\":\"Skim AI\",\"description\":\"The AI Agent Workforce Platform\",\"publisher\":{\"@id\":\"https:\/\/skimai.com\/uk\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/skimai.com\/uk\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/skimai.com\/uk\/#organization\",\"name\":\"Skim AI\",\"url\":\"https:\/\/skimai.com\/uk\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\/\/skimai.com\/uk\/#\/schema\/logo\/image\/\",\"url\":\"http:\/\/skimai.com\/wp-content\/uploads\/2020\/07\/SKIM-AI-Header-Logo.png\",\"contentUrl\":\"http:\/\/skimai.com\/wp-content\/uploads\/2020\/07\/SKIM-AI-Header-Logo.png\",\"width\":194,\"height\":58,\"caption\":\"Skim AI\"},\"image\":{\"@id\":\"https:\/\/skimai.com\/uk\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/www.linkedin.com\/company\/skim-ai\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/skimai.com\/uk\/#\/schema\/person\/7a883b4a2d2ea22040f42a7975eb86c6\",\"name\":\"Greggory Elias\",\"url\":\"https:\/\/skimai.com\/de\/author\/gregg\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Wir m\u00fcssen die Gedankenkette (CoT) \u00fcberdenken, die AI&amp;YOU #68 - Skim AI","description":"Neue Forschungsergebnisse zeigen, dass die Gedankenkette (Chain-of-Thought, CoT) m\u00f6glicherweise nicht der erhoffte Durchbruch in der KI ist. Erfahren Sie, warum die Wirksamkeit von CoT bei komplexen Denkaufgaben begrenzt ist und wie LLMs mit der Generalisierung zu k\u00e4mpfen haben. Entdecken Sie, wie Sie die KI-Prompting-Techniken \u00fcberdenken k\u00f6nnen, um eine bessere Leistung zu erzielen.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/skimai.com\/de\/wir-mussen-die-gedankenkette-uberdenken-die-zu-aiyou-68-fuhrt\/","og_locale":"de_DE","og_type":"article","og_title":"We need to rethink chain-of-thought (CoT) prompting AI&YOU #68 - Skim AI","og_description":"New research reveals that Chain-of-Thought (CoT) prompting may not be the AI breakthrough we hoped for. Learn why CoT's effectiveness is limited in complex reasoning tasks and how LLMs struggle with generalization. Discover how to rethink AI prompting techniques for better performance.","og_url":"https:\/\/skimai.com\/de\/wir-mussen-die-gedankenkette-uberdenken-die-zu-aiyou-68-fuhrt\/","og_site_name":"Skim AI","article_published_time":"2024-09-20T04:44:34+00:00","og_image":[{"width":1092,"height":612,"url":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png","type":"image\/png"}],"author":"Greggory Elias","twitter_card":"summary_large_image","twitter_misc":{"Verfasst von":"Greggory Elias","Gesch\u00e4tzte Lesezeit":"8\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#article","isPartOf":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/"},"author":{"name":"Greggory Elias","@id":"https:\/\/skimai.com\/uk\/#\/schema\/person\/7a883b4a2d2ea22040f42a7975eb86c6"},"headline":"We need to rethink chain-of-thought (CoT) prompting AI&#038;YOU #68","datePublished":"2024-09-20T04:44:34+00:00","dateModified":"2024-09-20T04:44:34+00:00","mainEntityOfPage":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/"},"wordCount":1446,"publisher":{"@id":"https:\/\/skimai.com\/uk\/#organization"},"image":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage"},"thumbnailUrl":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png","articleSection":["Newsletter","Prompt Engineering"],"inLanguage":"de"},{"@type":"WebPage","@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/","url":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/","name":"Wir m\u00fcssen die Gedankenkette (CoT) \u00fcberdenken, die AI&amp;YOU #68 - Skim AI","isPartOf":{"@id":"https:\/\/skimai.com\/uk\/#website"},"primaryImageOfPage":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage"},"image":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage"},"thumbnailUrl":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png","datePublished":"2024-09-20T04:44:34+00:00","dateModified":"2024-09-20T04:44:34+00:00","description":"Neue Forschungsergebnisse zeigen, dass die Gedankenkette (Chain-of-Thought, CoT) m\u00f6glicherweise nicht der erhoffte Durchbruch in der KI ist. Erfahren Sie, warum die Wirksamkeit von CoT bei komplexen Denkaufgaben begrenzt ist und wie LLMs mit der Generalisierung zu k\u00e4mpfen haben. Entdecken Sie, wie Sie die KI-Prompting-Techniken \u00fcberdenken k\u00f6nnen, um eine bessere Leistung zu erzielen.","breadcrumb":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/"]}]},{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage","url":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png","contentUrl":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png","width":1092,"height":612,"caption":"AI&YOU#68"},{"@type":"BreadcrumbList","@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/skimai.com\/"},{"@type":"ListItem","position":2,"name":"We need to rethink chain-of-thought (CoT) prompting AI&#038;YOU #68"}]},{"@type":"WebSite","@id":"https:\/\/skimai.com\/uk\/#website","url":"https:\/\/skimai.com\/uk\/","name":"Skim AI","description":"Die AI Agent Workforce Plattform","publisher":{"@id":"https:\/\/skimai.com\/uk\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/skimai.com\/uk\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de"},{"@type":"Organization","@id":"https:\/\/skimai.com\/uk\/#organization","name":"Skim AI","url":"https:\/\/skimai.com\/uk\/","logo":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/skimai.com\/uk\/#\/schema\/logo\/image\/","url":"http:\/\/skimai.com\/wp-content\/uploads\/2020\/07\/SKIM-AI-Header-Logo.png","contentUrl":"http:\/\/skimai.com\/wp-content\/uploads\/2020\/07\/SKIM-AI-Header-Logo.png","width":194,"height":58,"caption":"Skim AI"},"image":{"@id":"https:\/\/skimai.com\/uk\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.linkedin.com\/company\/skim-ai"]},{"@type":"Person","@id":"https:\/\/skimai.com\/uk\/#\/schema\/person\/7a883b4a2d2ea22040f42a7975eb86c6","name":"Greggory Elias","url":"https:\/\/skimai.com\/de\/author\/gregg\/"}]}},"_links":{"self":[{"href":"https:\/\/skimai.com\/de\/wp-json\/wp\/v2\/posts\/13060","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/skimai.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/skimai.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/skimai.com\/de\/wp-json\/wp\/v2\/users\/1003"}],"replies":[{"embeddable":true,"href":"https:\/\/skimai.com\/de\/wp-json\/wp\/v2\/comments?post=13060"}],"version-history":[{"count":0,"href":"https:\/\/skimai.com\/de\/wp-json\/wp\/v2\/posts\/13060\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/skimai.com\/de\/wp-json\/wp\/v2\/media\/13098"}],"wp:attachment":[{"href":"https:\/\/skimai.com\/de\/wp-json\/wp\/v2\/media?parent=13060"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/skimai.com\/de\/wp-json\/wp\/v2\/categories?post=13060"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/skimai.com\/de\/wp-json\/wp\/v2\/tags?post=13060"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}