AI&YOU #9: Was ChatGPT vor Ihnen verbirgt!

Wir alle haben diese Botschaft erhalten von ChatGPT:

"Etwas ist schief gelaufen. Wenn dieses Problem weiterhin besteht, kontaktieren Sie uns bitte über unser Help Center..."

Aber was bedeuten diese Fehlermeldungen wirklich und wie können wir besser kommunizieren? Es ist nicht immer das, was Sie denken.

In der dieswöchigen Ausgabe von AI & YOU beschäftigen wir uns mit den Hintergründen von Large Language Models (LLMs) wie ChatGPT und erforschen, warum "Fehler" nicht immer das sind, was sie zu sein scheinen, und wie die richtige Aufforderung das Spiel verändern kann. Anschließend zeigen wir Ihnen, wie Sie das Verständnis durch ChatGPT kodieren können. schnelles Engineering Techniken.

Wie immer steht unser Team von KI-Experten bereit, um Ihr Unternehmen dabei zu unterstützen, die Leistung von KI effektiv und effizient zu nutzen. Wenn Sie Unternehmenssysteme aufbauen, die die API von ChatGPT (oder anderen LLMs) nutzen, machen unvorhersehbare Antworten Ihre Lösungen weniger zuverlässig. Wenn Ihr Unternehmen Hilfe bei der Einbindung solcher APIs in Lösungen oder bei der Entwicklung benutzerdefinierter Lösungen zur Nutzung von LLMs zur Beantwortung von Fragen zu Ihren Daten und Datenbanken benötigt, vereinbaren Sie einen Termin mit mir.

Abonnieren Sie unsere Inhalte und teilen Sie sie, wenn Sie sie hilfreich finden!

Was Ihr LLM nicht sagt

im Bereich der KI, Große Sprachmodelle (LLMs) haben sich zu revolutionären Werkzeugen entwickelt, die die Landschaft zahlreicher Branchen und Anwendungen umgestalten. Von der Schreibhilfe bis zum Kundendienst und von der medizinischen Diagnose bis zur Rechtsberatung versprechen diese Modelle ein nie dagewesenes Potenzial.

Trotz ihrer robusten Fähigkeiten ist das Verständnis von LLMs und ihrem Verhalten kein einfacher Prozess. Auch wenn sie eine Aufgabe nicht bewältigen können, verbirgt sich hinter diesem "Versagen" oft ein komplexeres Szenario. Wenn Ihr LLM (wie z. B. der beliebte ChatGPT) scheinbar versagt, liegt das manchmal nicht an seiner Unfähigkeit, sondern an anderen, weniger offensichtlichen Problemen, wie z. B. einer "Schleife" im Entscheidungsbaum oder einer Zeitüberschreitung des Plug-ins.

Verstehen und Überwinden dieser Fehlermeldungen

Wenn ein LLM wie ChatGPT auf ein Problem stößt und eine Aufgabe nicht wie erwartet ausführt, teilt es seinen Kampf in der Regel nicht mit Worten der Niederlage mit, sondern eher durch Fehlermeldungen. Diese Meldungen können oft auf ein internes technisches Problem hindeuten, das ein Hindernis verursacht, und nicht auf eine Einschränkung des Modells selbst.

230628-Was-hat-meine-ChatGPT-Fehlermeldung-zu bedeuten.png

Wie bereits erwähnt, könnte dies darauf zurückzuführen sein, dass das Modell in seinem Entscheidungsbaum in eine Schleife geraten ist, so dass es entweder bestimmte Schritte wiederholt oder ganz aufhört. Dies bedeutet nicht, dass das Modell nicht in der Lage ist, die Aufgabe zu erfüllen, sondern vielmehr, dass ein Problem in seinem Algorithmus aufgetreten ist, das behoben werden muss.

Ähnlich verhält es sich bei einer Plug-in-Timeout kann auftreten, wenn ein bestimmtes Plug-in, d. h. eine zusätzliche Softwarekomponente, die die Fähigkeiten der Hauptsoftware erweitert, zu lange für die Ausführung einer Aufgabe benötigt. Viele LLMs wurden ursprünglich nicht für die schnelle Umgebung webbasierter Anwendungen entwickelt und können mit den hohen Geschwindigkeitsanforderungen nicht mithalten, was zu Plug-in-Zeitüberschreitungen führt.

230628-Wie-überwinde-ich-eine-ChatGPT-Fehlermeldung.png

Beispiele und Lösungen aus der Praxis

Betrachten wir einen Fall, in dem ein LLM, wie ChatGPT, für die automatische Generierung von Geschichten verwendet wird. Die Aufgabe besteht darin, eine kurze Geschichte auf der Grundlage einer vom Benutzer eingegebenen Aufforderung zu generieren. Das Modell bleibt jedoch in einer Schleife stecken und erzeugt immer mehr Inhalt, ohne zu einem Ergebnis zu kommen. Es scheint ein "Fehlschlag" zu sein, da das Modell nicht in der Lage ist, wie erwartet eine prägnante Geschichte zu liefern.

  • Das eigentliche Problem: Das Modell ist in seiner Entscheidungsschleife stecken geblieben und hat die Geschichte immer weiter ausgedehnt, anstatt sie abzuschließen.

  • Die Lösung: Eine kleine Änderung der Eingabeaufforderung oder eine subtile Anpassung der Parameter des Modells könnte das Modell aus der Schleife herausführen, so dass es die Aufgabe erfolgreich lösen kann.

*Weitere Beispiele und Lösungen aus der Praxis finden Sie in unserem Blog.

Die Entschlüsselung der stillen Botschaften von LLM

Wenn ein LLM auf ein Problem stößt, handelt es sich nicht unbedingt um einen "Fehler" im herkömmlichen Sinne. Stattdessen ist es oft ein stilles Signal - ein unausgesprochenes Wort - das auf ein bestimmtes Problem wie eine Entscheidungsschleife, ein Plug-in-Problem oder ein unerwartetes Verhalten hinweist, das die Aufgabe des Modells beeinträchtigt hat.

Wenn wir diese stillen Meldungen des LLM verstehen, können wir seine Leistung anpassen, optimieren und verbessern. Der Schlüssel liegt daher nicht in der Konzentration auf die Fehlermeldung allein, sondern in der Entschlüsselung der tieferen, oft verborgenen Bedeutungen hinter diesen Meldungen.

Lesen Sie den gesamten Blog: "Was Ihre ChatGPT-Fehlermeldung bedeutet"

Wie man Verständnis durch Prompt Engineering kodiert

Prompt-Engineering mit großen Sprachmodellen (LLMs) wie ChatGPT und Googles Bard ist ein wesentlicher, aber oft übersehener Aspekt dieser leistungsstarken KI-Tools. Es ist so etwas wie die Bühne für einen KI-gestützten Dialog, der der rechnerischen Konversation eine erste Richtung gibt. Wenn Sie mit einem LLM in Kontakt treten, ist Ihre erste Aufforderung Ihr erster Schritt in die weite Landschaft der Möglichkeiten, die diese Modelle bieten. Auf diese Weise können Sie Erwartungen festlegen, das Gespräch lenken und vor allem die Antwort der KI gestalten.

Die Macht der Kodierung eines typischen Beispiels

Wenn wir in unserer ersten Aufforderung ein typisches Beispiel nennen, vermitteln wir der KI eine klare Vorstellung davon, was wir wollen. Dies ist besonders wertvoll, wenn es um die Bearbeitung komplexer Anfragen oder Aufgaben geht. Nehmen wir ein Szenario, in dem unsere KI bei der Erstellung eines Geschäftsvorschlags helfen soll. Statt einer vagen Anweisung wie "Entwirf einen Geschäftsvorschlag" können wir ein typisches Beispiel geben: "Entwerfen Sie ein Geschäftsangebot, das demjenigen ähnelt, das wir letztes Jahr für ABC Corp. erstellt haben. Hier kodieren wir ein typisches Beispiel in die erste Aufforderung und geben der KI eine klare Richtung vor.

230628-Encoding-eines-Beispiels-in-ihrer-Anfangs-Prompt.png

Beeinflussung der Denkweise: AI durch Prompts leiten

Über sorgfältiges und durchdachtes Sofortengineeringkönnen wir die "Denkweise" der KI beeinflussen und sie dazu bringen, Antworten zu geben, die unseren Bedürfnissen oder Erwartungen näher kommen. Es geht jedoch nicht nur darum, einen klaren Befehl oder eine Reihe von Anweisungen zu geben. Es geht darum, die Essenz eines Denkprozesses oder eines Gedankengangs in der Eingabeaufforderung zu erfassen.

Nehmen wir zum Beispiel an, wir wollen die AI zur Lösung ein mathematisches Problem. Anstatt direkt nach der Lösung zu fragen, könnten wir die KI anleiten, die Schritte zur Problemlösung zu demonstrieren. Eine Aufforderung wie "Als wären Sie ein Mathelehrer, führen Sie mich durch die Schritte zur Lösung dieser Gleichung..." kann die Antwort der KI erheblich beeinflussen und eine schrittweise Lösung hervorrufen, die die Denkweise eines Lehrers nachahmt.

230628-Einflussnahme-ChatGPT-Denkweise.png

Die Eingabeaufforderung als Benutzerhandbuch: Die Bühne für die Interaktion bereiten

Im Bereich der KI-Interaktion kann eine anfängliche Eingabeaufforderung eine ähnliche Funktion wie ein Benutzerhandbuch erfüllen, indem sie dem Benutzer eine Anleitung zu den Möglichkeiten gibt. Sie hilft dabei, den Benutzer zu konditionieren, indem sie einen Fahrplan für die Interaktion mit der KI liefert. Es ist wie ein Auftakt, der den Ton für die nachfolgende Konversation angibt.

Eine gut formulierte erste Aufforderung könnte etwa so aussehen: "Stellen Sie sich vor, Sie sind ein Reiseschriftsteller, der einen Artikel über die besten Cafés in Paris verfasst. Beginnen Sie Ihren Artikel mit einer anschaulichen Beschreibung eines charmanten Cafés an der Seine." Damit wird die KI nicht nur auf die gewünschte Aufgabe gelenkt, sondern auch eine Erwartungshaltung des Nutzers hinsichtlich der Art der zu erwartenden Antwort geweckt.

230628-Warum-ist-die-Anfangs-Prompt-wichtig.png

Kodierung von Fachwissen in KI

In dem Maße, in dem wir die Feinheiten großer Sprachmodelle entschlüsseln, wird klar, dass die Entwicklung von Eingabeaufforderungen nicht nur eine technische Anforderung ist, sondern ein grundlegendes Werkzeug, um unsere Denkweise in künstliche Intelligenz zu kodieren. Egal, ob es sich um eine einfache Erinnerung oder einen umfassenden Leitfaden handelt, der anfängliche Prompt dient als Eckpfeiler der Mensch-KI-Interaktion und definiert die Grenzen und Möglichkeiten der Konversation.

Durch den effektiven Einsatz der anfänglichen Aufforderung können wir ein typisches Beispiel dafür kodieren, wie die KI reagieren sollte, die Denkweise des Benutzers beeinflussen und die Antworten der KI steuern.

Lesen Sie den gesamten Blog: "Wie man Verständnis durch Prompt Engineering kodiert"

Danke, dass Sie sich die Zeit genommen haben, AI & YOU zu lesen!

*Skim AI ist ein Beratungsunternehmen für maschinelles Lernen und künstliche Intelligenz, das Führungskräfte ausbildet, Due-Diligence-Prüfungen durchführt, berät, architektiert, entwickelt, implementiert, pflegt, aktualisiert und aufrüstet. Unternehmens-KI über sprachliche (NLP), visuelle (CV) und automatisierte Lösungen.

*Chatten Sie mit mir über Enterprise AI

*Folgen Sie Skim AI auf LinkedIn

Lassen Sie uns Ihre Idee besprechen

    Verwandte Beiträge

    Bereit, Ihr Geschäft aufzuladen

    LASST UNS
    TALK
    de_DEDeutsch