SKIM AI

AI&YOU #9: що ChatGPT приховує від вас!

Ми всі отримали це повідомлення від ChatGPT:

"Щось пішло не так. Якщо ця проблема не зникне, будь ласка, зв'яжіться з нами через наш центр допомоги..."

Але що насправді означають ці повідомлення про помилки і як ми можемо краще спілкуватися? Це не завжди те, що ви думаєте.

Цього тижня у випуску ШІ І ВИ, ми заглиблюємося в міркування, що лежать в основі великих мовних моделей (ВММ), таких як ChatGPT, досліджуючи, чому "невдачі" не завжди є тим, чим вони здаються, і як правильна підказка може змінити гру. Потім ми покажемо вам, як кодувати розуміння за допомогою ChatGPT оперативний інжиніринг техніки.

Як завжди, наша команда експертів-практиків у галузі штучного інтелекту завжди готова допомогти вашій організації ефективно та результативно використати можливості штучного інтелекту. Якщо ви створюєте корпоративні системи, які використовують API ChatGPT (або інших LLM), непередбачувані реакції роблять ваші рішення менш надійними. Якщо вашому підприємству потрібна допомога у впровадженні таких API в рішення або створенні індивідуальних рішень для використання LLM для відповідей на запитання щодо ваших даних і баз даних, замовте дзвінок зі мною нижче.

Не забудьте підписатися та поділитися нашим контентом, якщо ви вважаєте його корисним!

Про що ваш LLM не говорить

у сфері штучного інтелекту, Великі мовні моделі (LLM) стали революційними інструментами, що змінили ландшафт багатьох галузей і сфер застосування. Від написання текстів до обслуговування клієнтів, від медичної діагностики до юридичних консультацій - ці моделі обіцяють безпрецедентний потенціал.

Незважаючи на їхні потужні здібності, зрозуміти LLMs та їхню поведінку - не простий процес. Хоча вони можуть не виконати завдання, за цією "невдачею" часто ховається більш складний сценарій. Іноді, коли ваш LLM (наприклад, популярний ChatGPT) здається розгубленим, це не через його нездатність працювати, а через інші менш очевидні проблеми, такі як "петля" в дереві рішень або таймаут плагіна.

Розуміння та подолання цих повідомлень про помилки

Коли LLM, як-от ChatGPT, стикається з проблемою і не може виконати завдання так, як очікувалося, він зазвичай не повідомляє про свою боротьбу словами поразки, а радше повідомленнями про помилки. Ці повідомлення часто можуть сигналізувати про наявність внутрішньої технічної проблеми, яка спричиняє перешкоду, а не вказувати на обмеження самої моделі.

230628-What-does-my-ChatGPT-Error-Message-Mean.png

Як ми вже згадували, це може бути наслідком того, що модель зациклюється в дереві рішень процесу прийняття рішень, що змушує її або повторювати певні кроки, або взагалі зупинятися. Це не означає, що модель не здатна виконати завдання, а скоріше, що вона зіткнулася з проблемою в алгоритмі, яку потрібно вирішити.

Так само, як і у випадку з таймаут плагіна може статися, коли певний плагін, який є додатковим програмним компонентом, що розширює можливості основного програмного забезпечення, занадто довго виконує завдання. Багато LLM спочатку не були розроблені для швидких темпів роботи веб-додатків і можуть не встигати за високими вимогами до швидкості, що призводить до тайм-аутів плагінів.

230628-How-to-Overcome-a-ChatGPT-Error-Message.png

Реальні приклади та рішення

Розглянемо приклад, коли LLM, наприклад, ChatGPT, використовується для автоматизованої генерації історій. Завдання полягає в тому, щоб згенерувати коротку історію на основі введеної користувачем підказки. Однак модель застрягла в циклі, постійно генеруючи все більше і більше контенту, не досягаючи висновку. Це виглядає як "провал", оскільки модель не в змозі надати стислу історію, як очікувалося.

  • Справжня проблема: Модель застрягла у своєму циклі прийняття рішень, постійно продовжуючи історію замість того, щоб її завершити.

  • Рішення: Невелика зміна в підказці або тонке налаштування параметрів моделі може вивести модель із зациклення, що дозволить їй успішно виконати завдання.

*Ви можете знайти більше реальних прикладів і рішень у нашому блозі.

Розшифровка мовчазних повідомлень LLM

Коли LLM стикається з проблемою, це не обов'язково є "невдачею" у традиційному розумінні. Натомість, це часто мовчазний сигнал, невисловлене слово, що вказує на певну проблему, наприклад, цикл прийняття рішень, проблему з плагіном або несподівану поведінку, яка перешкоджає виконанню завдання моделі.

Розуміння цих мовчазних повідомлень від LLM може дозволити нам адаптувати, оптимізувати та покращити його роботу. Тому ключ полягає не в тому, щоб зосередитися лише на повідомленні про помилку, а в тому, щоб розгадати глибші, часто приховані, значення, які стоять за цими повідомленнями.

Ознайомтеся з повною версією блогу: "Що означає ваше повідомлення про помилку ChatGPT"

Як закодувати розуміння за допомогою оперативного інжинірингу

Оперативне проектування з великими мовними моделями (LLM), такими як ChatGPT і Google Bard, є важливим, але часто недооцінюваним аспектом цих потужних інструментів ШІ. Це схоже на підготовку до діалогу зі штучним інтелектом, який пропонує початковий напрямок комп'ютерної бесіди. Коли ви взаємодієте з LLM, ваша початкова підказка - це ваш перший крок до величезного ландшафту можливостей, які пропонують ці моделі. Це ваш спосіб сформулювати очікування, спрямувати розмову і, що найважливіше, сформувати відповідь ШІ.

Сила кодування на типовому прикладі

Коли ми кодуємо типовий приклад у нашій початковій підказці, ми даємо ШІ чітке уявлення про те, чого ми хочемо. Це особливо важливо, коли йдеться про складні запити або завдання. Розглянемо сценарій, коли ми хочемо, щоб наш АІ допоміг скласти бізнес-пропозицію. Замість нечіткої інструкції на кшталт "Скласти комерційну пропозицію", ми можемо навести типовий приклад: "Складіть бізнес-пропозицію, подібну до тієї, яку ми зробили для ABC Corp. минулого року". Тут ми кодуємо типовий приклад у початковій підказці, надаючи ШІ чіткий напрямок.

230628-Encoding-an-Example-in-Your-Initial-Prompt.png

Вплив на спосіб мислення: Як керувати ШІ за допомогою підказок

Через ретельний і продуманий оперативний інжинірингми можемо впливати на "спосіб мислення" штучного інтелекту, спрямовуючи його на генерування відповідей, які ближчі до того, що нам потрібно або чого ми очікуємо. Однак мова йде не просто про надання чіткої команди або набору інструкцій. Йдеться про те, щоб вловити суть процесу мислення або шляху міркувань у підказці.

Наприклад, скажімо, ми хочемо, щоб ШІ для вирішення математичну задачу. Замість того, щоб безпосередньо запитувати розв'язок, ми можемо спрямувати ШІ на демонстрацію кроків розв'язання проблеми. Підказка на кшталт "Як репетитор з математики, проведіть мене по кроках, щоб розв'язати це рівняння..." може суттєво вплинути на відповідь ШІ, викликавши покрокове рішення, яке імітує спосіб мислення репетитора.

230628-Influencing-ChatGPT-Way-of-Thinking.png

Початковий запит як посібник для користувача: Як підготувати ґрунт для взаємодії

У сфері взаємодії зі штучним інтелектом початкова підказка може виконувати функцію, подібну до інструкції користувача, надаючи користувачеві вказівки щодо можливих дій. Вона допомагає налаштувати користувача, надаючи йому дорожню карту для взаємодії зі штучним інтелектом. Це як прелюдія, що задає тон подальшій розмові.

Добре продумане початкове запитання може виглядати приблизно так: "Уявіть, що ви письменник-мандрівник, який пише статтю про найкращі кав'ярні Парижа. Почніть свою статтю з яскравого опису чарівного кафе на березі Сени". Це не тільки спрямовує ШІ на виконання потрібного завдання, але й задає користувачеві очікування щодо того, яку відповідь він може згенерувати.

230628-Чому-важлива-початкова-програма.png

Кодування експертизи в ШІ

Коли ми розплутуємо хитросплетіння великих мовних моделей, стає зрозуміло, що інженерія підказок - це не просто технічна вимога, а фундаментальний інструмент для кодування нашого способу мислення в штучному інтелекті. Незалежно від того, чи це просте нагадування, чи вичерпна інструкція, початкова підказка слугує наріжним каменем взаємодії між людиною та ШІ, визначаючи межі та можливості розмови.

Ефективно використовуючи початкову підказку, ми можемо закодувати типовий приклад того, як ШІ повинен реагувати, сформувати спосіб мислення користувача і спрямувати відповіді ШІ.

Ознайомтеся з повною версією блогу: "Як закодувати розуміння за допомогою оперативного інжинірингу"

Дякуємо, що знайшли час прочитати AI & YOU!

*Знежирені AI - це консалтинг у сфері машинного навчання та штучного інтелекту, який навчає керівників, проводить комплексну перевірку, консультує, проектує, будує, розгортає, обслуговує, оновлює та модернізує. корпоративний штучний інтелект між мовою (NLP), зором (CV) та рішеннями на основі автоматизації.

*Поспілкуйтеся зі мною про корпоративний штучний інтелект

*Слідкуйте за ШІ Skim на LinkedIn

Давайте обговоримо вашу ідею

    Пов'язані публікації

    Готові зарядити ваш бізнес на повну потужність

    ДАВАЙТЕ
    ГОВОРИТИ
    ukУкраїнська