Ввічливість з ChatGPT: чому не треба економити на “будь ласка”

22 Квітня 11:58

Використання ввічливих фраз у спілкуванні з ChatGPT коштує компанії OpenAI десятки мільйонів доларів на оплату електроенергії. Про це повідомив генеральний директор компанії Сем Альтман, коментуючи запит користувача соціальної мережі X, повідомляє Комерсант український з посиланням на techradar.

“Цікаво, скільки грошей OpenAI втратила на оплаті електроенергії через людей, які пишуть “будь ласка” та “дякую” їхнім моделям”,

– з цього повідомлення користувача @tomiinlove розпочалася дискусія, у якій з’явився Альтман. СЕО компанії відповів на це питання, відразу зауваживши, що усі витрачені гроші вартують того.

“Десятки мільйонів доларів, які добре витрачені — ніколи не знаєш, що може статися”,

— відповів Альтман, натякаючи на важливість підтримки етичного спілкування з штучним інтелектом.

За даними опитування, проведеного компанією Future PLC у лютому цього року, близько 70% користувачів дотримуються ввічливості у спілкуванні з ШІ. Цікаво, що 12% респондентів визнали, що роблять це через побоювання можливого “повстання роботів” у майбутньому.

Експерти галузі зазначають, що кожне повідомлення, надіслане до ChatGPT, споживає енергію потужних серверів, які забезпечують роботу системи. Проте більшість користувачів навіть не замислюються над екологічними наслідками навіть простих запитів до ШІ.

Чи варто бути ввічливими з ШІ?

Фахівці припускають, що значні витрати на електроенергію, про які згадав Альтман, пов’язані саме з окремими повідомленнями, які містять лише слова “будь ласка” або “дякую”, а не з ввічливими формулюваннями в рамках основного запиту.

Дослідження, проведене журналісткою TechRadar Беккою Кедді, показало, що ввічливість у спілкуванні з ШІ може навіть покращити якість відповідей.

“Ввічливі, добре структуровані запити часто призводять до кращих відповідей і в деяких випадках можуть навіть зменшити упередженість. Це не просто перевага — це критичний фактор надійності ШІ”,

— зазначила вона у своїй статті.

З розвитком технологій штучного інтелекту фахівці прогнозують, що ввічливість може стати вбудованою функцією систем ШІ. Не виключено, що моделі можуть бути налаштовані на надання якісніших відповідей користувачам, які спілкуються шанобливо.

Отже, хоча ввічливе спілкування з ШІ може бути менш енергоефективним, воно потенційно покращує взаємодію з ChatGPT.

Читайте нас у Telegram: головні новини коротко

Штучний інтелект: довідка

Штучний інтелект (ШІ) — це галузь комп’ютерних наук, що займається створенням систем, здатних виконувати завдання, які зазвичай потребують людського інтелекту. Сюди входять такі функції, як розпізнавання образів, мовлення та текстів, прийняття рішень, переклад між мовами та узагальнення інформації. Сучасні системи ШІ базуються переважно на методах машинного навчання, особливо глибинного навчання з використанням нейронних мереж, які навчаються на великих масивах даних.

За останні роки штучний інтелект став невід’ємною частиною багатьох сфер життя, від персональних помічників у смартфонах до систем аналізу медичних даних і автопілотів у транспорті. ШІ поділяється на “вузький” (або спеціалізований), який створюється для вирішення конкретних завдань, та “загальний”, теоретична концепція системи, що могла б виконувати будь-які інтелектуальні завдання на рівні людини. Наразі всі існуючі системи ШІ належать до категорії вузького штучного інтелекту.

Розвиток штучного інтелекту ставить перед людством як величезні можливості, так і серйозні виклики. З одного боку, ШІ може допомогти у вирішенні складних проблем в медицині, науці, екології та інших галузях. З іншого боку, виникають питання етики, безпеки та соціально-економічних наслідків, пов’язаних із автоматизацією праці та можливим використанням ШІ у шкідливих цілях. Тому розробка штучного інтелекту супроводжується зусиллями щодо створення відповідних регуляторних рамок та етичних принципів.

Що таке LLM (Large Language Model)

LLM (Large Language Model) – це тип штучного інтелекту, який відноситься до великих мовних моделей, навчених на величезних обсягах текстових даних для розуміння, генерації та обробки людської мови. Ці моделі використовують архітектуру трансформерів та мільярди або навіть трильйони параметрів для аналізу контексту та генерації релевантних відповідей. Сучасні LLM, такі як GPT (від OpenAI), Llama (від Meta), Claude (від Anthropic) та інші, можуть писати тексти, відповідати на запитання, узагальнювати інформацію, перекладати між мовами та виконувати багато інших завдань, пов’язаних із обробкою природної мови.

Процес навчання LLM включає етап попереднього тренування (pre-training), під час якого модель опрацьовує величезні масиви текстів з інтернету, книг, статей та інших джерел, вивчаючи статистичні закономірності мови та накопичуючи знання про світ. Після цього багато моделей проходять етап налаштування (fine-tuning) з використанням методів навчання з підкріпленням за допомогою зворотного зв’язку від людини (RLHF), щоб зробити їх більш корисними, точними, безпечними та узгодженими з людськими цінностями та потребами.

З розвитком технологій, сучасні LLM еволюціонували від простих текстових моделей до мультимодальних систем, які можуть працювати не лише з текстом, але й із зображеннями, аудіо, відео та іншими типами даних. Це розширює їхні можливості та дозволяє використовувати їх для створення контенту, програмування, аналізу даних, автоматизації бізнес-процесів, освіти, розваг та багатьох інших галузей. Незважаючи на вражаючі можливості, LLM мають обмеження, зокрема можливість галюцинацій (видача неправдивої інформації), упередженість, залежність від якості навчальних даних та етичні виклики, пов’язані з їх використанням.

Читайте нас у Telegram: головні новини коротко

Остафійчук Ярослав
Редактор