Після довгого очікування OpenAI нарешті випустила нову модель GPT-4, велике оновлення базового фреймворку, що лежить в основі їх шалено популярної системи ChatGPT, а також API GPT-3.5.
У новому випуску GPT-4 є багато нового. На основі ранніх прикладів, документації API і зразків коду, наданих OpenAI, ось п’ять важливих речей, які потрібно знати про нову модель. Як і очікувалося, 14 березня 2023 року OpenAI офіційно запустив новий сервіс GPT-4.
Якщо ви були одним з перших користувачів, які заплатили $20 за підписку на сервіс ChatGPT Plus від OpenAI, ви отримаєте значну винагороду – і серйозну віддачу від своїх інвестицій.
Користувачі ChatGPT Plus – це перші люди, які отримали доступ до нової платформи GPT-4. Якщо ви підпишетеся на ChatGPT Plus, ви зможете одразу ж почати користуватися GPT-4.
Багато людей запитували, навіщо платити гроші за підписку на сервіс Plus, якщо ChatGPT є безкоштовним. Очевидно, для того, щоб отримати швидкий доступ до оновлень нових моделей!
Мультимодальність
Перед виходом GPT-4 було багато спекуляцій щодо того, чи залишиться вона лише текстовою моделлю, як ChatGPT, чи стане мультимодальною моделлю.
Мультимодальні моделі здатні працювати з широким спектром типів медіа як на виході, так і на вході – від тексту до зображень і, зрештою, відео.
На даний момент GPT-4, схоже, підтримує зображення як на вході, так і на виході. Спочатку ця можливість доступна лише одній сторонній компанії, яка допомагає OpenAI тестувати обробку зображень.
Як тільки система стане швидшою, зображення як вхідні дані стануть доступними для більшої кількості користувачів.
Але OpenAI має кілька прикладів того, як це може бути в кінцевому підсумку. Один з прикладів включає фотографію яєць і борошна з кулінарним запитом.
GPT-4 рекомендує рецепти, які можна приготувати з інгредієнтів, зображених на фото
Модель також можна використовувати для підписів до зображень або написання чудового альтернативного тексту для зображень на веб-сайтах. Відео поки що не доступне, але, ймовірно, воно скоро з’явиться, оскільки GPT-4 є мультимодальною.
Існує API
OpenAI надасть API-доступ до нової моделі майже одразу. Компанія опублікувала список очікування після запуску GPT-4 і повідомила, що деякі розробники отримають доступ в день запуску.
Очікується, що багато компаній почнуть інтегрувати GPT-4 в свої продукти майже відразу. Багато з них вже інтегровані з існуючими API від OpenAI, тому перехід на GPT-4 не складе труднощів.
Він може обробляти набагато більше даних
Оригінальний ChatGPT міг обробляти 4096 токенів. Це приблизно 5 000 слів тексту.
Це обмеження включало в себе як текст у підказці ChatGPT, так і вихідні дані системи. Обмеження не дозволяли системі аналізувати великі документи або писати довгі пости в блогах чи навіть книги.
Обмеження, ймовірно, було пов’язане з вартістю/обчислювальними витратами. Чим більше токенів ви додаєте до великої мовної моделі, тим більше обчислень потрібно виконати моделі для обробки тексту, а отже, тим дорожче вона коштує.
GPT-4 значно розширює ці обмеження. За замовчуванням GPT-4 може обробляти 8000 токенів прямо з коробки. Він також може підтримувати до 32 000 токенів. Це приблизно 50 сторінок тексту.
Обробка більшої кількості даних дозволить системі обробляти набагато більше інструкцій, писати довші статті і, можливо, навіть писати дуже довгі документи або повноцінні літературні твори.
Також вам може бути цікава наша стаття Що дасть Україні вступ до ЄС
Він краще справляється з людськими завданнями і тестами
ChatGPT під управлінням GPT3.5 міг складати іспити, орієнтовані на людину, такі як адвокатський іспит, але лише частково.
Система, як правило, отримувала оцінку на нижній межі прохідного балу – трійку або близько того. GPT-4 навчили виконувати ці людські тести і завдання набагато краще.
Тепер модель виконує багато стандартних іспитів не гірше за найкращих студентів. Іспити з природознавства AP, GRE і навіть LSAT – GPT-4 може легко набрати 10% найкращих результатів.
Він все ще жахливий в англійській літературі. Але такі завдання, як іспити з математики, де GPT-3.5 не впорався, GPT-4 значно покращив.