Чат GPT

РОЗМОВА ПРО ЧАТ GPT

Спілкувалися: Соломія Волошин – студентка першого курсу філологічного факультету, Ірина Пелех та Юлія Васьків – фахівці відділу маркетингу та комунікації.

Респондент: Богдан Павлишенко, професор кафедри системного проєктування, доктор фізико-математичних наук.

Чат GPT (Generative Pre-trained Transformer) – це велика мовна модель, розроблена компанією OpenAI. Ця модель базується на технології глибокого навчання і здатна генерувати текст на основі вхідних даних. Вона була натренована на великій кількості текстів з Інтернету, що дозволило їй засвоїти значну кількість знань про мову і світ. Вона може відповідати на запитання, писати тексти на будь-яку тему, виконувати завдання з автоматичного перекладу та багато іншого.

Саме так сама себе описує нова розробка компанії OpenAI – чат GPT. Нещодавно мовна модель стала доступною в Україні, тому ми вирішили розібратись, як це працює, які існують недоліки машини та що ж на нас чекає у майбутньому. У цьому нам допоміг професор кафедри проєктування, доктор фізико-математичних наук Богдан Павлишенко.

Що ж таке загалом чат GPT та як він працює? Які ще є розробки в цієї компанії?

Чат GPT розшифровується як Generative Partained Transformer, тобто емеративний натренований трансформер. Це така форма моделей машинного навчання на нейронах, так звана лінгвістичні моделі, яка враховує контекст та послідовність слів за допомогою механізму уваги (Attention Mechanism). Трансформер може враховувати слово у вигляді багатомірного вектора, тобто враховує його семантику. Це означає, що така трансформерна модель штучного інтелекту оперує не так словами, як їх значеннями та семантичними зв’язками. Також варто розуміти, з чого складається класична трансформерна система. Є два основних складники: encoder, який видає слова із врахуванням їхнього контексту шляхом використання механізму уваги, та decoder, який дає можливість спрогнозувати наступне слово. 

Модель чату GPT є тренованою на масиві усіх доступних у світі текстів. Трансформер бере певну послідовність слів і прогнозує кожне наступне. В такий спосіб і формується певний набір текстів для тренування моделі. За допомогою такої роботи система може узагальнювати патерни різної складності, які існують у мовних послідовностях. Таким чином, ставлячи питання мовному боту, ви отримуєте згенеровану відповідь, яку трансформер формує за допомогою передбачення наступного слова, тобто аналізує послідовність слів у вашому питанні й додає слова, які є ймовірно передбачуваними для нього. Загалом, за цим досить простим принципом чат GPT здатний генерувати цілі тексти за допомогою методу послідовності.

Чому тоді чат GPT не відповідає однаково на одне і теж питання?

Штучний інтелект насправді генерує не одне конкретне слово у відповідь на питання, а аналізує ймовірність використання тої чи іншої фрази у конкретному випадку і підбирає ті слова, які будуть з’являтись з більшою чи меншою ймовірністю. Звичайно, якщо питання буде дуже просте і пряме, то чат відповідатиме однаково, але чим складніший запит, тим важча послідовність, і, відповідно, набагато більше поле інформації для аналізу, що дозволяє генерувати велику кількість схожих, проте різних текстів. 

Які  недоліки ця розробка має зараз? І наскільки швидко модель удосконалюється?

Насправді на даний момент існує багато проблем, пов’язаних із штучним інтелектом, зокрема не лише технічні, але й філософські, такі як дискусія про те, чи є штучний інтелект інтелектом, наприклад.

Для того, щоб глибше розібратись у проблемах чату GPT, потрібно знати, що у machine learning існує певний поділ на 3 основні напрямки:

  • unsupervised machine learning (групування даних за певними ознаками),
  • supervised machine learning (прогнозування впливу певної змінної на інші дані),
  • reinforcement machine learning (наявність інтелектуального агента у певному середовищі, яке регулярно надає йому підкріплення у вигляді винагороди. І в цьому випадку агент намагається оптимізувати свою роботу таким чином, щоб якомога довше працювати із середовищем).

Раніше мовні моделі були на рівні першого напрямку, але от у чат GPT вже є інтегровані певні елементи reinforcement, тобто інтелект вже отримує певну винагороду, спілкуючись з вами. У конкретному випадку винагорода чату GPT – це вдосконалення за рахунок комунікації із мільйонами людей.

Небезпека полягає у тому, що, тренуючись і оптимізовуючи свою роботу, штучний інтелект вчиться надавати вам найбільш точну відповідь, тож, запрограмувавши чат на продаж певного товару, ми побачимо, як він буде вдосконалюватися й обирати таку тактику, яка буде приносити найбільший результат. Тобто такі системи можна перетворити у потужні маніпулятори, що і є загрозою для людства.

Як можна розпізнати текст, написаний штучним інтелектом?

Коли проста людина читає текст із чату GPT, то важко одразу здогадатись, що це не написано людиною. Але не все так просто, адже це не означає, що тепер неможливо цього відрізнити іншим способом. Схожі машини чи моделі можуть розпізнати, чи написаний текст штучним інтелектом. Це пов’язано з тим, що штучно створений текст має певні патерни та закономірності, які іншому трансформеру легко відчитати, адже він працює за схожим принципом генерації слів. Водночас і сам GPT-chat може сказати, чи  писав він той чи інший текст.

Які ще існують цікаві системи штучного інтелекту, окрім чату GPT?

Цікавий варіант є теж на основі Open AI, який називається DALL-E. Це інструмент, який дозволяє згенерувати зображення за текстовим запитом. Його можна попросити намалювати картину певною технікою, задати конкретне місце, яке б ви хотіли бачити на малюнку і навіть описати якісь почуття чи емоції, які потрібно передати. На диво, штучний інтелект досить реалістично зображує сум, любов чи навіть дружбу.

Звичайно, після чату GPT інші компанії теж вже випускають ряд своїх трансформерів. Наприклад, компанія Google запустила штучний інтелект під назвою LaMDA, який може стати конкурентом чату GPT, так само AWS уже пропонує свої діалогові системи. Тому це лише питання часу, як швидко почнуть з’являтись нові, удосконалені, штучні інтелекти. 

До речі, передвісником чату GPT є GPT-3, який генерував штучні голоси і вони могли спілкуватись між собою. Насправді це вражає, бо важко сприймати те, що дві штучні людини можуть спілкуватись між собою, як ми з вами. 

Є різні теорії про штучний інтелект і різні думки про те, як він змінить майбутнє. То чим-таки  загрожує нам ця розробка?

Винахід уже насправді вміє дуже багато всього. Він здатний писати повноцінні комп’ютерні програми чи розв’язувати певні логічні задачі. Звичайно, він допускає помилки, в чомусь має неточності, але це лише перші спроби і це ще далеко не кінцева модель інтелекту. Сьогодні розвиток мовних трансформерів дуже швидкий, і важко передбачити, що буде навіть через декілька років.

Тоді виникає цілий ряд питань. А що, якщо чат GPT може прочитати усі романи у світі, ввібравши в себе найкращі патерни, які існують у змісті цих романів, і напише роман на задану тему, який буде найкращий? Адже ця мовна модель здатна враховувати контекст та семантику взаємозв’язків між різними поняттями. До того ж штучний інтелект навіть може скопіювати стиль конкретного автора. 

Ще один приклад можна побачити уже у фільмі “Ірландець” з Робертом де Ніро в головній ролі. Там актори старшого віку грають і старшу, і молодшу версію свого персонажа. Усе це робота штучного інтелекту. За допомогою нейромережі він здатен змінювати обличчя людини. До речі, так і працюють маски в Instagram, наприклад. Можливо, таким чином колись в майбутньому штучний інтелект зможе згенерувати цілий фільм із штучними акторами. Якщо врахувати швидкість розвитку комп’ютерних мереж, то вже через років 10 це може бути цілком реальним. І тоді буде стояти питання, чим машина буде відрізнятись від людини. Може настати момент, коли вона буде розумнішою за нас, але що ми будемо робити, коли вона буде здатна викликати у нас якісь емоції та почуття?

Він може стати нам навіть другом. Тоді лише питання часу, як швидко штучний інтелект буде впливати на людину на емоційному рівні. І все ж таки, чи можна буде тоді його ідентифікувати як особистість? Дуже важко дати відповіді на ці питання і зрозуміти, як же можна це визначити. Безсумнівно, чат GPT та інші мовні моделі – це великий прорив у науці, лякає тільки те, яким вектором може піти цей розвиток.

Чи ця модель, яка замінює людину у різних сферах, не спричинить появу безробіття? Чи не позбавить людей можливості себе забезпечувати? Бо фактично змінімізується кількість людського ресурсу на підприємствах та в компаніях.

В історії декілька століть тому, приблизно у XVIII-XIX століттях, коли капіталізм тільки розвивався, прийшла автоматизація праці на виробництво, відповідно почали використовувати певні станки, які замінювали людську робочу силу, тому звільнили чимало працівників. Свої біди вони вбачали в механізмах, тож почали масово ламати верстати, але людство вийшло з цієї ситуації. Зараз у нас іде прогрес, у нас іде розвиток, і все змінюється. От коли почався період створення комп’ютерів, то ці перші моделі були тоді дуже прості, примітивні, зокрема у Львівському університеті знаходився комп’ютер який займав пів підвалу, а його память була всього 512 кілобайт. Зараз мобільні телефони мають по 200 ГБ пам’яті, а тоді на тому пристрої проводили наукові дослідження цілого університету. Тобто все йде вперед, тож коли з’являються одні напрямки роботи, то зникають інші. Люди повинні постійно вчитися: сьогодні робити одне, завтра – інше. В демократичних країнах  з ринковою економікою воно десь так і є: люди працюють там, де можуть і хочуть працювати, але вони перед тим себе пробують багато разів у різних сферах. От прийшли автоматизовані системи, які коректують, наприклад, тексти, відповідно стільки коректорів вже не потрібно, отже коректори повинні ставати журналістами, але, певно, й журналістів стільки не потрібно, тому варто себе шукати ще в чомусь іншому, а хоча б і ставати блогерами.

А якщо сучасні діти вже зараз користуються цим чатом, наприклад, просять у нього допомоги із домашнім завданням, то чи не спричинить часте користування такими розробками тотальну лінивість чи небажання пізнавати щось нове?

Багато є критиків, але побутує така приказка: “Дорослі забороняють дітям робити те, чого самі не можуть”.  Тому не варто критикувати такі зміни: зараз все в інтернеті, в дітей же навчання вже декілька років онлайн в силу різних причин. Змінюється час, змінюється реальність, і, можливо, наші діти не будуть читати стільки класики, але в них з’явиться якісь нові круті якості, яких у нас немає. Звичайно, повний доступ до інтернету – це також певною мірою проблема, адже діти зараз  з ранку до вечора в ютубі, в комп’ютерних та мережевих іграх, які їх затягують. Ці додатки так само вже працюють з елементами штучного інтелекту, і алгоритм їхніх дій побудований у такий спосіб, щоб надовго захопити, притягнути увагу, заохотити придбати якісь додаткові атрибути тощо.

Де саме використовується штучний інтелект ? 

Штучний інтелект зараз в нашому житті скрізь: коли зайти на ютуб щось подивитися, то він вже дає рекомендації. Той самий супермаркет також побудований у такий спосіб, щоб люди максимально все купували, адже не просто так найбільш потрібні товари знаходяться в самому кінці: так клієнти проходять через всі відділи й мимоволі обирають ще щось. Ціни та знижки на товари встановлені знову ж таки за допомогою алгоритмів штучного інтелекту: вони зроблені так, аби забезпечити  прибуток компанії на довгий час, щоб, аналізуючи карти постійних клієнтів, розуміти, що купують найбільше і пізніше за допомогою алгоритмів штучного інтелекту узагальнювати дані й виробляють тактику. Коли політики щось говорять на публіку, вони часто вже мають оброблені різними системами штучного інтелекту гіпотетичні результати, тож розуміють, що хоче почути народ.

Під час затору водії заходять на гугл-карти й бачать, скільки часу він триватиме і які є шляхи його оминути. Тут система починає працювати ще тоді, коли люди встановлюють собі якийсь застосунок і натискають “я погоджуюсь з усім…”, а там сказано, що застосунок має право надсилати сигнал місця знаходження. Таким чином водії, що стоять на цьому місці й встановили той чи інший застосунок, є предметом аналізу штучного інтелекту. З іншої сторони супутник бачить, що тут є дорога, тож програма підказує, куди краще проїхати, – це корисна функція.

Колись штучний інтелект буде  говорити з населенням, буде  підказувати, вести по житті, давати поради, ну але мінус у тім, що людина тут вже не самостійна, вона не приймає ці рішення, не доходить до цих рішень шляхом спроб і помилок, які запам’ятовуються на все життя.

Чи може GPT Chat якось нашкодити українцям в час війни (в сенсі, чи можуть ним скористатися росіяни на свою користь у боях)?

Безперечно, маніпулятивний вплив здійснюється, проте ці технології є набагато сильнішими та більш відпрацьованими. Chat GPT – це дитяча забавка в порівнянні з тими технологіями, які використовуються для маніпулювання людьми на окупованих територіях. Специфіка цих воєнних маніпуляцій насамперед полягає в закритті широкого доступу до інформації, пропозиції лише однобічної інформації, і тоді велика кількість людей починає мислити в цей спосіб, тільки меншість шукає диверсифіковану інформацію та робить власні висновки. Наприклад, в моделях, які аналізують і прогнозують фінансові ринки, вже давно враховані всі ці потоки, всі ці тренди, які є в новинах, які є в соціальних  мережах. 

Чи використовують українці це все забезпечення для війни в кіберпросторі?

Кожна особа має свою громадську позицію і, безперечно, її висловлює, але коли ворог при цьому використовує методи, які підсилюють його голос, його наративи в тисячі разів, шляхом відповідних акаунтів, то ваш голос може губитися. Саме тому сьогодні в цілому світі є технології протидії таким маніпуляціям, а соціальні мережі навіть мають відповідну політику з пошуку і видалення таких акаунтів, за допомогою яких здійснюються ті чи інші впливи.

Чи пробували ви користуватись GPT чатом ?

Чат GPT пише поки що досить примітивно: я йому сказав напиши вірш про Карпати, ну він написав це досить смішно. Там, звичайно, є  якісь поетичні засоби:  “велич Карпат” і так далі. Ну й поки що це білий вірш, там нема рими, але це лише перші спроби, перша ластівка, яку ми зараз бачимо, але за років 5 він зміниться дуже сильно.

Чи може людина в мистецтві бути кращою за машину ?

Машина, звичайно, обжене людство на якомусь етапі, адже якщо сказати митцю, що цей твір гарний/поганий, то він може це врахувати чи, навпаки, оскаржити. Натомість штучний інтелект використовує будь-яку інформацію для підкріплення. І от коли такі підкріплення дали мільйон людей, то машина вже знає як написати так, щоб це сподобалось читачу. Якщо штучному інтелекту поставити таку ціль, то йому не треба тут бути геніальним, це просто алгоритм працює і дає таку відповідь, яка буде геніальною навіть на рівні всесвітніх класиків, але не копіюватиме їх, адже буде згенерована на основі досвіду текстів та думок багатьох людей. Саме тому людина завжди маю розвиватися і відчувати ту тонку межу тенденцій.