Поділитись:

Штучний інтелект: що буде, якщо людині не вдасться проконтролювати технологію

Середа, 01 березня 2023, 09:00

Людство постало перед викликом – штучним інтелектом. 

Сьогодні немає жодного політичного або філософського лідерства, щоб спрямувати нові відносини між людиною і машиною. Що буде, якщо людині не вдасться проконтролювати нову технологію? Про це в резонансній статті для The Wall Street Journal пишуть Генрі Кіссінджер, Нобелівський лауреат і колишній Державний секретар США, Ерік Шмідт, генеральний директор Google (2001-11), а також Деніел Гаттенлохер, декан коледжу комп’ютерних технологій Массачусетського технологічного інституту.

Їхня спільна публікація, яка з’явилася кілька днів тому на сторінках The WSJ, викликала широке обговорення по всій планеті. Троє відомих інтелектуалів виклали маніфест занепокоєння можливими наслідками неосмисленого і неконтрольованого поширення штучного інтелекту.

На їхній погляд, треба розробити нові концепції людської думки і взаємодії з машинами, і саме це є головним викликом епохи штучного інтелекту.

Київський безпековий форум поділився конспектом головних тез цієї статті.

***

Нова технологія передбачає трансформацію процесу людського пізнання – зміна, якої не було з часів винайдення друку. Технологія, завдяки якій було надруковано Біблію Ґутенберга в 1455 році, дозволила широко і швидко поширювати абстрактне мислення людини. Але нові технології розвертають цей процес. Друкарський станок сприяв розквіту думки людини. Нова технологія націлена на власне вдосконалення. В ході цього процесу виникає розрив між людським знанням і людським розумінням. Якщо ми хочемо успішно здійснити цю трансформацію, треба розробити нові концепції людської думки і взаємодії з машинами. Саме це – головний виклик епохи штучного інтелекту.

Нова технологія, яка називається генеративний штучний інтелект (ГШІ). ChatGPT (Generative Pre-Trained Transformer), розроблений дослідницькою лабораторією OpenAI, тепер може спілкуватися з людьми.

Зростання його можливостей буде впливати на переосмислення людського знання, прискорювати зміни в структурі нашої реальності і реорганізовувати політику і суспільство.

Генеративний штучний інтелект становить філософський і практичний виклик у масштабі, небаченому з часів Просвітництва. Друкарський станок дозволив вченим швидко відтворювати висновки один одного і ділитися ними. Небачене зосередження інформації і її поширення створили науковий метод. Те, що було непроникним, стало відправною точкою для пошуку… Глибини всесвіту можна досліджувати доти, доки не будуть досягнуті нові межі для людського розуміння.

Генеративний штучний інтелект також відкриє революційні шляхи для людського розуму і нові горизонти для консолідованого знання. Але помічаємо категоричні відмінності з попередніми епохами. Пізнання досягалося поступово, людство йшло крок за кроком, перевіряючи і навчаючись з кожним цим кроком. Системи з підтримкою штучного інтелекту рухаються з іншого боку. Вони можуть зберігати і дистилювати велику кількість інформації, у випадку ChatGPT - багато текстового матеріалу в інтернеті і велику кількість книг, тобто мільярди предметів. Охоплення такого обсягу інформації і її опрацювання виходить за межі людських можливостей.

Складні методи штучного інтелекту приносять результати без пояснень для людського розуму, чому і як працює цей процес… Завдяки якому процесу навчальна машина зберігає, опрацьовує і добуває знання залишається невідомим… Таємниця, пов’язана з навчанням машин, кине виклик людському пізнанню на невідоме майбутнє.

Можливості штучного інтелекту не статичні, а зростають експоненціально у міру розвитку технологій. Останнім часом складність моделей штучного інтелекту подвоюється кожні кілька місяців. Тому генеруючі системи штучного інтелекту здатні стати незрозумілими навіть своїм винахідникам. З кожною новою системою постають нові можливості, чиє походження і призначення незрозумілі. В результаті наше майбутнє тепер містить цілком новий елемент таємниці, ризику і сюрпризу.

По суті, високо складний штучний інтелект поглиблює людське знання, втім не людське розуміння – явище, яке практично повністю суперечить всій сучасній епосі після Просвітництва. Водночас штучний інтелект, поєднаний з людським розумом, виступає потужнішим засобом відкриття, ніж суто людський розум.

Таким чином, сутнісна різниця між епохою Просвітництва та епохою штучного інтелекту є пізнавальною-когнітивною, а не технологічною. Після Просвітництва філософія супроводжувала науку. Дивовижні нові дані і часто парадоксальні висновки, сумніви і невпевненість пом’якшувалися всеохопними поясненнями людського досвіду…

На сьогодні не сформовано жодного політичного або філософського лідерства, щоб пояснити і спрямувати ці нові відносини між людиною і машиною, до певної міри залишаючи суспільство без орієнтиру…

***

Довгострокова важливість генеративного штучного інтелекту виглядає значимішою, ніж будь-які комерційні зиски чи навіть некомерційні наукові відкриття. Штучний інтелект не лише генерує відповіді  він породжує фундаментальні філософські запитання. Це впливатиме на дипломатію і безпекові стратегії. Але ніхто з творців цієї технології не займається проблемами, які вона сама створить. Уряд Сполучених Штатів теж не досліджував фундаментальні зміни і трансформації, які вимальовуються перед нами.

Насправді штучний інтелект створює нелюдський аналог пізнання. Хоча ми розглядаємо штучний інтелект з людської точки зору, його помилки не є помилками людини; він робить помилки іншої форми інтелекту, базованому на розпізнанні образів і моделей. Люди не мусять ідентифікувати ці помилки як помилки. Чи зможемо ми розпізнати ці хиби і недоліки такими, якими вони є? Чи зможемо виробити метод перевірки, що здатен поставити під сумнів достовірність та межі відповідей моделі, навіть якщо ми наперед не знаємо правильних відповідей?..

***

Деякі наслідки можуть стати незворотними. Чим менше ми почнемо використовувати власний мозок, а більше вдаватися до допомоги машин, тим швидше людина почне втрачати окремі здібності. Наша власна здатність критично мислити, писати і (в контексті текстово-образних програм, як Dall-E і Stability AI) творити може атрофуватися. Вплив генеративного штучного інтелекту на освіту може проявитися в тому, що майбутні лідери будуть слабше розрізняти те, що вони інтуїтивно сприймають і що поглинають механічно. Це також може призвести до того, що лідери опановуватимуть переговорні методи у роботі з машинами, а військові стратегії – з новими поколіннями штучного інтелекту, а не з людьми за комп’ютерними терміналами…

Вкрай важливо, щоб ми розробили складну діалектику, яка дозволить людям оспорювати інтерактивність генеративного штучного інтелекту – не лише, щоб виправдати або пояснити відповіді штучного інтелекту, але й для того, щоб допитувати їх. Зі скептицизмом ми повинні навчитися методично досліджувати штучний інтелект та оцінювати, до якої міри його відповіді заслуговують довіри. Це потребуватиме свідомого пом’якшення наших несвідомих упереджень, а також ретельної підготовки і багатої практики…

Використання нової форми інтелекту потягне за собою певний ступінь прийняття її впливу на наше самосприйняття, сприйняття реальності і самої реальності. Як це визначати і означувати? З цим доведеться розбиратися в кожному конкретному контексті…

У міру того, як технологія ставатиме доступнішою, вона матиме глибокий вплив на міжнародні відносини. Якщо технологія знання не стане загальнодоступною, імперіалізм може націлитися на привласнення і монополізацію даних, щоб заручитися найновішими досягненнями в галузі штучного інтелекту. Моделі можуть давати різні результати залежно від зібраних даних. На основі різних баз знань і, відтак, різного сприйняття викликів може відбутися розшарування рівнів розвитку різних суспільств.

Досі більшість роздумів над цими питаннями ґрунтувалися на уявленні про узгодженість між людськими цілями і машинними стратегіями. А що буде, якщо взаємодія між людством і генеративним штучним інтелектом піде не так? Що буде, якщо одна сторона розцінить цілі іншої як злочинні?

Поява непізнаваного і, здавалося б, всезнаючого інструмента, здатного змінити реальність, може викликати відродження містичної релігійності. Можливість групового підпорядкування авторитету, чиї судження значною мірою недоступні його підданим, не раз траплялися в історії людини. Найбільш драматично це відбувалося у 20-му столітті, коли великі людські маси ставали поневоленими ідеологічними лозунгами з обох сторін політичного спектру.

Може виникнути третій спосіб пізнання світу, який не є ані людським розумом, ані вірою. Що станеться з демократією в такому світі?

Лідерство, ймовірно, стане зосередженим в руках меншої кількості людей та інституцій, які контролюватимуть доступ до обмеженої кількості машин, здатних на високоякісний синтез реальності. Через колосальну вартість їхньої обчислювальної потужності, найефективніші машини в суспільстві знаходитимуться в руках малих внутрішніх підгруп і під контролем міжнародних надпотуг. Після перехідного етапу старші моделі стануть дешевшими, і в суспільстві та серед держав може розпочатися розподіл влади.

У цьому контексті дуже важливо посилити моральне і стратегічне лідерство. Не маючи керівних принципів, людство зазнає ризику підкорення або анархії, необмеженої влади або нігілістичної свободи. В новій формі постане потреба узгодити головні суспільні зміни з етичними поясненнями і новим баченням майбутнього. Якщо принципи, висунуті ChatGPT, не будуть перевтілені у зрозуміле для людини явище, може настати відчуження суспільства або навіть революція.

Без належного морального та інтелектуального підґрунтя машини, які використовуються в управлінні, зуміють радше встановити контроль, а не посилити людяність і заженуть нас в пастку назавжди…

Це накладає певні вимоги, щоб справитися з нашим неминучим майбутнім. На різних рівнях безпеки потрібне забезпечення довіри до штучного інтелекту – в точності і безпеці машин, в узгодженні цілей штучного інтелекту з людськими цілями і в підзвітності людей, які управляють машиною. І навіть в міру того, як системи штучного інтелекту ставатимуть технічно надійнішими, людям все одно доведеться шукати нові, прості і доступні шляхи осмислення і, найважливіше, оспорювання структур, процесів і результатів систем штучного інтелекту…

Людям доведеться навчитися стриманості в нових умовах. Проблеми, які ми ставимо перед системою штучного інтелекту, слід буде відповідально усвідомити на новому рівні узагальнень і висновків. Нам будуть необхідні сильні культурні норми – більшою мірою, ніж правові, - щоб стримати нашу суспільну готовність покластися на машини як на арбітрів нової реальності. Ми знову ствердимо нашу людськість, якщо забезпечимо, аби машини залишилися суто об’єктами.

Насамперед треба адаптувати освіту. Діалектична педагогіка, яка використовує генеративний штучний інтелект, може створити швидший і більш індивідуалізований спосіб навчання, ніж це було можливо в минулому. Вчителі повинні навчати нових вмінь, зокрема відповідальних способів спілкування людини з машиною. По суті, наші освітні і професійні системи повинні зберегти уявлення про людину як моральну, психологічну і стратегічну істоту, яка володіє унікальною здатністю робити цілісні судження.

Машини будуть розвиватися значно швидше, ніж наші гени, викликаючи внутрішні зміщення і міжнародні розходження. Ми повинні реагувати зі співрозмірною швидкістю, зокрема в царині філософії та концептуалізму, на національних і міжнародному рівнях. Як три століття тому передбачав Іммануїл Кант, людська згода постане або внаслідок уявлення, або катастрофи.

Ми повинні врахувати одне застереження до цього прогнозу: що станеться, якщо цю технологію не вдасться повністю проконтролювати? Що, якщо завжди будуть способи генерувати брехню, фальшиві фотографії і фейкові відео, а люди ніколи не навчаться не вірити тому, що вони бачать і чують?

Людей вчать з дитинства вірити тому, що вони бачать і чують, а це вже може бути не так внаслідок генеративного штучного інтелекту. Навіть якщо великі платформи, за правилом і приписом, роблять все можливе, щоб позначити і відсортувати поганий контент, ми знаємо, що раз побачений контент вже не стане непобаченим. Здатність повністю управляти і контролювати глобально поширений контент – це серйозна і нерозв’язана проблема.

ChatGPT дає більше запитань, ніж відповідей. На сьогодні у нас є таке нове і вражаюче досягнення, яке складає славу людському розуму, як штучний інтелект. Ми ще не визначили його призначення. Оскільки ми стаємо Людиною Технічною (Homo Technicus), ми повинні визначити мету нашого виду. Саме людина має дати справжні відповіді.

ЧИТАЙТЕ ТАКОЖ: 

Надрукувати
мітки:
коментарів