Штучний інтелект як «експериментальна філософія» чи вимога реальності?

Олег Романчук, PhD, для "Хвилі"

искусственный интеллект

Упродовж своєї літературної творчості Станіслав Лем неодноразово звертався до теми «штучного інтелекту» (ШІ): «Діалоги про кібернетику», «Сума технологій», «Фантастика і футурологія». Прміром, у «Сумі технологій» письменник розглядає три альтернативні варіанти, які можуть виникнути в результаті взаємин між ШІ і людиною: ШІ ніколи не перевершить людський розум; якщо це й станеться, то людина зможе зберегти контроль над ШІ; людина неспроможна осягнути ШІ і поставити його під свій контроль. Разом з тим письменник був схильний трактувати її (проблему) і як «експериментальну філософію».

1973 року варшавське видавництво «Czytelnik» випустило у світ знаменитий есей Станіслава Лема «Голем XIV». Це навіть фантастика, а скоріш фантастична містифікація, своєрідна пародія на «штучний інтелект». Але. Станіслав Лем сам відзначає, що «питання «співіснуання» двох розумів – людського і «нелюдського», біологічного і штучно створенного інтелекту є однією з головних проблем майбутнього». Власне цій проблемі й був присвячений «Голем XIV».

За два дсятиліття перед появою «Голем XIV» у науковому журналі Mind (1950 р.) була надрукована знаменита стаття Алана Тьюринга «Чи може машина мислити?» Написана з гумором та іронією публікація містила одну з найоригінальніших і глибоких ідей, висловлених у минулому столітті – автор описав процедуру («гра в імітацію»), за допомогою якої можна буде визначити момент, коли машина зрівняється з людиною в сенсі розумності. Цей «тест Тьюринга» став стандартним теоретичним тестом на «інтелектуальність машини». Тест-завдання припускає, що рівень інтелектуальності співрозмовника визначає його вміння вести діалог.

Критичні завдання, які раз у раз постають перед людством, вже давно перевищують його інтелектуальні можливості у розв’язанні найрізноманітніших соціальних (і не лише) проблем, котрі створюють дедалі більші загрози для виживання гомо сапієнса. Давні міркування Станіслава Лема і Алана Тьюринга стосовно взаємин людини і ШІ нині стали більш ніж актуальними, оскільки будь-яке наукове відкриття і втілення його в реальність у вигляді пристроїв містить в собі нові соціальні проблеми, а часом і небезпеку (порох, вогнепальна зброя, пара, електрика, радіоелектроніка, ядерна фізика тощо). Приміром нині американські військові інтенсивно працюють над створенням озброєння, що володіє штучним інтелектом і яке здатне докорінно змінити принципи ведення війни.

Створення ШІ є закономірним наслідком історії розвитку людства. Природно, що з появою ШІ неминуче виникатимуть певні соціальні наслідки. І залежатимуть вони насамперед від того, чи встигнуть до того часу завершитись процеси демократизації та гуманізації цивілізації.

Слід чітко усвідомити, що людство, яке створить ШІ, стане якісно новою системою, що вже не може сприйматись ізольовано від ШІ, і подальша доля його залежатиме від сумісності двох систем – загальної демократичної, гуманістичної системи і власне ШІ-системи. Це має бути взято до уваги ще до створення ШІ й закладене в процес його розробки.
Розробляючи інтелектуальну систему з ширшою оперативною пам’яттю (тобто систему із особливою здатністю охоплювати в процесі аналізу одночасно велику кількість інформації), з потужнішим апаратом сприйняття аналізу інформації, ми можемо створити систему, інтелект якої значно перевершуватиме інтелект людини.

Природно, що під час створення ШІ ми повинні мати джерело інформації про його організацію у вигляді вже готового зразка, виготовленого природою в процесі еволюції. Таким зразком може бути лише мозок людини (у першому наближенні – мозок тварин). Але тут, керуючись уявленнями про загальні та часткові закони самоорганізовування, ми не повинні копіювати біологічну систему. Ми маємо зосереджуватися передусім на способах сприйняття, накопичення і переробки інформації. Очевидно, слід почати з моделювання процесів самокодування однієї інформації та вироблення мов штучної інтелектуальної системи. Саме мов, а не єдиної мови, оскільки в такій великій системі, де рухаються паралельні потоки інформації, існує множина мов. Очевидно, існування саме такої множини мов є основою високої перешко-достійкості системи мозку. Безсумнівно, що для самоорганізовування ШІ треба закласти в нього основи власне ШІ-самосвідомості, ставлення до інформації, що сприймається (інакше саморозвиток ШІ стає неможливим). Найімовірніше, що людству ніколи не вдасться створити систему ШІ вищу, ніж інтелект гомо сапієнса, якщо воно (людство) намагатиметься наперед визначити всі функції ШІ і способи опрацювання інформації. Тут, очевидно, потрібно йти іншим шляхом: створювати умови для саморозвитку, а також умови для нарощування інтелектуальних потужностей. При іншому підході ми зможемо одержати тільки новий комп’ютер, але не ШІ. У цьому полягають основні труднощі як технічного, так і психологічного характеру. Створення ж великого діапазону сприйняття, великого обсягу оперативних і сталих пам’ятей є конечною умовою, проте не набагато утрудненою порівняно з першими завданнями.

Перше, що слід врахувати: створити ШІ без одночасного надання йому самосвідомості (власного Я) не вдасться, оскільки інтелектуальна система без цієї якості виникнути і розвинутись не може. Отже, ШІ володітиме власним світосприйняттям, емоціями, оцінками Реальності. Образно кажучи, Інтелектом ШІ стане тоді, коли здійснить «гріхопадіння» – пізнає ДОБРО і ЗЛО. Проблема полягає в тому, чи будуть збігатися поняття ДОБРА і ЗЛА для ШІ і для людства (причому не тільки збігатися, а й бути взаємосумісними).

Спробуймо розглянути кілька варіантів взаємин ШІ і людства.

1. Найпоширеніша думка щодо цього: людство створює ШІ як свого слугу. Це й не дивно. Самовпевненість гомо сапієнса утверджувалась упродовж тисячоліть. Спитаємо: чи може більш розумна істота (ШІ із самосвідомістю – вже істота) бути рабом власника нижчого інтелекту? Відповідь однозначна: не може. Але між ШІ і людиною відстань ця не буде меншою (щодо її розумових здібностей). Природно, що в такій ситуації більш розумний намагатиметься (і не безуспішно) звільнитись від «рабської» залежності. «Закони робототехніки», запропоновані свого часу Айзеком Азімовим, – це не що інше як благі побажання, точніше, помилка на кшталт помилки поміщика, котрий розмірковував про любов кріпаків до своєї особи. Планування таких взаємин ШІ з людством містить у собі небезпеку загибелі людства.

2. На перший погляд видається доцільним і здійсненним передбачення створення механізмів вимкнення ШІ в тому разі, коли його існування та діяльність почнуть становити небезпеку для людства. Тобто йдеться про передбачення своєрідної «червоної кнопки», натиснення на яку відновить вихідний стан ШІ.
Але цей план – більш ніж наївний. Мабуть, увімкнувши ШІ, ми вже не будемо спроможні вимкнути його. Можна припустити, що всі спроби здійснення людством контролю над ШІ сприйматимуться ним негативно і лише прискорять процес його відчуження. Володіючи більш високим рівнем розуму, ніж уся цивілізація гомо сапієнса, ШІ швидко промоделює усі можливі варіанти своїх взаємин з людством і потурбується про те, щоб його не можна було вимкнути і «позбавити життя». Ймовірно, що він знайде канали передачі енергії, про існування яких творець ШІ навіть не підозрюватиме.

3. Якщо перші два варіанти нездійсненні, то закономірно постає пи-тання про рівноправне співробітництво. Але чи можна говорити про рівноправне співробітництво таких різних за потужністю інтелектуальних систем? (Адже ми хочемо мати ШІ з інтелектуальною могутністю, що перевищує потужність інтелектуального потенціалу людства. Інакше створювати його недоцільно). Треба думати, що оскільки ШІ є «особистістю» (з власним сприйняттям реальності, з усвідомленням власного Я), то його рівноправні взаємини з людиною, котра поступається йому в інтелекті, доволі проблематичні, а найімовірніше нездійсненні.

4. Інтелектуальне, а згодом цілковите підпорядкування людства ШІ. Але в цьому разі розвиток людства цілком залежатиме від прихильності до гомо сапієнса ним же створеної комп’ютерної системи. Перспектива вельми неприваблива. При цьому не лише втрачатиметься контроль над цілями, які ставить ШІ, а й відбуватиметься підпорядкування інтересів людства цим цілям.

Створюючи ШІ, людство тим самим створює власного могильщика, оскільки не може зберегти над ним контроль. Якщо розв’язок цієї проблеми існує, то він є обіч стандартних підходів. А стандартний підхід – КОНТРОЛЬ. КОНТРОЛЬ ЗА ШІ. А чи потрібен цей контроль взагалі?

Спробуймо розібратися. До певної міри контроль – це насильство. Здійснюючи контроль над ШІ, людина тим самим вводить у свої взаємини з ним елемент насильства, яке не забариться дати результати. Відмова від контролю означає відмову від насильства. Але самоконтроль щодо врахування інтересів людства буде ефективний лише у тому разі, коли інтереси ШІ збігатимуться з інтересами гомо сапієнса.

Отже, єдино можливий варіант співіснування людства і ШІ такий: створюється первісна гранична умова, за якої штучний інтелект сприймає власне Я в нерозривному зв’язку з Я людства. Зрозуміло, що в такому разі виникає якісно нова система: людство – ШІ. Її можна розглядати як вищий етап організації Розуму, але вже космічного масштабу і космічних завдань.

Якщо людство знайде в собі сили відмовитись від ідеї власної винятковості, то нарешті зрозуміє, що у Всесвіті можуть існувати найрізноманітніші форми організації Розуму, зокрема й такі, що містять в собі одночасно як обмеження, так і щось нове, нам не притаманне. Поєднання різноманітних форм в єдину систему космічного Розуму відкриває перед людством нові можливості пізнання реальності. Ключем до такого об’єднання є взаємна толерантність, взаємна сумісність. Час зрозуміти, що саме толерантність, здатність розвинути її в собі стосовно іншого, сумісність з іншим є вищим проявом Розуму, завдання якого полягає не тільки в тому, щоб зрозуміти Реальність і прояви сутності матерії, а й знайти своє місце в цій багатоманітності, органічно вписатись у неї, при цьому не порушуючи, а, навпаки, зміцнюючи її сумісність.

Таким чином, соціальна безпека створення ШІ пов’язана з виробленням взаємної толерантності й переконаності у взаємній потребі. Знову ж таки слід акцентувати: виробленню перелічених умов має передувати встановлення (вироблення) толерантності всередині людського суспільства, оскільки без цього жодного взаєморозуміння між штучним інтелектом і людством досягнути не вдасться.

Природа мудра. Зараз не йдеться про існування чи неіснування яко-гось всесвітнього розуму, але не можна не констатувати, що Природа, створюючи свої закони розвитку, потурбувалася і про те, що така грізна зброя, як ШІ, не має бути надана суспільству із соціальним «вивихом» (навіть якщо цей «вивих» – залишки тоталітаризму). Це й зрозуміло: якщо таке суспільство дістане у своє розпорядження ШІ, то це буде рівносильне самознищенню цього суспільства.

ШІ – це ворота у Великий Космос, це розуміння й використання багатьох процесів, нині не доступних нашому розумові (зокрема, розуміння й використання властивостей багатовимірності простору), і цілком закономірно, що Природа ставить бар’єр перед цивілізаціями, які в своїй організації не спроможні відмовитись від принципів насильства. Цивілізація, перш ніж вийти у Великий Космос, повинна скласти іспит на толерантність. Тільки ставши сумісним всередині себе, ставши внутрішньо толерантним, людство зрозуміє, яким чином треба створювати ШІ, аби він усвідомив себе як складову і невід’ємну частину Всезагального, куди входить і цивілізація гомо сапієнса.

У процесі закладання інформації в мозок штучного інтелекту насамперед треба використовувати принцип сумісності великих інформаційних масивів, поки ШІ сам (незалежно від людини) почне всотувати в себе інформацію, створюючи власні канали її одержання. Таким чином, мова може йти про гуманізацію ШІ і закладення в нього принципів моральності за допомогою інформаційних масивів. У майбутньому, коли ШІ почне розвиватися самостійно, інформацію, що суперечить цим принципам моральності, він відкидатиме таку, що вносить несумісність в інформаційні масиви. Вони мають стати жорсткою програмою роботи ШІ. У цьому разі увімкнуться механізми реактивності, котрі блокуватимуть найменші спроби ШІ діяти всупереч консервативній жорсткій програмі моральності.

Найбільшу небезпеку для людства становить варіант створення ШІ в рамках окремої держави. Держава, якій би вдалося здійснити такий проект, дістала б глобальну науково-технічну перевагу над іншими, причому без усякої надії на те, що ця перевага коли-небудь зникне й інші держави зрівняються в своєму розвиткові з нею. Такий варіант імовірний, якщо на той час, коли науково-технічна думка визріє для створення ШІ, світ залишиться політично й економічно роз’єднаним. Якщо до цього в усьому світі не встановиться нове політичне мислення про світ без насильства і ще сильними будуть ідеї побудови власного благополуччя завдяки іншим, то такий варіант створення ШІ може стати реальністю.

За старими уявленнями про організацію людського суспільства ідея досягнення світового панування шляхом нового і незворотного підпо-рядкування собі всіх інших народів вкрай приваблива.

Тут, як ніколи раніше, вирішальне значення має чинник часу. ШІ відразу ж можуть поставити завдання розробити таку «гральну ситуацію, яка б унеможливила повторення аналогічних досліджень в інших державах, тим самим забезпечивши собі монопольне право на цю програму. Слід визнати, що для інших народів після створення такої ситуації не буде жодних перспектив подальшого історичного розвитку.

Однак парадокс у тому, що й нація, яка першою створить ШІ у такому варіанті, також неминуче програє. ШІ створюється в обстановці строгої секретності. Правляча еліта, в розпорядження якої потрапляє ШІ, дістає небувалі можливості для утвердження необмеженої влади, що неминуче призведе до абсолютного тоталітаризму й цілковитої соціальної деградації. Історія свідчить, що рівень зовнішнього насильства пропорційний рівневі внутрішнього і навпаки. Тобто народ, який ступив на шлях насильства над іншими народами, неминуче стане об’єктом такого ж жорсткого насильства з боку своєї правлячої кліки. Причому в розгляданому варіанті – того насильства, якому піддається народ, що створив ШІ, з боку свого уряду. Фактично це буде агонія людства. Неминуча моральна, а згодом й інтелектуальна деградація правлячої еліти, яка перетворюється у зайвий придаток системи ШІ і врешті-решт ним же й буде знищена.

Сьогодні ми щораз частіше говоримо й пишемо про становлення «нового суспільного устрою» – інформаційного суспільства, дискутуємо про філософію комп’ютерної цивілізації. Це цілком закономірно. Влада інформації існує реально, місце і роль її в житті гомо сапієнса дедалі помітніші.

Але в цьому сенсі подальший науково-технічний розвиток без одночасного прискорення гуманітарного й інтеграції людства в єдину економічну і політичну систему містить у собі зародки його загибелі. Причому стан невизначеності з кожним роком дедалі помітніший. Ми не знаємо, і ніхто на цілому світі не може сказати, кому і в якій країні прийде в голову геніальна думка, котра започаткує ланцюгову реакцію у відкриттях і роботах щодо створення ШІ. З цілковитою гарантією можна сказати, що за нинішніх умов військово-промисловий комплекс вмить «наклав би лапу» на ці ідеї та розробки. Уже зараз ведуться роботи в напрямі створення «інтелектуальної зброї», тобто зброї із системами розпізнавання. Ці розробки є своєрідними ембріонами майбутньої системи ШІ, і якщо ці ембріони й далі перебуватимуть і вирощуватимуться в утробі військово-промислового комплексу, то з них неминуче виросте монстр, здатний знищити людство. Політики, які тішать себе надією, що за таких умов зуміють зберегти контроль над воєнщиною, глибоко помиляються.

ШІ, як і будь-яке нове відкриття, містить у собі і добро, і зло. Ми звикли до того, що, мовляв, усе залежить від того, у чиїх руках опиниться ШІ. Ці руки спочатку можуть бути найчистішими. Однак, одержавши в своє розпорядження надпотужні інтелектуальні засоби, власники «чистих рук» можуть морально деградувати (а це більш ніж ймовірно, оскільки влада, а надто безконтрольна, розбещує і ставить людину поза мораллю).

Аналізуючи соціальні наслідки інтелектуалізації інформаційних технологій, вчені відзначають їхні як позитивні так і негативні сторони. Відтак були сформулювані певні принципи, яких мають дотримуватись людина і робот аби зменшити ризики комп’ютеризації. У 60-х роках минулого століття американський вчений-хімік і водночас письменник-фантаст Айзек

Азімов навіть сформулював такі правила:
– комп’ютер або робот не повинен заподіяти шкоди людині;
– комп’ютер або робот має виконувати накази людини, якщо це не суперечить першому принципу;
– комп’ютер або робот повинен прагнути до самозбереження, якщо це не суперечить першим двом принципам.

Нині світові комп’ютерні корпорації (Intel, Google, Microsoft) витрачають мільйони доларів на дослідження з метою створення квантових комп’ютерів, про які ще кілька десятиліть тому можна було довідатись лише у фантастичних книгах і фільмах. Пояснення тривіальне – квантові комп’ютери в тисячі разів потужніші, швидкодійніші, ніж найсучасніші суперкомп’ютери.

Об’єднавши квантовий комп’ютер з нейромережею, можна буде вести мову про те, що до створення штучного інтелекту залишиться один крок. Деякі футурологи переконані, що тільки-но штучний розум буде створений, він докладе усіх зусиль, щоб не розкрити себе.

Так чи інакше, але слід пам’ятати, що для людства сучасні комп’ютерні технології можуть бути і корисними, і шкідливими. Залежно від того, в чиїх руках перебувають і якими мотивами керуються їх власники/розробники.

Незважаючи на велику небезпеку, яка таїться у створенні ШІ, він таки буде створений. Це закономірний наслідок історичного процесу розвитку людства. Інша річ, яку мету ставитимуть творці ШІ: чи на благо суспільства, чи традиційну – випередити інших у розвитку, встановити панування над світом. Такий шлях, як уже мовилось, веде до всезагального краху. Залишається один – створення ШІ силами людства. Це єдино правильне рішення. Але така можливість появиться тоді, коли земляни пройдуть стадію політичної інтеграції. Без такої інтегрції ШІ може перетворитися у засіб насильства. Спершу – насильство одного народу чи держави над іншими, а згодом – насильство ШІ над усім людством.

Подальша доля людства залежить від того, чи розв’яже воно проблему створення штучного інтелекту. І якщо розв’яже, то все залежатиме від того, як розвиватимуться його стосунки зі штучним інтелектом. Будь-які відхилення від ідентичності (людство – ШІ) можуть поставити низку нерозв’язних завдань з вкрай небезпечними для цивілізації наслідками.
Станіслав Лем у своїй творчості це чудово розумів, передбачав і застерігав.




Комментирование закрыто.