Денис Довгополий: Синергія філософії і інженерних підходів дає суттєву перевагу

Денис Довгополий: Синергія філософії і інженерних підходів дає суттєву перевагу

600 499 Ethictech

Денис Довгополий:

Синергія філософії та інженерного підходу дає суттєву перевагу

Досьє

Викладач Львівської бізнес-школи УКУ (Технологічне підприємництво). Засновник першого в Уанеті стартап-інкубатора GrowthUP, спів-організатор Startup Crash Test, один із ініціаторів найбільшої в Україні й Східній Європі конференції для інвесторів та підприємців ІDCEE, організатор щорічного Рейтингу Українських Стартапів.

BVU Group, керуючим партнером якої він є, об’єднала в собі компанії й проекти, які працюють у сфері ІT, з метою побудувати стійку екосистему технологічного бізнесу в Україні.

Денис Довгополий. Викладач Львівської бізнес-школи УКУ (Технологічне підприємництво).

—  Нашу розмову почнемо із фундаментального питання: як ти вважаєш, розмови про етичні виклики нових технологій мають під собою певні підстави, чи це всього лиш упередження та страхи?

Д. Д.: Я б швидше говорив про інновації, а технології — це вже їх складова. Найчастіше, виклики, які стоять перед людством, пов’язані з тими речами, яких раніше не було. Сьогодні головна проблема  — це privacy, тому що з розвитком технологій в нас  privacy практично пропало. І деякі люди задумуються, деякі не задумується, але ще десять років тому ніхто не міг уявити, що всі будуть жити «кишками навиворіт», і всі будуть знати все про всіх.

Такі речі у нас вже є, просто ми на них не звертаємо увагу — типовий приклад «вікна Овертона». Те, що вважалося неприйнятним, через 10 років тихо може перетворитися в прийнятне. Про це мало хто думає, більше того, корпорації, які просувають ці інновації, зацікавлені в тому, щоб на це ніхто не звертав увагу, щоб на цьому не акцентували.

— Ок, якщо ми говоримо про технології і інновації, які з них, який набір технологій та інновацій може спричинити найбільший виклик? Які з них найбільш неоднозначні?

Якщо б ми знали, ми могли б застрахуватися. В нас є всього лиш якісь гіпотези, які у 70% випадків точно не підтверджуються. Але є деякі речі, які стануть наслідкам не скільки технологій, як людської природи. Наприклад, зараз я бачу в генній інженерії достатньо велику небезпеку, яка пов’язана з тим, що у людей ще до народження можуть відбирати певну свободу. Припустимо, якщо буде можливість запрограмувати своїх дітей бути геніальними, то мало хто від цього відмовиться. І коли говорять про те, що це неетично, то ми згадуємо про те, що ми ж все-таки своїх дітей відправляємо вчитися туди, куди ми хочемо, а не куди вони хочуть.

Якщо ми навіть в таких речах переступаємо через це, то від можливості отримати генномодифіковану геніальну дитину більшість людей не зможе відмовитися. Тому ось такі морально-етичні проблеми вже скоро будуть дуже актуальними. Адже вже сьогодні є можливість на це впливати. Наприклад, можна вибирати стать дитини, яка в тебе народиться. Оце і є першим кроком,«вікном Овертона», яке вже напіввідкрите. Не бачу особливої різниці в тому, щоб вибрати стать дитини, потім вибрати колір її очей, ріст і, наприклад, схильність до математики.

Це все одне і те ж, я думаю, що з часом моральні бар’єри будуть падати і над людьми знущатимуться ще до того, як вони народилися. Але як з цим боротися — ніхто не знає. Найгірше, що ніхто не думає в цьому напрямку. Таких проблем є досить багато і завжди є виправдання для того, чому варто використовувати таку технологію, чи, навпаки — чому її  не використовувати. Припустимо, зважаючи на те, що сьогодні все відкрито, більшість держав вже мають можливість «влізти» в приватність людини, називаючи це, наприклад, боротьбою з тероризмом. І з одного боку це оправдано, але з іншого — цей інструмент використовують не тільки для боротьби з тероризмом. Те ж саме буде з усіма технологіями. Вони можуть мати як позитивне, так і негативне застосування.

Брак етичних стандартів та відповідей на важливі питання — це те, що може у певний момент поставити людство на межу виживання

— Відповідно, коли ми говоримо про етичні критерії, етичні стандарти, хто їх повинен встановити і звідки брати для них основу? Що нею може бути – наше розуміння природи людини та її призначення, певні уявлення, релігія, гуманістичні концепції?

Д. Д.: У мене немає відповіді на це запитання. Моя позиція з цього приводу дуже проста: якщо всі батьки будуть виховувати своїх дітей на загальноприйнятих етичних нормах, тоді все буде добре. Але проблема в тому, що оці етичні норми у всіх різні. Наприклад, у сім’ї алкоголіків жінку можна чи навіть потрібно бити. А вже, наприклад, у моїй сім’ї це зовсім неприйнятно. І ми не можемо змусити алкоголіка виховувати дітей у моїй системі цінностей.

Тому у мене немає відповіді на це запитання. І, на жаль,  я не думаю, що у когось вона є. Я б навіть сказав, що не стільки виклик, як фактор, який може поставити людство на грані виживання в певний момент.

– Ти згадав про генну інженерію і я б хотів додати той факт, що багато хто побоюється, що генна інженерія плюс штучний інтелект — це буде такий коктейль, вибух якого дуже важко оцінити?

Д. Д.: Я в цьому плані достатньо скептичний. Якщо ми говоримо про штучний інтелект, то мої партнери і загалом люди, які займаються штучним інтелектом, діляться на дві частини: одні говорять про те, що потрібно нарощувати наші обчислювальні можливості і тоді наші алгоритми стануть досконалими і зможуть працювати як мозок; інші, до яких я себе відношу, розмірковують приблизно так: про який штучний інтелект ми можемо говорити, якщо ми не до кінця розуміємо, як працює природний інтелект?

Всі ці хлопці зараз дуже активно дивляться у сферу нейрохірургії, нейрофізики, нейропсихології і розуміють, що там потрібно в дослідження вкласти не один мільярд доларів, щоб зрозуміти, як це працює. А вже потім пробувати це дублювати. Тому все те, що зараз відбувається у сфері штучного інтелекту, я відношу швидше до софістики і вдосконалення алгоритмів, ніж до класичного штучного інтелекту у розумінні того ж Алана Тюрінга. Тому тут я б не дуже боявся, тому що інтелектуальний SkyNet ми не створимо у найближчі 30 років, це точно. Далі буде видно.

Інше питання, чи зможуть нам нашкодити алгоритми? Це хороше запитання, і тут у мене теж немає відповіді. Але у будь-якому випадку я б не боявся штучного інтелекту. На мою думку, треба більше боятися сліпої довіри людей до алгоритмів, які може й передбачувані, але не завжди прийнятні для вирішення певного класу завдань.

— А чи віриш ти в те, що рано чи пізно штучний інтелект своїми можливостями зможе перевершити людський інтелект? Про це зараз багато хто говорить – той же Рой Курцвейл, футурист Google, постійно нагадує про прихід Сингулярності.

Д. Д.: Я прихильник креативістської теорії, і вважаю, що людський інтелект не працював би без Божої іскри. Сподіваюся і притримуються думки, що без цього машини не зможуть нас перевершити. Так, звісно я оцінюю свої ризики, бо, якщо раптом я помиляюся, це може призвести до серйозних наслідків.

Я зараз спілкуюся з достатньо серйозними групами вчених і це дає можливість робити певні висновки.  Так от, я не бачу, як штучний інтелект може перевершити нас. Так, він може швидше рахувати і, можливо, навіть може швидше приймати якісь прості рішення. Наприклад, я бачив лабораторію, яка займається створенням питань для тесту Тюрінга і можу ствердити, що її фахівці добре вивчили можливості нашого інтелекту. Так от, вони формують пул запитань, на які машина принципово не може відповісти. Тобто це не лише алгоритмічні запитання — більшість цих питань не можуть бути вирішені в термінах алгоритмів. Будь-який штучний інтелект опирається на математику, яка є відомою і вивченою, а це означає, що завжди можна сформулювати завдання, вирішення якого лежить поза алгоритмічною парадигмою. А сформулювати таке запитання може хто? Правильно, — людина, її інтелект.

— Але зараз намагаються створити машини, які не будуть запрограмовані у класичний, алгоритмічний спосіб, наприклад, нейромережі. Чи є небезпека в цьому, що ми повністю відтворимо людський мозок?

Д. Д.: Ми не можемо. Ми не знаємо як працює мозок. Ми можемо відтворити його фізично, але ми не знаємо, які процеси там проходять. Грубо кажучи, я не прихильник ідеї, що нам достатньо створити таку кількість транзисторів в одній машині, як нейронів у людському мозку, щоби відтворити функціональність мозку. Це обов’язкова, але недостатня умова для створення штучного інтелекту, потрібно розуміти, як воно буде працювати. Тобто я поки що не бачу в осяжному майбутньому того, що у машині буде відтворений інтелект людини.

Я прихильник креативістської теорії, і вважаю, що людський інтелект не працював би без Божої іскри.

— Ми бачимо, що зараз людина втомилася від рішень, які вона приймає самостійно. Рішення урядів, корпорацій, лідерів часто сприймаються як недосконалі або заанґажовані. Є очікування, що колись ми створимо певну машину (наприклад, про це писав Азімов), і дамо їй право приймати рішення, то можна сподіватися, що такі рішення будуть правильними, незаанґажованими, а ми будемо їм підпорядковуватися. І це, начебто, мінімізує ризики, які зараз існують в суспільстві. Чи може дійсно людина делегувати своє право приймати рішення машині?

Д. Д.: Насправді, деякі може. Наприклад, є повсякденні побутові рішення, які особливо не впливають на наше життя. Наприклад, для мене важлива проблема це те, що зранку одягти. Оскільки я людина проста, то зранку відкриваю шафу, і що випало, те й одягаю.  Але коли мені треба вирішити, що одягнути, враховуючи думку людей, то, якщо б хтось приймав такі рішення, я б із задоволенням прийняв це.

Але у сфері моїх компетенцій, особливо, якщо йдеться про креативні речі: мистецтво, науку, підприємництво, — я не розумію, кому б я міг це довірити. Я впевнений, що машина не зможе замінити ці рішення. По-друге, є такі рішення, які ми не можемо делегувати. До прикладу, зараз дуже активно обговорюються в мережі самокеровані автомобілі. У випадку критичної ситуації він повинен прийняти рішення, кого вбивати: пішоходів чи пасажирів, у якій кількості, хто ці люди і так далі. Але такі рішення загалом делегувати машині не можна, тому що її рішення буде суто математичним, а людське життя  — це не згусток інформації, це все-таки щось значно серйозніше. Тому будь-яке рішення, прийняте людиною, виходячи з її морально-етичних норм, завжди буде значно ефективнішим і головне — більш оправданим у порівнянні з рішенням, прийнятим машиною, навіть якщо це одне й те саме рішення. Рішення, від яких залежить життя людини, точно не можна делегувати.

— Пригадую, якось ти висловив думку про певну переоцінку ролі гуманітарних наук, філософії. З чим це пов’язано?

Д. Д.: Я ніколи не любив гуманітарні науки, особливо філософію. Не розумів, що це за самокопання, занурення в матерії, які не мають ніякого відношення до фізичного світу.

Потім, коли через своє випадкове хобі я почав вивчати історію релігії, я серйозно заглибився в історію метафізики. Щоб розуміти, які рішення приймалися на Вселенських соборах, треба було розуміти, про що там ідеться. І за два роки  я достатньо глибоко «копнув» філософію, особливо в філософію релігії. І тоді раптом з’ясувалося, що мені навіть у бізнесі стало значно легше, тому що я вийшов за межі бінарної системи і почав приймати значно ефективніші рішення.

Я одразу почав звертати увагу на те, що думають люди з класичною гуманітарною освітою. Я спілкувався з людьми, які закінчили, наприклад, такий університет як Острозька академія, де освіта дуже гуманітарна. Ці люди думають трошки інакше. І я побачив, що, напевно, все-таки синергія філософії і інженерних підходів дає дуже сильну перевагу. Чиста гуманітарна наука може бути річчю-у-собі. Але вона може дуже сильно підсилювати інженерну складову, інженерне мислення. І навпаки, інженерне мислення, науковий підхід може дуже сильно збагачувати гуманітарні дисципліни. Тому я в цьому плані за синергію. У світі я поки що не бачу таких терендів. Це, напевне, просто кожна людина росте, розумнішає, мудріє і такі якісь думки приходять.

В одній із прогностичних картин світу, які ми аналізуємо, ми припускаємо, що протягом 20 років у Європі буде велика кривава війна з повністю зруйнованою інфраструктурою і екосистемою. І ми шукаємо проекти, які могли б працювати в умовах зруйнованої інфраструктури

— Популярна трансгуманістична концепція стверджує, що рано чи пізно людина з’єднається з машиною і це буде одна сутність; що ми зможемо транслювати свою свідомість на комп’ютер, комунікувати brain-to-brain чи brain-to-machine. От, власне, з цього погляду, чи самоусвідомлення людини і її природи може змінитися?

Д. Д.: Я думаю, що ні. Мені здається, хоч я можу помилятися, що в даному випадку кількість у  якість не перейде, так само, як в комп’ютері. Тобто, коли людина зможе своєю головою виробляти значно більшу кількість інформації, це не вплине на її морально-етичне поле, кодекс, в рамках якого вона приймає ці рішення, просто вона їх буде приймати значно швидше. Якщо б, наприклад, особа розвивається від високоморальної людини у бік бидла, то вона би просто пройшла цей шлях швидше, і навпаки. Тобто у таких речах я не бачу переходу кількості в якість.

— Добре, інше питання: загроза віртуалізації стосунків, віртуалізації персональності.  Зараз говорять про таку небезпеку, що людина може зайти у віртуальну реальність і не вийти з неї,  і значення фізичних стосунків і тілесності зменшиться. 

Д. Д.: Так, принаймні я її бачу. Ти можеш сам легко це змоделювати, дивлячись на те, що вже зараз у нас є велика кількість людей, яка живе в комп’ютерних іграх, є дуже багато людей, які живуть у своїх мріях. Ти дивишся на людину, а вона не злазить з дивану. Чому вона не злазить з дивану? Тому що вона намалювала собі якийсь віртуальний світ, живе в ньому і їй там дуже добре, їй не потрібно за межі виходити. Ми вже з цим зіткнулися, і чим більше буде інструментарію для такого заглиблення, тим легше буде заглиблюватись. Тому так, таку небезпеку я бачу.

— До речі, «розвіртуалізація», тобто допомога у виході з цієї віртуальної реальності, може стати затребуваною послугою? Можливо, це буде стартапом майбутнього?

Д. Д: Не вірю. Можеш просто зробити звичайний аналіз: скільки алкоголіків чи наркоманів добровільно готові виходити з цього? Це як у фільмі «Матриця» — всі сидять в середині і система противиться виходу людей з матриці. Так, це буде потрібно, цим будуть користуватися люди, але товаром це не стане, тому що люди не будуть бачити потреби, а головне, що у віртуальній реальності вони будуть знаходитися у зоні абсолютного комфорту.

Це та проблема, у яку потрапив наш попередній президент. Дуже бурхливо це обговорювали. Це — тепла ванна. Тобі всередині тепло, комфортно, ти вилазиш, і тобі зразу стає дискомфортно. І цю теплу ванну можна зробити з допомогою певних обставин, комунікацій або ж — віртуальної реальності. Причому віртуальна реальність для цього ідеальний інструмент і вирватися з неї неможливо.

— Тобто ми можемо перетворитися на такий світ?…

Д. Д.: Ми не можемо, ми вже перетворюємося.

— Крім віртуальної реальності, є багато побоювань щодо майбутнього ринку праці. Роботи, які забуреть нашу роботу… 

Д. Д.: Звичайно, вже забирають.

— Чи ми можемо очікувати протестів, як, скажімо, колись протестували лудити проти нових технологій?

Д. Д.: Ніхто про це не думає, але рух лудитів вже є. Фіксований гарантований дохід на кожного громадянина, який намагаються запровадити в Європі, — це є відповідь на ці виклики. І це перший крок до «овочезації» людини.

Тобто працювати не треба, гроші є. Звичайно, шикувати ти не можеш, але базові потреби у тебе задоволенні. Відповідно, формується шаблон, коли людина сидить вдома перед телевізором у шоломі віртуальної реальності, вона їсть, але через те, що їй не доступні якісь речі більш високого рівня, вона може їх отримує всередині віртуальної реальності. Тобто все туди рухається, і я не бачу, як це подолати.

Луддизм (англ. Luddites) — термін, що утвердився в літературі, на позначення перших стихійних виступів робітників мануфактур (наприкінці 18-го — на початку 19 ст.) проти впровадження машин у Великобританії. Назва «Луддизм» походить від імені легендарного підмайстра Неда Лудда (англ. Ludd), який зруйнував свій верстат. Розгортання руху луддитів було викликано розоренням ремісників та робітників мануфактур в ході промислового перевороту. Луддизм став специфічною формою боротьби робітників проти безробіття, що пов’язувалось у свідомості учасників руху із введенням машин. (джерело — Wikipedia)

— Тобто розподіл благ поміняється таким чином, що кожному буде гарантований базовий рівень, а вищі рівні потреб, якщо не говорити про віртуальну реальність, будуть доступними якійсь невеликій групі людей?

Д. Д.: Мені здається, що піраміда Маслоу розділиться. Для більшості людей всі базові потреби будуть забезпечені на матеріальному рівні (наприклад, гарантований фіксований дохід), а потреби верхнього рівня — віртуально. І ось ця віртуалізація все більше і більше займатиме частку ринку, покриватиме все більше людей, і, зрештою зжере все.

— Досить тривожна перспектива намальовується. Добре, тоді в мене суб’єктивне питання: які твої побоювання щодо того майбутнього, яке ми щойно описали?

Д. Д.: Я сподіваюся, що не доживу до цього. Я просто намагаюся виховати дитину так, щоб, коли вона попаде у ці обставини, щоб вона намагалася цьому противитися.

— Питання до інвестора, який має справу з багатьма перспективами. Які ти бачиш технології, які зараз є у стадії прототипування, розробок, досліджень, які можуть «вистрелити» найближчим часом?

Д. Д.: Наша відповідь на це запитання стандартна: якщо тренд видно, заскакувати в нього вже пізно. Ми дивимося не на технології, ми дивимося на проблему, намагаємося передбачити, які проблеми стоятимуть перед нами через 20 років. А далі — якими технологіями це можна вирішити.

Припустимо, в одній із наших картин світу ми очікуємо, що протягом 20 років у Європі буде велика кривава війна з повністю  зруйнованою інфраструктурою і  екосистемою. І ми шукаємо проекти, які могли б працювати в умовах зруйнованої інфраструктури, насамперед IТ, фінансової тощо. Які там технології можуть бути?  Ми дивимося на них, але сказати, що це тренд навряд чи можна. І ще раз, якщо тренд видно, то значить вже пізно.

— Дякую за розмову і цю мандрівку у майбутнє!