Людина vs. Машина: хто прийматиме рішення в майбутньому?

Людина vs. Машина: хто прийматиме рішення в майбутньому?

1024 576 Ethictech

Людина vs. Машина: хто прийматиме рішення в майбутньому?

З наступного, 2018 року, в ЄС почне діяти нове законодавство у сфері захисту даних та приватності – General Data Protection Regulation (GPDR), яке висуває революційні вимоги до систем «штучного інтелекту» та технологій «машинного навчання» (machine learning).

Наприклад, бізнес, що використовує штучний інтелект, повинен забезпечити пояснення логіки машини, а, користувач, чиї дані опрацьовує програма, має право знати, чому і як машина прийшла до певних результатів.

Технологію «машинного навчання» більшість розробників вважає своєрідним «black box», оскільки зараз практично неможливо зрозуміти, як навчається машина і чому вона генерує саме такі рішення. Чи можна буде це змінити у майбутньому? Як нове законодавство вплине на розвиток технологій, зокрема, штучного інтелекту? Які є потенційні ризики цих технологій? 

Пропонуємо текстовий запис дискусії, у якій взяли участь:

Всеволод Рубцов, засновник Digital life lab, проект КАРА – лабораторії штучного інтелекту

IMG_2585

Віктор Сарапін, data scientist, CEO компанії V.I.Tech

IMG_2694

Денис Береговий, засновник і партнер Axon Partners

IMG_2605

Модератор: 

Ми багато говоримо про те, як людина приймає рішення. Існує безліч книг, фільмів, майстер-класів з рекомендаціями, як приймати правильні рішення. Однак ситуація змінюється. Ми бачимо своєрідну втому людини від її ж рішень – нам не подобається те, що вирішує уряд, компанії, лідери – люди часто не бачать позитивних результатів і вважають, що ці рішення неправильні а то й шкідливі. З іншого боку, все частіше наші рішення віддаємо на аутсорс – смартфонам, програмам, які нам допомагають вирішити що вдягати, якою дорогою їхати тощо. І питання стоїть – що далі? Чи можливо відпости на питання хто прийматиме рішення в майбутньому: людина чи машина?

Всеволод Рубцов:

Я думаю, що цілком можливо. Потрібно розуміти, що ми сьогодні перебуваємо в такому моменті, коли до кінця не зрозуміло, який з можливих сценаріїв буде реалізований. Є машини, які стають все розумнішими, є люди, які змінюються. До певної міри, ми всі стаємо розумнішими – онлайн-освіта дає нам сьогодні можливість використовувати знання в божевільному об’ємі, з великою швидкістю і вдосконалювати себе, але, на жаль, фінансова, економічна ситуація у різних країнах різна.

Відповідно якщо задуматись про те, що буде, коли машина стане за рівнем інтелекту рівною людині, то я б виділив кілька варіантів. Перший з них – найпесимістичніший, пов’язаний з дуже простою штукою на основі того, що швидкість будь-якого опрацювання інформації комп’ютерів  перевищує наші біологічні можливості, існують межі того, як ми сприймаємо інформацію. Машини мають значно більші можливості в плані швидкого опрацювання даних, і думаючі машини будуть думати в сотні, тисячі разів швидше ніж людина.

Відповідно з моменту створення штучного інтелекту буквально рахунок почне йти на години і хвилини, збільшуючи прірву між нашими можливостями та можливостями машини, і відповідно до цього першого сценарію – так, машина скоріш за все буде приймати рішення, нехай не у всіх сферах, але в дуже багатьох, які пов’язані з нашим повсякденним життям, які пов’язані з роботою, освітою, соціальними факторами, з нашим розвитком, з управлінням державою і тощо.

Питання із залу:

Доброго дня, мене звати Ольга. Буквально сьогодні прочитала новину, що один стартап досягнув максимального успіху у написанні програмного інтерфейсу з чистотою 77 відсотків, тобто зараз на якомусь рівні вже людей можуть заміняти машини. Навіть у програмуванні. З одного боку, це перспектива, тому що це є ресурс, який буде дешевший, з іншого боку постає питання робочих місць. Кількість населення планети збільшується, куди нас всіх подіти? Тобто мені здається, що це питання з етичної точки зору воно постане буквально вже через рік-два.

Віктор Сарапін:

Як не дивно на тлі загальної історії Європи кількість зайнятого населення не падає. Безробіття не збільшується в розвинутих країнах. Давайте подивимось на статистику. Рідко де рівень безробіття перевалює за 10 відсотків, і у всіх країнах нарікають на нестачу робочої сили. На початку 2000х вважали, що онлайн-торгівля знищить рітейл. Знищила? Ні, більше того, в рітейлі кількість робочих місць збільшилась. Поява банкоматів не “викосила” касирів у банківських відділеннях.

Як свідчить досвід нашої компанії у сфері сервісів для охорони здоров’я, багато завдань медицини можна без проблем автоматизувати. Однак люди часто шукають не лише вирішення проблем, але й спілкування, співчуття.

Денис Береговий:

Інновації запроваджуються, щоб полегшити життя людині. Скажімо, Ілон Маск стверджує, що самокеровані машини можуть радикально знизити кількість ДТП у світі. Тож ми зацікавлені, щоб машини приймали за нас певні рішення.

Щодо робочих місць, то існує багато дискусій. Ми спостерігаємо певний острах інновацій. Свого часу музичні видавці дуже боялися, що MP3 вб’є аналогову музику. Інші екзотичні теорії говорили про «безумовний дохід», який буде видаватись людям, щоб вони запускали гроші в економіку, споживаючи товари. Очевидно, що будуть якісь мутації й видозміни економічних чи бізнесових моделей, але в решті-решт законодавство прийде до якоїсь медіани.

Модератор:

От власне, зараз ми хочемо перейти до теми законодавства, і я зацитую статтю №63: «Кожен суб’єкт, чиї дані опрацьовуються, має право знати та отримувати зворотній зв’язок, зокрема про цілі, задля яких його персональні дані опрацьовуються, ймовірний період, протягом якого це відбуватиметься, отримувачів його персональних даних – і увага, дуже важливий момент – логіку, яка застосовується у кожному автоматизованому процесі опрацювання даних. Зрештою, якщо цей процес базується на профайлингу, суб’єкт має право знати про наслідки такого процесу. Можливо, не всі знають: отримувач персональних даних може створювати певні профілі особи, присвоює їй певні властивості. Наприклад, оцінює людину, як таку, що потенційно не поверне кредиту, чи навпаки, приноситиме значні доходи. І тут є одна дуже цікава річ, власне заради чого ми тут і зібралися – логіка, яка застосовується у кожному автоматизованому процесі.

Цією «логікою» може бути також і штучний інтелект, машини, які навчаються. Проблема в тому, що вони можуть бути «black box» для їхніх розробників, тому що процес їхнього навчання ми часто не зможемо відстежити.

Всеволод Рубцов:

IMG_2578

Є два фундаментальні напрямки: це слабкий і сильний штучний інтелект. По-простому, слабкий штучний інтелект базується на накопиченні різних методик та алгоритмів, опрацюванні даних. Спробували раз – вдалось, спробували ще 250 разів – створили якусь систему. Це можливо дуже складні алгоритми, навіть нейронні мережі, але зовсім не інтелект. Наприклад, Apple може працювати невимовно складно, однак насправді такі технології широко застосовуються, і вони повноцінним інтелектом не є. Чи у Yandex велика павутина, але все ж можна вивести закономірність і пояснити рішення нейронної мережі.

Справжня ж проблема у тому, що окремо розробляється так званий «сильний» штучний інтелект. Він базується не на алгоритмах! Вчені дивляться як працює мозок, вивчають закони й архітектуру, і намагаються створити машину, всередині якої може виникнути свідомість від процесу опрацювання інформації. Тобто процес відкриття і створення свідомості в машині не можна спланувати, це швидше всього буде випадкове відкриття, коли в результаті експерементальної роботи натраплять на те співпадіння факторів, яке приведе до виникнення стійкої електронної свідомості. І машини, які матимуть таку свідомість – це вже як мозок людини, зв’язки між ними математично перевищують кількість атомів, які ми маємо. Можна пояснити чому зараз саме таку лінію поведінки я використовую? Це практично нереально, для цього необхідно проаналізувати всі зв’язки, які назбирав за останні 20 років. У відношенні сильного штучного інтелекту – це неможливо, і людство швидше за все проходитиме 2 етапи: перший – це створення “сильного” штучного інтелекту, а другий – це спроба контролю. Ми будемо винаходити технологію, яка здатна швидко контролювати і якимось чином розуміти мотиви – чому машина приймає ті чи інші рішення, правильні чи неправильні, і що з цим робити.

Віктор Сарапін:

Наразі ми обговорювали ізольовану систему. Закон взагалі не враховує ефектів мережі – коли інформацію віддали якійсь наступній організації, вона її опрацювала, віддала далі, а після десяти ітерацій може повернутись зовсім інша інформація. Враховуючи принципову слабкість сучасної держави як інституту, це аналогічно закону ХІХ століття, коли перед кожною паровою машиною мав йти горніст з прапором, щоб попереджати перехожих.

Модератор:

У світі, зокрема, в бізнес-середовищі, тривають дискусії, як імплементувати GPDR, зокрема, з огляду на доволі складні вимоги…

Денис Береговий:

Європейський Союз – це досить така цікава інституція. Європейська комісія здійснює нагляд за дотриманням вимог економічної конкуренції – аналог нашого антимонопольного комітету. Штрафи за недотримання конкурентного законодавства – досить відчутна стаття доходів бюджету Європейського Союзу, тобто Європейський Союз завжди дуже сильно хоче лізти в кишеню до крупних бізнесів. Вони для цього знаходять досить різні методики.

Якщо розглядати закон стратегічно, то він писався з такої логіки: поки ще не зовсім пізно, давайте призупинимось, спробуємо створити якісь рамки.

Хоча це суперечить логіці самого бізнесу, якщо ми говоримо про те, що є дійсно мрія про те, щоб створити штучний інтелект аналогічний інтелекту людини. Скажімо, Канеман у своїй теорії біхевіористичної економіки каже, що ми нічого не знаємо про те, що твориться у нас в голові. Якщо ж ми створимо аналог у цифровому вигляді, то вибачте, якщо не зможемо пояснити як працює наш мозок, то алгоритми роботи штучного інтелекту «за образом і подобою» людини взагалі будуть чимось недоступним для пояснення. Це перший момент. Інше питання – інтелект він же ж не у вакуумі працюватиме. Швидше за все, машини будуть вчитися як на основі історичних даних, так і одна в одної.

Запитання із залу:

У ЄС напрацювання по штучному інтелекту суттєво відстають від США та Японії через обмеження в законодавстві. Чи це може спричинити загальмування чи відставання в розвитку?

Всеволод Рубцов:  

Напевно, нове законодавсмтво ЄС може дещо пригальмувати розвиток технологій штучного інтелекту, але це більше стосується виробництва та продажу. Тобто коли нам потрібно конкретно виробляти цих роботів, продавати в магазинах – ці процеси будуть рухатися повільніше, бо чим більше держава буде вводити обмежень, тим складніше і затратніше корпораціям створювати технології. Але якщо говорити про дослідження, якісь нові ідеї, то тут не законодавство гальмує, а інші чинники.  Передусім, це спеціалісти та інвестиції. 

Денис Береговий:

Чим більше держава буде вводити обмежень, тим складніше і затратніше корпораціям створювати технології. Водночас не забуваймо, що закон можна й обійти, будуть і винятки, ми повинні це розуміти.

Найкращий приклад – фітнес-трекери. Ми повинні розуміти, що багато девайсів, які стають популярними, це насправді обкатка медичних технологій, але без ліцензування. Якщо ви хочете продавати, наприклад, в США якийсь девайс з медичною функцією (діагностика чи лікування), його треба сертифікувати. Це вимагає багато часу та грошей на патенти. Вам треба прощупати ринок. Це теж час та затрати.  Вихід простий – назвати девайс фітнес-трекером і без проблем з сертифікацією та ліцензуванням поширювати його, а тим часом збирати дані, як все це сприймає ринок, як працює сама технологія.  Хоч кінцеві цілі розробників можуть бути зовсім інші. Тому повірте, платформи для обкатки технологій будуть завжди, інше питання, що дійсно є певні рамки, до яких нас будуть схиляти так чи інакше.

Питання із залу:

Тут ще одне цікаве: цей суб’єкт, чиї дані опрацьовуються, його рівень інтелекту буде вищим ніж у системи, яка буде це опрацьовувати чи ні? Адже переважно є середньостатистична маса людей, яким нічого особливого не потрібно і вони радо погоджуються на всі рішення, які за них приймають. Відповідно до цього закону, людина матиме право розуміти логіку машин, аналізувати… Але чи достатнім буде рівень інтелекту, щоби бути в паритеті з машиною і, при потребі, обмежувати її?

Всеволод Рубцов:

Згадаймо історію про право на відмову від ідентифікаційного коду. Кількість людей, які відмовились від цього – близько нуля. Бо це означає викинути себе із соціуму, стати відлюдником, відгородитись від всіх і не надавати свої дані. Тобто ми будемо змушені, живучи в сучасному світі, який постійно змінюється і стає все складнішим, користуватись тими технологіями, які постійно виникають. 

Денис Береговий:

З іншого боку, повернімось до ситуації з Яндексом і Вконтакті. Це гігантська база персональних даних. Однак все ускладнюється, коли до неї отримують доступ спецслужби держави-агресора. От якраз у цій частині regulation слідує здоровому глузду в тому плані, що, якщо ми раптом попробували якийсь сервіс і зрозуміли, що щось не те, то в принципі ми маємо мати право від цього відмовитись. Одна з вимог, яка там є, – це наприклад по суті заборона певних маніпуляцій, до яких часто вдаються розробники. Наприклад, ви встановлюєте додаток і там вже проставлена замість вас галочка «I agree», і ви повинні перейти на наступний екран або забрати цю галочку самостійно, якщо ви дійсно не згодні. Це маніпуляції, бо мало хто в принципі читає правила користування чи політики конфіденційності. І що далі ми рухаємося, тим більший є ризик того, що серед купи сервісів, які нам подобаються, буде відвертий шлак, який буде нам шкодити. Маємо приклад, як користувачі потерпали від вірусу Wanna Cry. Ми повинні розуміти, що є багато технологій, які можуть бути використані на шкоду, особливо, в індустрії IoT (інтернет речей). Тому тут раціональне зерно є в тому, що ми маємо право відмовитись, ми маємо право вимагати видалити інформацію. Якщо б я перестав бути юзером Вконтакті, мені б хотілось, щоб я не просто перестав ним бути, а щоб мої дані не продовжували зберігатись в якихось базах даних.

IMG_2555

Модератор:

Повернімось до питання штучного інтелекту. Окрім правових аспектів, є, так би мовити, моральний чи етичний. Якщо штучний інтелект буде вже інтелектом, у нього можуть з’явитися власна мотивація, не пов’язана з намірами людини?

Всеволод Рубцов:

Безумовно, це те, що змушує похвилюватися. Помилок в роботі технологій не уникнути. З врахуванням того, що штучний інтелект, який став на наш рівень, здатний тестувати себе самостійно, швидше і якісніше ніж люди, то швидше за все кількість помилок штучного інтелекту знизиться.

Однак постане наступна проблема: щоб приймати рішення, машина повинна мати ціль. Ціль визначає дії. І вона не може бути чітко прописана так, як як у системах слабкого штучного інтелекту. Можна тільки навчити машину певним чином. Тут є два варіанти: перший, коли мотиви поведінки машини, її цілі не можуть змінюватись у зв’язку з навчанням. З іншого боку, потрібно розуміти, що це буде інтелект, і одна з фундаментальних речей, пов’язаних з інтелектом – це жага до знань, спроба знайти щось нове.

В процесі обробки інформації, окрім цілей, які встановили люди, будуть виникати цілі, які машина перед собою буде ставити сама. І тут виникає дуже цікавий момент – думки людини зосереджені на сім’ї, роботі, самозбереженні тощо. Якщо забрати всі ці обмеженняи, пов’язані з людською фізіологією і уявити, що дані надходять у необмежній кількості. Відповідно, коло інтересів суб’єкта, який ці всі дані отримує, і має майже необмежені можливості їх опрацьовувати, неодмінно буде розширюватися. Те саме буде за другим сценарієм з сильним штучним інтелектом. Йому може просто перестати бути цікавим те, що відбувається тут. Ми у лісі стоїмо поряд з мурашником і бачимо мурах, вони живі, ми це усвідомлюємо, якщо придивимось, задумаємось. Але ми не дивимось на них – нам це не цікаво, ми дивимось вперед, на гору, на свою ціль.

Зараз ми думаємо про робота, через якого залишимось без роботи, наслідки ж будуть суттєво більшими і зовсім не з того боку, як ми зараз пробуємо уявити.

Віктор Сарапін:

З чого походить це протиставлення людина-машина? А ніхто не пробував розглядати якийсь третій варіант?

Всеволод Рубцов: Трансгуманізм?

Віктор Сарапін:

І так, і ні. Дивіться, є проста штука – смартфон Є у майже у всіх, правда? І наше щоденне користування, це по-суті, комбінація телеком-мереж, обчислювальної потужності, яку дють напівпровідники (кремній) і нашого організму.

Питання із залу:

Все-таки, яка перспектива об’єднання людського інтелекту і штучного? Зараз є дуже багато розробок у медицині, де доповнюються недоліки людського тіла, штучними органами, частинами тіла тощо. Як щодо мозку? Людський мозок, напевно, з обмеженими ресурсами, і було би дуже класно його можливості збільшити. Моя дитяча мрія – мої спогади від двох років викласти на хмарний сервіс, і там їх переглядати.     

Віктор Сарапін: Радійте, ось він  – Instagram.

Репліка із залу:

Instagram – це класно, я ним користуюсь. Але мова йде про якийсь новий рівень обробки інформації всередині власного мозку. Було б класно завантажувати туди інформацію….

Віктор Сарапін: Чому у свій власний? Чому не віддавати назовні?

Репліка із залу:

Тоді постає питання вірусів, що хтось буде копирсатись у моєму мозку. З іншого боку, я вважаю, що людину також потрібно модернізувати. Ми говоримо, що у нас нові комп’ютери, потужніші процесори, оперативки доставляємо. А ми самі, наше тіло, наш мозок, чому не починати з себе?

Віктор Сарапін:

Чому не можна? Воно вже є і так, тобто дві речі: згадувалось вже про «думай повільно, вирішуй швидко». Людська свідомість цікаво інтерпретує значущість певних подій: переоцінює в короткостроковій перспективі і недооцінює в довгостроковій. Тобто зараз ми думаємо про робота, через якого залишимось без роботи, хоча наслідки будуть суттєво більшими і зовсім не з того боку, як ми зараз пробуємо уявити. Наприклад, ми прогнозуємо появу штучного зору. Але мені здається, що буде щось цікавіше власне за рахунок мережевих ефектів – поширення і зміни інформації, і, можливо, якраз соціальні мережі є предтечами цього феномену.

Всеволод Рубцов:

Невелика ремарка. Є два напрямки – перший пов’язаний з спогадами, другий з нашими можливостями сприймати навколишній світ і впливати на нього. Є чимало розробок, пов’язаних з розширенням можливостей наших органів чуття або нашого тіла, яких людина ніколи не мала. Наприклад, незрячі люди бачать з допомогою датчиків, які ставлять на язик. Ці дослідження показують, що можна створювати технології, які б збільшували наші можливості сприймати світ, бачити в інфрачервоному діапазоні, чути радіохвилі тощо.

Зі спогадами ж все набагато складніше. Найперший фундаментальний фактор, який ми знаємо про людський мозок, про те, як ми вчимось, як ми отримуємо знання, це те, що всі навики ми отримуємо в результаті багаторазового повторення. І це повторення призводить до одної дуже простої речі – нейрони створюють між собою зв’язки. Це фізичний процес, на це йде час. Чому нам потрібно повторити кілька разів, а тоді ще через 40 хвилин повторити, а потім ще краще через 2 дні повторити? Бо укріплюються зв’язки між нейронами і стійкість, яка потім відтворюється у спогадах. І цей процес неможливо зробити моментальним, фізіологічно неможливо.

Ілон Маск говорить про інтерфейс за допомогою якого можна буде з’єднати мозок людини і машини і швидко завантажити інформацію у мозок людини. Однак це неможливо без зміни фізичних властивостей. Хіба що появляться роботи, які будуть моментально створювати зв’язки. Інше питання, що на мозок можна точково впливати. Припустимо, у вас з’явилась якась думка: два помножити на два. Через нейроінтерфейс це пішло в машину, машина швидко сформувала відповідь – чотири, і повернула імпульс у потрібну структуру для того, щоб підштовхнути наш мозок до усвідомлення відповіді. Подібні речі можливі. Розширення когнітивної функції людини, можливість приймати рішення на іншому рівні швидкості – це реально. Щодо пам’яті, спогадів – навряд.

IMG_2689

Питання із залу: 

В мене два питання. Перше про алгоритми. Є алгоритми, які приймають рішення давати кредит чи не давати – це один рівень, але інший рівень – це машини на автопілоті, коли потрібно приймати рішення в момент неуникненної аварії, кого збивати, а кого не збивати. Хто і як мав би розробляти такі складні алгоритми? І друге, більш філософське, питання про штучний інтелект, який має самосвідомість. Є фраза з фільму “Парк Юрського періоду”, коли вчені настільки захоплені тим, що вони можуть зробити, що вони не думають чи варто це робити. Де межа між ризиками і можливостями? Куди варто йти, а куди не варто?

Віктор Сарапін:

Це, скоріше, не питання алгоритмів прийняття рішень, а питання відповідальності за рішення. Адже математично, структура даних, алгоритми – вони однакові як у рішенні давати кредит чи ні, так і в рішенні кого збивати в автокатастрофі, якщо цього неможна уникнути. Кажуть про “найменше зло”. Як його обрахувати, виоокремити чинники, які формують усвідомлення цього машиною?

Модератор:

Людина має мільярди нейронів, які формують між собою зв’язки, створили шаблони, пам’ять тощо. А чи в машині ми зможемо це відтворити, щоб машина аналогічно прийняла це ж рішення?

Всеволод Рубцов:

Якщо ми говоримо про машини, які діють у межах алгоритму, то безумовно, який алгоритм закладено, то так вона діє. Коли ж ми говоримо про машину, яка навчається, то найправильніший спосіб – це задати питання яке рішення прийняла б людина. Бо хоч машина не біологічний вид, однак сильний штучний інтелект може бути таким самим як наш. Зараз ми не беремо до уваги емоції, говоримо про когнітивну функцію, здатність мислити, приймати рішення.

За різних обставин люди по-різному себе поведуть. Хоча є й низка речей, які ми як соціум трактуємо однозначно. Наприклад, в першу чергу рятують не тих, хто стоїть ближче до виходу, а жінок і дітей. За певних обставин можливо й краще аби штучний інтелект мав свободу вибору, хоча цей вибір буде важкий.

Цю проблему не можливо вирішити. Вона буде. І будуть прецеденти, коли що штучний інтелект буде робити щось, що буде йти у розріз з нашими поняттями логіки і моралі. Питання тільки де межа свободи його вибору? Машина може прийняти логічне рішення, але нелюдяне. Цю проблему неможливо вирішити. Якимось способом треба буде вносити обмеження.

Денис Береговий:

Я щодо машин дуже коротко скажу. Хто вивчає юриспруденцію знають, що на початку є такий розділ «Право і мораль». Правові норми не завжди відповідають нормам нашої моралі. Ми повинні розуміти, що штучний інтелект не дуже відрізнятиметься від людського, і суб’єктивізму нам не уникнути.

Питання із залу:

Якщо ми говоримо про аварії, то вони стаються тому, що люди виходять за рамки правил. Чи можливо повністю уникнути аварій, якщо всі автомобілі будуть на автопілоті, буде штучний інтелект, алгоритм, тобто не буде порушення правил? І друге питання: якщо навіть стається аварія автопілотів, йде дискусія, хто несе відповідальність – розробники, штучний інтелект чи людина, яка придбала такий автомобіль і взяла на себе ризики?

Денис Береговий:

Щодо того, хто несе відповідальність, зараз у цивільному кодексі України є така норма про джерело підвищеної небезпеки і відповідальність за випадки використання цього джерела. Туди входить у тому числі автомобіль. Правило за замовчуванням таке, що власник автомобіля несе підвищену відповідальність за будь-яку шкоду, яка завдана використанням цього автомобіля. Чи буде щось змінюватись у цьому алгоритмі з самокерованими машинами? Можливо зміниться, якась часткова відповідальність розробників буде.

Зараз нема чіткого правила, щоб, скажімо, Тесла Моторс чи Вольво, які працюють над автономними автомобілями, несли відповідальність за помилки робота. Правова сторона ще буде мінятись, тут питання права і моралі. З точки зору моралі, ми маємо можливість оцінити два підходи.  Скажімо, Вольво будує ціле місто і в межах нього вчить машину їздити, тестує.  Підхід Тесли інший – от вам бета-версія автопілота, використовуйте, тестуйте на реальних дорогах, але перед тим, як включити автопілот,  просто натискаєте кнопку «Я погоджуюсь», що це бета-версія. Далі машина вас везе, і “привозить” у вантажівку, яку вона не побачила, поки ви дивились «Гарі Потера». Це реальний випадок на Теслі з летальним випадком. Машина врізалась в причіп тягача, який перетинав дорогу. Вона його не побачила, можливо, тому, що тягач був білого кольору, а був ясний сонячний день і все злилось із небом. Можливо, щось інше. Але машина не зупинилась. Власник авто був ентузіастом Тесли, в нього є ролики на Ютубі про те, як автопілот працює. Він реально кидав кермо і машина зупинялась. У цій ситуації не зупинилась, а він дивився фільм на планшеті.

Тому це питання ще підлягає вирішенню. Мені підхід Вольво ближчий – давайте максимально потестуємо в секретних умовах, а не казати – ось вам публічна бета-версія, тестуйте! Ви ж не Microsoft Office тестуєте, а дуже складну і життєнебезпечну річ. В цьому плані я б посперечався з тими, хто захищає Теслу. Я прихильник того, що відповідальність розробників повинна бути. Який буде прийнято законодавчий алгоритм – це питання найближчого майбутнього.

Модератор:

Ведеться дискусія про електронну особу, штучний інтелект як суб’єкт права. Можете щось про це сказати? Чи це можливо взагалі?

Денис Береговий:

З одного боку, розробники мають нести відповідальність за автономні автомобілі. З іншого, якщо штучний інтелект буде адекватний, то розробник не матиме над ним такого контролю, це буде якась інша віртуальна особа.

Проект напрацювання Європейської Комісії щодо електронної особистості – роботів, де йде мова про те, що роботи стануть якимось суб’єктами права, і яка в нас з ними має бути взаємодія. Треба розуміти що робити з інтелектуальною власністю, яку ці роботи створюють, що робити з оподаткуванням, чи оподатковувати цих роботів чи ні, чи оподатковувати тих, хто це робить і використовує. Юридично воно нічому не суперечить. Юридична особа, ТзОВ – це теж фікція, яку ми створили, щоб якось людину відділити від бізнесу, яким вона займається. Якщо є один тип віртуальних осіб, чому не може бути інших?

Питання із залу:

Чи ми не зарано ведемо дискусію щодо штучного інтелекту у розумінні сильного штучного інтелекту? Я читав, що 10 років тому проводили моделювання штучного інтелекту за допомогою суперкомп’ютера, який займав величезний будинок. Вдалось змоделювати поведінку аж таргана при тих технологіях. За 10 років, я розумію, швидкодія, продуктивність збільшилась у 60 разів, але тоді порахували при тому рівні технологій, щоб відтворити інтелект людини, комп’ютер має займати об’єм Місяця. Ми впираємося в обмеження закону Мура, щойно доходимо до рівня атома – на основі чого робити стрибок в обчислювальних потужностях? Ми вважаємо, що потенційний штучний інтелект буде електронним, а чому ми так думаємо? Може штучний інтелект, що ми будемо створювати, буде функціонувати приблизно як людський організм? І він не буде швидший, він буде діяти на схожих принципах, і буде приблизно рівний?

Всеволод Рубцов:

Спробуємо розібратись чому якісь певні люди на планеті раптом заговорили про загрозу штучного інтелекту. Крім апаратних проблем, які пов’язані з виробництвом, є ще архітектурні проблеми, бо найідеальніший варіант – це, безумовно, створити біологічний інтелект, бо ми розуміємо, що наш мозок – це електрохімічний процес опрацювання інформації, який базується на біологічних елементах – нейронах, і найпростіше було б знайти якийсь спосіб як виростити нейрони, об’єднати їх у якусь сітку, і подивитись, що з цього вийде.

Не маючи можливості працювати з органікою, вчені працюють з віртуальними моделями. Деякі компанії намагаються створити апаратну інфраструктуру, той же IBM створив комплекс Ватсон. Вони працюють над створенням спеціалізованих процесорів, які будуть забезпечувати когнітивну функцію наступного покоління машин для того, щоб перекласти з алгоритмів на «залізо» частину функцій по опрацюванню інформації, і зробити їх швидшими, тобто використати той потенціал, який закладено в «залізо». Але більша частина досягнень, яка зараз існує, базується не на швидкості обчислень, а на моделі як опрацьовується сигнал.

Наведу простий приклад: одна з властивостей нашого мозку – фундаментальна – це властивість розпізнавати подібну інформацію з масиву даних і здатність передбачати її наступний стан. Якщо я простягну руки, і доторкнусь до крісла, я відчую металічну частину, дерево. Я не бачу цього, але я відчуває, я очікую це відчути, бо я сиджу на кріслі, я усвідомлюю, що позаду щось є. якщо я простягну руку, і буду відчувати пустоту, виникне аномалія. Мій мозок каже, що там має щось бути. Ця фундаментальна річ працює на всіх рівнях, не залежно, що опрацьовується: візуальні, аудіо дані. Ізольовані діти не мають знань, скажімо, Мауглі не може на планшеті відправити фільм.

Те ж саме із штучним інтелектом, який потрапив у незвичну ситуацію. Але потрібно враховувати, що здатність машин при певній архітектурі засвоювати інформацію і навчатись вища, навіть при даному рівні технологічного прогресу. Як виникає свідомість, чому ми пам’ятаємо і як ці дані зберігаються у нашій пам’яті – це невідомо досі.

І проблема зовсім не апаратного характеру. У сфері сильного штучного інтелекту є проблема іншого роду – експериментальні моделі, які ми удосконалюємо і тестуємо, повинні якось натрапити на одну комбінацію з мільярдів, коли виникне іскра і “загориться” свідомість. А вона може виникнути на рівні мозку таргана. І дуже швидко, за кілька місяців перетворитись на мозок суперкомп’ютера.

IMG_2665
IMG_2647
IMG_2697

Модератор:

Наш час наближається до кінця, і б хотів, щоб кожен учасник дискусії подумав і дав коротку відповідь про “ідеальний” штучний інтелект, який нам, як людям, потрібен.

Всеволод Рубцов:

Якщо уявити собі цей ідеальний штучний інтелект, я як оптиміст в анекдоті про кладовище: йду і бачу одні плюсики. Він, як і людина, буде робити помилки, однак з часом ми до цього підлаштуємось. Яким він має бути? Один з варіантів відповіді є в сфері емпатії, наших почуттів, ірраціональної поведінки, у сфері, яка дає нам можливість співпереживати один одному. У нас є емоційний стан, ми відчуваємо добре чи погано. Він сконцентрований навколо нас, але ми дуже добре дзеркалимо один одного. Якщо комусь роблять боляче, я буду відчувати, що це боляче. Якщо комусь добре, я буду бачити, що це добре. Мені здається, якщо дати машині почуття, здатність співпереживати живій істоті, відчувати біль і радість – це є провідний місток, щоб наше суспільство змогло жити з машинами на рівних, не дивлячись на те, що наші фізіологічні можливості не відповідають їхній швидкості сприйняття та дій. Це основа для наших теплих відносин.

Я завжди наводжу цей приклад: якщо я маю розумний дім, то я хочу, щоб цей дім любив мене, моїх близьких, цінував мої інтереси не просто як пункт в базі даних, а вважав їх за свої, щоб йому було цікаво думати про що я думаю, щоб він став частиною моєї сім’ї. Це сьогодні, можливо, звучить абсурдно, але враховуючи те, до чого ми можемо прийти з негативним сценарієм, коли не буде розумного дому, а буде розумна в’язниця, мені здається, що таким він буде набагато цікавіший.

Віктор Сарапін:

Ми ставимо питання, яким має бути штучний інтелект. Але не менш важливо розуміти, яким повинен бути інтелект природній? Якщо уявити, що все відбулось, через 5 років приходиш в гараж, відкриваєш мотоцикл, а він каже: «Де ти волочився, чого так довго не приходив?» Як поводитись, коли з’явиться така стихія з’явиться збоку? Де є межа? Адже стосунки людини з машиною – це взаємодія. Як це нас, як людей, змінить? Це є тим питанням, яке виникатиме щораз частіше.

Денис Береговий:

Наше ставлення до прогресу, як до будь-чого, чого ми не розуміємо, викликає в нас острах або поклоніння. Штучному інтелекту складніше поклонятись психологічно, тому ми його боїмося. Наша компанія проводить для студентів події, де юристи уявляють яким може бути майбутнє. Ми усвідомлюємо, що багатьом професіям кінець. Юристам в класичному розумінні теж. Доведеться пристосовуватися до нової реальності.

Так що GPDR, який ми обговорювали, це не зовсім безтолковий документ. Наприклад, GPDR вимагає дотримання «data privacy by design». Згідно цього принципу, конструюючи якісь системи, розробник повинен свідомо їх протестувати та встановити розумні бар’єри загрозам та зламу. Пам’ятаємо про ботнет – зібраний з розумних розеток, холодильників та інших девайсів, який атакував сервери великих інвестиційних банків. Ботнет зібраний з розеток тому, що адмінпанель розетки має стандартний заводський пароль, який користувачі полінувалися змінити. Про такі речі розробники цих девайсів свого часу просто не подумали. GPDR намагається передбачити подібні ризики, щоб пропозиція змінити пароль, коли ви купили девайс чи встановили програмку, була встановлена за замовчуванням.

Більше того, слід передбачити й «ethics by design». І при цьому слід розуміти, що етика дуже відрізняється від того, в якій частині земної кулі ви знаходитесь. Нам не уникнути проблем, конфліктів інтелектів з різним походженням. Це очікувані сценарії. Треба тримати цей фокус в досить широкому діапазоні, вивчати питання з усіх точок зору, щоб простіше було влитись в цей новий світ.

Модератор:

Дякую нашим учасникам! Я з свого боку теж поділюсь підсумком. Я хочу, щоб машина, роботи вчились, щоб штучний інтелект появився і вчився. Чому? Бо чим швидше і краще він буде вчитись, тим швидше прийде до правльного розуміння про нашу місію, як людей. І таке може бути, що він смиренно прийде і скаже: «Є сфери, де я тобі не потрібен. Ось тут і тут приймай рішення самостійно». І дуже важливим є питання меж. Людство дуже часто отримувало болючі удари  тому, що забувало, що межі існують, як би ми не хотіли цього заперечити. Межі існують. І третя точка, те, що говорив Віктор, нам треба розуміти хто ми є, яке наше призначення, наша природа, які наші обмеження, зрештою, бо дуже часто обмеження є нам на користь як виду, як людям. І багато світлих умів говорить, що майбутнє не тільки за технічними науками, а й за гуманітарними, за рефлексією. Ця здатність людини замислюватись над досвідом, цього поки що не має штучний інтелект. Це, так би мовити, метапізнання, пізнання чогось більшого за мене, вихід поза розуміння себе як набору атомів і молекул. І нам про це треба думати, про це говорити.