Андрій Цінцірук:
Успішні бізнес-лідери повинні бути етичними лідерами
Досьє
Андрій Цінцірук — співвласник компанії Innovizo, яка на сьогодні є помітним гравцем у сфері Data Science і Data Analytics на Східному узбережжі (США). З України до Америки приїхав у віці 17 років, де вивчав теологію та філософію у St.Basil College (Стемфорд). Під час навчання захопився IT і разом з другом вони заснували консалтингову компанію Innovizo, яка надає послуги з розробки ПЗ та аналізу даних для малого та середнього бізнесу, а також – стартапам.
Андрій Цинцирук, співзасновник компанії Innovizo
Фото: прес-служба LvBS
— Переважно ми говоримо про те, які переваги дають людині нові технології. Однак з досвіду знаємо, що інновації, особливо, технологічні, несуть не лише переваги, а й певні етичні проблеми. Якими на Вашу думку, є, або можуть бути, етичні виклики тих технологій, розвиток яких ми спостерігаємо?
А. Ц.: Я думаю, що всі етичні проблеми є в будь-якій сфері бізнесу. І технології є тим інструментом, який використовується для розвитку нових сфер людської діяльності. Очевидно, що інновації завжди передбачають нові підходи до вирішення проблем. Скажімо, якщо ми говоримо з юридичної точки зору, то швидше за все, існує нормативний акт, який створює правові умови для підприємницької діяльності. Ми знаємо, що ці умови чітко визначені, і бізнес, як правило, розуміє можливі наслідки своїх дій – позитивних чи негативних.
— Але, коли ми аналізуємо технології, такі як штучний інтелект або людино-машинну взаємодію, чи аналіз «великих даних» і їхнє використання, виникають побоювання, що ці технології можуть серйозно вплинути на самих людей і навіть змінити наше розуміння людини, як істоти.
А. Ц.: Штучний інтелект – це просто машина, якій Ви даєте алгоритми, і він «вчиться» на основі статистичних даних за довгий період часу. Скажімо, у сфері охорони здоров’я, він допомагає аналізувати те, як розвиваються хвороби.
На мою думку, ШІ має великий потенціал для вирішення найскладніших проблем, з якими стикалося людство, такі як рак, бідність або інші проблеми. Зрозуміло, що штучний інтелект — це інструмент, який можна використовувати надзвичайно продуктивно, але, з іншого боку, якщо ним маніпулювати та використовувати для невідповідних цілей, з’являються великі небезпеки. Скажімо, вже зараз тоталітарні режими використовують інструменти машинного навчання для своїх далеко не гуманних цілей, наприклад, для стеження за людьми. Звичайно, що в такому використанні криється велика небезпека.
— Є багато прогнозів щодо так званої Сингулярності – коли штучний інтелект перевищить людський. Ви вірите в такий сценарій?
А. Ц.: Я думаю, що комп’ютери стануть розумними, у них буде більше обчислювальних потужностей, але вони не замінять людей. Ми бачимо, деякі робочі місця замінюють програмами, це правда. Є багато прихильників теорії змови про те, що машини замінять людей, що вони стануть панувати над людьми.
Наприклад, один з найпотужніших комп’ютерів — Watson компанії IBM, використовує штучний інтелект і машинне навчання для прогнозування результатів в певних галузях, таких як охорона здоров’я або енергетика, або в сфері фінансових послуг. Такі комп’ютери здатні передбачати, вони можуть приймати певні рішення, залежно від отриманих інструкцій і статистичних даних, але люди єдині можуть повноцінно ці дані інтерпретувати. Людина розуміє значно більше факторів, які впливають на рішення, ніж навіть найпотужніший комп’ютер. Машина не може працювати без належної основи і без вказівок людини щодо її роботи.
Людина розуміє значно більше факторів, які впливають на рішення, ніж навіть найпотужніший комп’ютер. Машина не може працювати без належної основи і без вказівок людини щодо її роботи.
— Вже зараз ведуться активні дискусії про права права машин, зокрема, роботів. Є й інші очікування, скажімо, деякі футурологи впевнені, що машини зможуть відчувати, так, як людина, а, отже, матимуть потребу в законодавчо закріплених правах…
А. Ц.: Якщо говорити з погляду філософії, то людина має свободу волі та інтелект – це те, що робить нас особливими, якщо порівнювати з іншими сутностями. Щодо машин, то тут такої певності немає. Ми можемо навчити комп’ютери водити автомобіль – бачимо, що безпілотні автомобілі стають щораз популярнішими.
Компанія Google вкладає мільйони доларів, щоб створити автономний автомобіль. Якщо Ви поїдете в Сан-Франциско, в місто Маунтин-В’ю, Кремнієву Долину, то побачите авта без пасажирів, які собі їздять довкола — це, свого роду, тести.
Але будьмо чесними — це лише комп’ютер, який здатен так працювати за допомогою машинного навчання та даних. І в цієї машини немає свободи волі. Таке авто, наприклад, не зупиниться і не допоможе бабусі, яка йде по вулиці, перейти дорогу, принаймні, не зробить цього з тих міркувань, що й ми, люди – співчуття, жаль, милосердя. Воно просто зупиниться.
Отже, коли йде мова про надання їм прав або коли ми приписуємо їм певні людські риси, то, ймовірно, ми занадто багато фантазуємо, тому що вони все ще просто комп’ютери. Можливо, щось зміниться в майбутньому.
— Таким чином, Ви не вірите, що роботи або штучний інтелект можуть перебрати на себе роль людей у світі?
A. Ц.: Поки що ні. Я думаю, що загроза використання штучного інтелекту або інших інноваційних технологій виникне тоді, коли технології будуть неправильно використовуватися урядами. Зокрема, недемократичними урядами, тоталітарними режимами. Ці інструменти можуть застосовувати для маніпуляцій із виборами, для ведення стежень за громадянами чи переслідування ЗМІ, які проводять журналістські розслідування. Ми вже бачили подібні приклади в Росії, де такі засоби використовуються таємною поліцією.
Небезпека в тому, що у майбутньому нам будуть доступні засоби, які зможуть збирати дані про телефонні дзвінки та інтернет-трафік усіх без винятку. Це може бути серйозною загрозою для людей, свобод громадян, свободи слова, побудови демократичного суспільства.
— А як щодо корпоративного використання? Адже є багато прикладів коли бізнес використовує великі дані для аналізу поведінки клієнтів. Відповідно, побоювання дуже часто виникають через загрозу негласного втручання в приватний простір. Хіба корпорації відмовляться використовувати ці технології для збільшення прибутку?
А. Ц.: Корпорації справді націлені на прибуток, і технології дозволяють їм визначити відповідного клієнта і продавати свою продукцію швидше та ефективніше. І це нормальне явище, це частина життя. Але це нормально, поки вони не втручаються в приватне життя громадян.
Наприклад, на телевізорі Samsung є камера, оснащена технологією розпізнавання обличчя. Уявімо, що я дивлюся фільм, призначений для обмеженого кола глядачів, який не підходить для дітей, і в цей час у кімнату заходить мій син. Такий «розумний» телевізор одразу переключить канал, оскільки він «впізнає» обличчя дитини і заборонить йому перегляд.
Але ризик полягає в тому, що зараз Samsung або будь-який інший виробник таких девайсів збирає багато особистих даних про моє життя, мого сина, мою родину. І вони обробляють дані про зображення. Хтось може зламати доступ до тих даних, і ті, хто мають якісь недобрі наміри, чи, скажімо, уряди, зможуть слухати наші розмови, отримувати дуже приватну інформацію. Наприклад, в родині є хтось хворий на рак, камера передала розмову членів родини про це захворювання, розмова стала доступною страховій компанії, а вона, в свою чергу, на основі цієї інформації змінює умови страхування.
Компанії, які не захищають дані про своїх клієнтів, у майбутньому збанкрутують
— Зараз ми говоримо про відносно прості технології у порівнянні з технологіями в майбутньому. Що ми можемо сказати про втручання зловмисників, наприклад, у наш мозок, якщо він буде оснащений відповідними імплантантами-чіпами?
А. Ц.: Звичайно, біохакерство – це вищий рівень. Тому я вважаю, що компанії, які працюють у цій сфері, мають гарантувати суттєво вищий рівень безпеки. Моє тіло для мене важливіше, ніж моя кредитна картка. І компаніям доведеться шукати нові способи захисту.
Зрештою, я впевнений, що появиться новий напрямок бізнесу, нові стартапи, які пропонуватимуть рішення для проблеми біохакерства, наприклад, сканування тіла чи окремих органів, перевірка вживлених імплантанів тощо. Але я думаю, ми говоримо про дуже невеликий ринок і про дуже малу ймовірність, що це станеться.
— Не можу оминути питання, яке стає щораз актуальнішим… Покращення нашого тіла з допомогою нових технологій. Бачимо, що вже зараз випробовуються цілком нові засоби – нано-імплантанти, чіпи, «розумні» кінцівки, мініатюрні девайси, якими можна оснастити тіло і отримати таким чином нові можливості. Чи повинні ми тут встановлювати певні обмеження?
А. Ц.: Так, звичайно, спокуси отримати можливості супермена будуть. Але я вірю, що технології все-таки більше будуть використовувати для добрих намірів. Якщо у поліції є додаткове озброєння або додаткові засоби для того, щоб, скажімо, літати, якщо їм треба кудись добратися дуже швидко, чому б і ні?
З етичної точки зору, я дивлюся на технології, як на засіб для досягнення певної цілі. Ви можете досягати того, що є етично виправданим, але й так само — чогось, що можна використати на шкоду людям. Але тут на сторожі мають бути правові норми. Таким чином, коли ми говоримо про використання інноваційних технологій, то створення нормативно-правової бази дуже важливе. І це треба робити швидко.
— Тобто Ви вважаєте, що повинні бути встановлені певні обмеження чи стандарти для впровадження нових технологій у широке використання?
А. Ц.: Якщо говорити про певні обмеження чи стандарти, то все залежить від того, як ви будете забезпечувати їхнє виконання. Тут ми повинні бути настільки конкретними, наскільки це можливо. Особливо, якщо ми говоримо про обмеження у дослідженнях, скажімо, нанотехнологій.
Якщо не порушуються чинні закони, немає загроз правам людини, я думаю, ми не повинні обмежувати дослідження. Звичайно, будуть і є певні застереження, коли справа доходить до людського тіла, як це є у випадку з генною інженерією. Адже в цій сфері є дуже багато невідомого і результати багатьох досліджень важко передбачити. І тут можливо, є сенс в чітких обмеженнях. Якщо дослідження і впровадження певних технологій потенційно становлять загрозу, то цю сферу треба врегульовувати. Така моя філософія. Але все зводиться до конкретики – яка це технологія, яке її можливе використання і які конкретні ризики вона може спричинити. І тоді можна говорити про стандарти.