"Ми стикаємося з багатьма проблемами. Люди можуть втратити роботу через штучний інтелект (ШІ), існує ризик поглиблення нерівності в доходах, обмеження конфіденційності, і, звичайно, цим можна зловживати для різних цілей. Впливати на вибори, що є гарячим Тема в США ", - сказав він. для" Правди "Орен Ецціоні, директор Інституту штучного інтелекту Аллена Джон Аллен, співзасновник Microsoft Etzioni, працює в інституті з 2013 року і взяв інтерв'ю на конференції GLOBSEC.

штучний

Ви припустили, що людям, які працюють зі штучним інтелектом, потрібно скласти етичну присягу. Чому?

Центри влади змінюються в наших суспільствах. Ми були свідками цього протягом останніх десяти, двадцяти років. І особливо зараз. Політики та журналісти завжди мали певну владу, як і адвокати та лікарі. Але зараз з’являється новий клас людей з владою. Саме вони створюють алгоритми, програмні системи та штучний інтелект. Коли ми усвідомлюємо, що ці люди мають більшу владу в суспільстві, нам слід хотіти, щоб вони поводились етично. Немає однозначної відповіді, як цього можна досягти. Але чудовим символом етичного підходу для лікарів є клятва Гіппократа. По суті, за допомогою цієї обіцянки вони зобов’язуються використовувати свої здібності робити добро, а не зло. Я стверджую, що люди, які працюють зі штучним інтелектом, повинні мати щось подібне. Тому я створив для них текст присяги.

Як вони відреагували?

Я трохи здивувався. Я думав, що вони це вітатимуть. Це проста річ. У житті не так багато речей, за які не потрібно платити, вони не містять калорій і не викликають рак. Ось чому я думав, що присягу всі сподобаються. Однак реальність була іншою. Були ті, кому не подобалося, що мова йде лише про штучний інтелект. Вони сказали, можливо, це повинно бути для кожного, хто займається комп'ютерними речами. Інші стверджували, що потрібно змінити одне слово тут, друге там, що моя присяга була неправильною. Я кажу їм не намагатися вкусити мене за палець, а дивитись туди, куди я вказую. Я був розчарований.

Можна сказати, що в суспільстві є занепокоєння щодо того, як буде використовуватися штучний інтелект. Багато людей, мабуть, вітають тих, хто працює з потужними інструментами, щоб мати певний контроль над собою. Можливо, вам доведеться переконати громадськість, що ваша клятва - гарна ідея.

Так. Ну спасибі. Я погоджуюсь з тобою. Я намагався переконати деяких людей прийняти мою присягу. Студенти університету та їх викладачі. Але вони були дуже неохоче. Можливо, ви зможете допомогти в цьому.

Яка найбільша небезпека зловживання штучним інтелектом?

Ми стикаємось з багатьма проблемами. Люди можуть втратити роботу, поглибити нерівність доходів, обмежити конфіденційність і, звичайно, ШІ можна зловживати з різними цілями. Злочинці можуть використовувати кіберзлочинність для впливу на вибори - гостра тема в США.

Як штучний інтелект може впливати на вибір?

Це приносить потенціал для набагато складніших атак. Люди знають, як бути дуже наївними, але ми повинні сказати, що ми дійшли до такої точки, коли дуже важко сказати, чи створений якийсь вміст людиною, чи штучним інтелектом. Ви можете бачити, як колишній президент Барак Обама говорив те, чого ніколи не говорив. На жаль, ми зіткнемося з цим.

Що з цим можна зробити?

Ми можемо посилити аутентифікацію вмісту, щоб знати, хто є справжнім автором вмісту. Повідомте мене, що це виникла в "Правді" або "Нью-Йорк Таймс". В Інституті Аллена ми створюємо інструменти для кращого виявлення шахрайства. Однак це нагадує гонку озброєнь між арміями. Між шахраями та тими, хто хоче їх викрити.

Коли ви згадуєте про гонку озброєнь, я, безумовно, можу використовувати штучний інтелект безпосередньо в армії.

Президент Росії Володимир Путін заявив, що той, хто володіє штучним інтелектом, буде керувати світом. Немає жодного ШІ. Однак його використання, безумовно, може створити переваги для країни з точки зору військової, економічної та науково-дослідної діяльності. Лідерами штучного інтелекту є США та Китай. І це, безумовно, виклик для Росії. Я сподіваюся, що підхід усіх залучених буде зусиллям до спільної роботи, а не ворожістю. На мою думку, Росія допустила помилку в 2016 році, коли намагалася вплинути на президентські вибори в США. Він віддав перевагу короткостроковій вигоді, а не довгостроковій. Це знову пробудило антагонізм США проти Росії. Це може мати негативні наслідки для обох країн.

На Заході, особливо в Європі, ми часто чуємо, що в технологічній галузі ми тікаємо від поїзда, що головним рушієм є Китай. Це справді так?

Це трохи складніше. На даний момент не можна сказати однозначно, але ми будемо знати це, можливо, через три-чотири роки.

Як це проявиться? Як ми дізнаємось, хто є лідером у галузі технологій?

Це матиме величезні військові, економічні та технологічні наслідки. Це вплине на звичайні речі, а також на функціонування військових систем. Ми цього ще не бачимо, але через деякий час усвідомлюємо це.

Коли я повертаюся до вашої присяги, те, що люди, що створюють ШІ, ніяк не можуть зробити?

Контроль над системами штучного інтелекту повинен залишатися в їх руках. Ви можете створити дуже розумну річ. Скажімо, надзвичайно інтелектуальна система зброї. Але рішення, чи вбивати когось, повинно залишатися за іншими людьми. Сюди входить, наприклад, чи повинен хтось сідати до в’язниці та подібні речі.

Буде так?

Це наше рішення.

Люди не захочуть перекладати відповідальність на машини?

© АВТОРСЬКЕ ЗАБЕЗПЕЧЕНО

Мета щоденника "Правда" та його інтернет-версії - щодня повідомляти вам актуальні новини. Щоб ми могли працювати для вас постійно і навіть краще, нам також потрібна ваша підтримка. Дякуємо за будь-який фінансовий внесок.