Експерт зі штучного інтелекту Марія Білікова: Я боюся не роботів, а людей
Штучний інтелект (ШІ) - це така загальна частина нашого життя, що ми звикли до нього і часто навіть не підозрюємо, що він тут. Перекладає тексти, орієнтується на автомобілях, консультує нас в електронних магазинах або допомагає банкам вирішити, кому надати кредит ...
Однак ШІ також порушує суперечливі питання щодо його подальшого розвитку, застосування чи впливу на ринок праці. Професор Марія Білікова є головою Словацького центру досліджень штучного інтелекту - Slovak.AI та членом експертної групи з питань штучного інтелекту при Європейській комісії.
Ми поговорили з нею у підкасті E-tika, який розповідає про соціальний вплив цифрових технологій.
Серед іншого, ви дізнаєтесь із інтерв’ю:
- коли ми можемо залишити ШІ вільним і коли ми повинні за ним доглядати;
- як Словаччина може бути актуальною у світі ШІ;
- що повинні вивчати ваші діти, щоб їх ніколи не замінювали роботами на роботі;
- наскільки ми далекі від загального штучного інтелекту на рівні людини і чи варто цього боятися.
Який стан штучного інтелекту сьогодні та яке його місце в майбутньому?
Коли справа стосується майбутнього, завжди добре дивитись у минуле. Люди завжди створювали інструменти для полегшення роботи. Вони також створили обчислювальні машини - комп’ютери - і дуже швидко намагалися зробити їх кращими та вирішувати складніші завдання: бути розумнішими. Так з’явився штучний інтелект 60 років тому.
Його вплив коливався протягом історії, але завжди був пов’язаний з іншими технологіями, тому я навіть не сприймаю ШІ окремо від інших цифрових технологій.
Сьогодні, навіть в контексті коронарної кризи, ми бачимо, що оцифрування відкриває величезні можливості для різних продуктів та послуг, де завжди добре бути розумним. Чим більше ми використовуємо досягнення цифрової ери для вирішення різних завдань, тим більше ми будемо рухатися вперед у найрізноманітніших сферах.
Таким чином, значення ІТ та штучного інтелекту буде зростати і надалі. Одного разу, і, можливо, це дуже близько, штучний інтелект злиється з іншими технологіями, і ми навіть не будемо конкретно називати його. Навіть сьогодні у багатьох рішеннях важко відокремити штучний інтелект від решти.
Тому я вважаю, що ШІ відіграватиме дуже велику роль, і від нас залежить, як ми з цим справлятимемось.
Під терміном штучний інтелект люди уявляють різні речі. Ось чому ми звикаємо починати будь-які дебати щодо ШІ, визначаючи їх. Що твоє?
Це питання майже впадає в очі. Перш за все, штучний інтелект - це наукова дисципліна. Тому неправильно персоніфікувати її і говорити про неї як про живу істоту, наприклад, що «вона» буде чи не робитиме нам щось. Вона сама нічого не зробить.
Той факт, що ШІ визначається по-різному, також пов'язаний з тим, що ці описи мають різні цілі. Тому, наприклад, у матеріалах семінару Slovak.AI, які слугують підтримці впровадження ШІ у словацькі компанії, це широко і просто описується як здатність неживих машин вирішувати завдання, що вимагають певного рівня інтелекту. Однак такого визначення, звичайно, було б зовсім недостатньо при введенні будь-яких норм чи законодавчих актів.
Визначення ШІ здебільшого зосереджуються на його властивостях. Як найбільш фундаментальну особливість ШІ, я сприймаю здатність системи вчитися, тобто навіть у несподіваних ситуаціях, про які ніхто не замислювався заздалегідь, поводитись належним чином і прийнятно і служити поставленій меті.
Так, наприклад, система для зрошення газону, яка тут також продається з прикметником «розумний» і при цьому починає поливати лише в певний час, якщо вона суха, ви не вважали б її «розумною».
Якби у нас була така система сорок років тому, ми б, звичайно, називали її тоді розумною. Кількох правил IF-THEN було б достатньо.
Сьогодні ми зазвичай вимагаємо включення до цієї сфери більш складного судження. Але добре знати, що визначення ШІ, схоже, рухається в часі, а через кілька років дуже складна зрошувальна система - яка буде прогнозувати погоду і спричиняти полив, навіть якщо ми цього не зробили, тоді як її рішення виявляється будь напрочуд правильним - це може бути вже настільки звичайно, що ми не надаємо йому жодного спеціального прикметника.
Сьогодні ШІ виконує різні ролі, можливо, у кожній галузі. Де і коли ми можемо дозволити їй діяти або приймати рішення повністю без нагляду?
Перш за все, існує подібна проблема, як із спринклером для газону: у тому сенсі, що незрозуміло, чи є та яка її частина - інтелектуальна система.
Але якщо я трохи переборщу, то скажу, що слід брати участь завжди і скрізь. В принципі, нічого не повинно відбуватися без його нагляду. Це, звичайно, стосується певного рівня системи. Є завдання, які ми вже приймаємо. У той же час, через складність, навіть не можна все контролювати.
Межі того, де залишити машину більше, а де менше свободи, можна отримати з двох вимірів. Перший - це те, наскільки далеко розвивається система ШІ і наскільки складним є завдання з її точки зору. Оскільки сьогодні в одних областях машина слабша за трирічну дитину, в інших - навпаки. Я, звичайно, дав би йому більше свободи в тих областях, де він добре працює.
Другий погляд пов’язаний із зоною ризику, в якій знаходиться завдання. Чи може вихід даної системи ШІ впливати на будь-який з наших основних етичних принципів, цінностей, чи може комусь завдати шкоди. Отже, якщо система також працює технічно добре, але існує ризик того, що вона може загрожувати людині чи завдати вам шкоди, то це, звичайно, потрібно враховувати.
Є щось, чого ви точно не хотіли б, щоб системи ШІ робили для нас?
Червоних ліній більше. Така сфера є найбільш значною у галузі автономної зброї, і я радий, що наша експертна група з питань штучного інтелекту в Європейській комісії також зазначила це у своїх керівних принципах.
Деякі філософи, які є членами цієї групи, явно боролися за те, щоб вона була там, а в той же час інші виступали проти того, щоб взагалі публікувалася будь-яка червона лінія, побоюючись, що громадськість штучного інтелекту в результаті стане боятися.
Ще однією червоною лінією, з моєї точки зору, про яку багато говорять, є маніпулювання інформацією, яка в певному сенсі також є зброєю. Я маю на увазі такі речі, як фейкові новини або вплив на вибори шляхом дезінформації.
Ще однією проблемою ШІ є погана прозорість. Іноді ці системи настільки складні, що ми не можемо зрозуміти, як вони приймають рішення. У той же час вони також використовуються в дуже серйозних сферах; наприклад, десь вони вже вирішують, якому пацієнтові поставлений діагноз або в’язню якого можна звільнити.
Прозорість штучного інтелекту - це величезна проблема, про яку ми знали з самого початку її дослідження.
У той час алгоритми ШІ працювали безпосередньо з відомими нам властивостями та на основі явно виражених знань, найчастіше у формі правил. Наприклад, система, яка, як кажуть, діагностує пацієнта, працювала з вхідною інформацією про температуру його тіла, чи є у нього кашель тощо. Потім, коли він рекомендував діагноз, він робив це на основі явно письмових знань у вигляді правил, які пов'язували ці симптоми з діагнозами, і тому можна було з'ясувати, чому і на якій основі він вирішив це зробити.
Проблема в тому, що такі системи можуть вирішувати лише дуже вузьку групу завдань. Якщо доводилося додавати нові ситуації, виникали винятки, все повинно було ускладнюватися і часто налаштовуватися вручну. Тому дослідники розробили системи, де правила самі автоматично створюють програму на основі багатьох прикладів. Як варіант, і це вже сьогодні є реальністю, машина може не тільки створювати правила, але й параметри, на основі яких вона запропонує рішення. Ну, чим більше ми даємо комп’ютеру більше роботи, тим менше у нас шансів фактично перевірити його результати.
Цей перехід від зрозумілості до незрозумілості у випадку штучного інтелекту був буквально стрибком. Явний підхід, заснований на написанні знань таким чином, що слідує людській логіці, змінився на підхід глибокого навчання, заснований на нейронних мережах, де результат базується на дуже малих, по-різному взаємопов’язаних та незрозумілих значеннях, що створюють результат. Це часто добре, але людині дуже важко пояснити.
Сьогодні ми перебуваємо в ситуації, коли нереально вимагати повної прозорості алгоритмів штучного інтелекту, щоб кінцевий користувач зрозумів, чому система ШІ розробила те чи інше рішення. Я знаю, що це не звучить добре, але спробуйте попросити лікаря-людину повністю пояснити ваше рішення, коли воно може перейти, скажімо, частково до інтуїції. Це також не працює.
В даний час найбільш розумним підходом до боротьби з поганою прозорістю ШІ є розбиття цієї проблеми на кілька частин. Одна частина - це зусилля, щоб задокументувати процес таким чином, щоб він був тиражуваний. По-друге, ми прагнемо максимально зрозуміти дану рекомендацію, зроблену машиною, принаймні для експертів. По-третє, це спілкування, тобто людина повинна бути поінформована, наприклад, про те, які дії вчинив комп’ютер, наскільки він успішний, щоб потім сама людина могла прийняти обґрунтоване рішення.
Ці теми десь на стику технічних та гуманітарних наук. З якого боку до них краще підходити?
Вони справді знаходяться в інтерфейсі, і моє серце бажає спробувати зв’язати ці два світи. У наш час технології дуже популярні, і може здатися, що соціальні науки здаються на задньому плані, але в той же час вони, звичайно, надзвичайно важливі.
Тому технологічним компаніям добре наймати людей з гуманітарною освітою, об’єднувати їх на різних платформах, пов’язаних з технологіями, таких як, скажімо, Slovak.AI, бути в технічних університетах, а отже, приєднуватися до технічних команд скрізь.
Техніки дивляться на речі по-різному, і коли два світи змішуються, вони раптом виявляють, що вони потрібні один одному.
Існують думки, що штучний інтелект сьогодні може вирішити лише дуже вузьку кількість завдань. Колись він матиме широкий спектр застосування?
Я думаю, що штучний інтелект зараз
- Дитина з генотипом трьох людей народилася «Консервативним щоденником»
- Відкриття подвійної спіралі ДНК започаткувало розвиток усіх областей біології; Щоденник N
- O перешкоджає наданню першої допомоги (ми відповідаємо на запитання читачів); Щоденник Е
- Небезпечний метод I; Щоденник N
- Чи можуть бактерії боротися з ожирінням Кишкові бактерії від тонких людей можуть зробити тонких мишей ожирінням