Це почалося як забавна технологічна новинка, яка перетворилася на небезпечну аферу та неминучу загрозу: ми обходимо все, що таке фальшива фейк.

хтось

Приблизно на рубежі тисячоліть, навіть у мільйонобюджетних суперпродукціях найбільших голлівудських кіностудій, була лише можливість змінити обличчя акторів ретельною роботою, яка часто тривала місяцями чи навіть роками, щоб надати риси померлого на обличчі дублярів, як у деяких сценах у Вороні. тим часом він помер із рисами Брендона Лі. Тоді тоді це взагалі не було повсякденним явищем, але минуло менше двох десятиліть буквально для того, щоб буквально будь-хто вніс правдоподібні зміни голови у кінофільми.

Також від імені технології, яка називається deepfake, все це стало можливим: штучний інтелект та машинне навчання, тобто глибоке навчання. Це пов’язано з тим, що цифрові гарнітури більше не стосуються художників-графіків, програмістів та обманщиків, які дражнять фільми від кадру до кадру: натомість вони дозволяють автоматичним алгоритмам машинного мозку перетворювати вміст. Про що ми говоримо Наприклад, можливо, ви захочете подивитися відео нижче, яке є частиною серії, яка кілька місяців тому отримувала багато інформації в ЗМІ. Ось фільм «Світіння», а обличчя Джека Ніколсона - це основа, на якій штучний інтелект так майстерно «тягне» обличчя Джима Керрі, так що цифрові хірургічні рубці майже не видно. Спочатку давайте подивимося порівняння, ліворуч від оригінального знімка, праворуч від продуманої псевдо-версії версії машини:

Тож як все це сталося, під час якого ліва версія Керрі разом із мімікою та рухами рота повністю переписала оригінальне обличчя? Що важливо, Джим Керрі не мав нічого спільного з небом, принаймні безпосередньо. Він не брав участі у створенні відео, і, можливо, він навіть не знав, що цей проект існує. Його голова, рух і гра обличчя були зібрані та застосовані до поточного завдання машинним інтелектом "один на один".

Як працює deepfake?

  • Штучному інтелекту дається відео, яке використовується як джерело.
  • MI складає карту обличчя, руху, виразу обличчя людини, синхронізації рота та будь-яких інших деталей (освітлення, ефекти), необхідних для створення пізнішого відеоролика.
  • Потім МВС (за посередництвом людини, звичайно) отримує тонну кадрів людини, чиє обличчя ми хочемо замінити обличчям оригінального персонажа. Алгоритм сканує тисячі (і навіть мільйони, в залежності від тривалості та складності завдання) кадрів, де "обмінна головка" відображається під усіма кутами, мімікою, освітленням та іншими змінами.
  • Нарешті, цей алгоритм також малює нове обличчя кадр за кадром на основі критеріїв, записаних у вихідному відео, завжди використовуючи той знімок зі сканованої бази даних, який найкраще відповідає оригіналу. Він також "обробляє" суглоби та уніфікує світло, щоб ми не бачили, скільки триває оригінальна голова і де починається щойно намальоване обличчя.
  • Ці кадри знову збираються у фільм, і практично без втручання людини автоматично створюється відео, коли глядач не помітив або навряд чи помітив, що хтось, чиє обличчя ми бачимо, не говорить, не рухається, не посміхається, не кричить і не плаче.

Наразі це було неймовірно цікаво, і іноді це може бути просто кумедно. Прикладом є сцена, де обмінюються обличчя двох колишніх суперників: у сценах Термінатора 2 Арнольда Шварценеггера замінює Сильвестр Сталлоне у головній ролі:

Незважаючи на те, що досі досить важко отримати доступ до глибокої підробки, яку ми самі можемо завантажити та використовувати безкоштовно, програми (переважно спроби китайців) почали просочуватися з деякими обмеженими функціональними можливостями, але дозволяючи кожному робити цілком прийнятні псевдо-відео зі своїми обличчя. підготувати. Такий випадок із Zao, який за короткий час набув великої популярності, незважаючи на те, що офіційно не був «прийнятий» ні в Google Play, ні в App Store. А потім пояснимо, чому ні - deepfake - це не просто гра та казка.

Людина, якої навіть не було

Не випадково ми вибрали в якості підзаголовка назву фільму. Це тому, що deepfake, як і всі нові технології у світі, має точно такий самий ефект, як і те, для чого він використовується. Отже, є цифрове рішення, розроблене для розваги саме по собі, яке, у свою чергу, чудово підходить для більш несприятливих додатків. Deepfake підходить для будь-якого темного бізнесу саме тому, що, окрім того, що ним користується майже кожен, хто має все менше і менше досвіду, майже щоденне переробне рішення стає важче знайти, якщо хтось не знає, що шукати. Як приналежність, подайте (але також і зовсім доброякісне) відео, яке набагато більше, ніж будь-коли раніше, що тут обличчя Арнольда Шварценеггера нанесено на голову коміка (Білла Хадера), який наслідує його в прямому ефірі. Зауважимо, що кожного разу, коли австро-американська зірка говорить голосом людини, обличчя негайно трансформується, і в цьому випадку ми можемо змиритися з турбулентністю через волосся або м’язової маси:

Як ми вже писали, ціль тут - це все-таки просто розвага, але ви вже можете побачити, що ми хочемо виконати. Якщо, крім ідеально трансформованого зображення, інші обставини (наприклад, статура, волосся і особливо тон людини, що замінює обличчя) можуть бути адаптовані до оригіналу особи, яку слід скопіювати, ідеальний обман вже зроблений . Це пов’язано з тим, що більшість людей все ще вірять у те, що бачать - не лише тому, що більшість людей ще не усвідомлюють природу фальшивих фальшивих та подібних шахрайств, але ми часто психологічно закодовані, щоб вірити тому, що ми хочемо бачити, навіть із невизначеною довірою. І ось таке відео:

У цьому короткометражному фільмі Барак Обама, колишній президент США, говорить з першого погляду. Обличчя, фон, тон, тон ідеальні, добре. Можливо, просто дивно, що він просто говорить про те, що в сучасному світі ми вже можемо говорити що-небудь зі своїми ворогами та отримувати кілька прикладів цього. Тільки тоді виявляється, що голос належить телевізійній персоні на ім’я Джордан Піл, яка чудово імітує виступ Обами. Призначення відео досі не є зворотним, насправді: це саме те, на що ми намагаємось привернути всіх у цій статті, щоб спробувати привернути увагу. Deepfake вийшов із категорії простих веб-жартів і став реальною загрозою.

Відтепер у будь-який час може статися, що політик з’являється у відео, закликаючи людей здійснити революцію, припинити роботу, агресію проти якоїсь етнічної групи чи інші порушення. Може бути відомий актор, музикант або лідер думок, який визнає деякі свої гріхи у відео - або ми навіть можемо бачити, як він це робить. І якщо довірлива маса надасть належне побаченому, можуть початися процеси, які зупинить меншість, яка марно намагається стверджувати, що все це була афера.

Не вір своїм очам!

Експерти чітко зазначають у зв'язку з розповсюдженням явища deepfake, що через деякий час цифрові пристрої користувачів більше не зможуть чітко ідентифікувати такі фальсифіковані записи. Ось чому надзвичайно важливо, щоб ми використовували наш здоровий глузд, коли з’являються будь-які відео- чи фотографічні новини, які є трохи дивними, важко повірити чи просто незвичними. Врешті-решт, узагальнюючи технології, ми, на жаль, доходимо до того, що мішенями зловмисних виробників фальшивих виробів стануть не лише політики, художники, знаменитості та особи, що впливають на політику, а особливо будь-хто. Якщо хтось хоче помститися колишньому або просто не може обробити відмову, він може легко зробити "відео для дорослих" іншої сторони, яке може поширити на ганьбу, або навіть шантажувати цільову особу, опублікувавши його, але це може також використовувати зловмисними економічними цілями, вигодами від роботи, достатньо привернути обличчя боса, менеджера компанії-суперника або навіть одного з важливих партнерів до якогось, здавалося б, компрометуючого пострілу.

Приємний новий світ? Ну, це досить приємно, адже deepfake, окрім вищезазначених небезпек, все ще може бути чудовим для використання в мистецтві, починаючи від напіванімаційних фільмів, закінчуючи музичними відеокліпами та закінчуючи відеоіграми, або ж може бути модним додатком для розваг для аудиторії на телефоні кожного. Але не завадить усвідомлювати викладені тут небезпеки лише для того, щоб ми могли бути готовими дочекатися поширення нового методу, і ми можемо легко судити, що за маскою досконалості криється лише зловмисний фокус.