За допомогою ІМ можна клонувати не тільки обличчя та звуки, а результат може легко обдурити будь-кого, тому важливо бути в курсі останніх хитроумних прийомів!

знали

Ще не видно, наскільки deepfakes * корисні для світу (наприклад, Дісней, мабуть, спричинив би роботу померлих або зайнятих акторів), але так, у чому полягає небезпека технології, як її можна використовувати для зловживань. Він постійно розвивається, стає все більш і більш правдоподібним, і нам не потрібно думати дуже глибоко, щоб це було зрозуміло, це може легко стати небезпечним і в повсякденному житті. Якщо ми більше не зможемо вірити в те, що бачимо чи чуємо на відео, буде ще складніше орієнтуватися в 21 столітті. Ось чому ми розпочали нову ініціативу під назвою # oszdazész, щоб підвищити обізнаність про важливі проблеми в Інтернеті та самозахисті, допомагаючи вам ділитися цією новиною зі своїми друзями, особливо тими, хто потребує правильної інформації та порад.

Деякі люди використовують штучний інтелект для створення аудіофайлів, тобто копіюють чийсь голос, а потім складають фрагменти разом, щоб вони могли переконати закликаного, що знайомий розмовляє, і, таким чином, обдурити гроші з них. Наведений нижче запис із звіту NISOS - це уривок із повідомлення голосової пошти, надісланого співробітнику технологічної компанії з проханням проголосити його "виконавчим голосом" для завершення термінової справи. Звичайно, це дещо робототехнічно, але ви можете легко привести нових або не дуже обережних колег.

У цьому випадку, до речі, шахраї не мали успіху, запідозрив працівник і негайно подав сигнал про дзвінок в юридичний відділ. Однак у вересні 2019 року британську енергетичну компанію було обдурено, і виконавчий директор нібито перерахував понад 220 000 євро на угорський рахунок, оскільки вважав, що його проситиме його бос. Зловмисників не вдалося зловити.

Досить багато аудіозаписів, навіть публічно доступних інтерв’ю, можуть бути корисними для створення таких фальшивих підробок, і якщо система може працювати з достатньою кількістю сировини, єдине речення, яке потрібно шахраям, блискавично.

Експерти пропонують нам передзвонити невідомий номер, щоб одразу було зрозуміло, чи ми розмовляємо з людиною, якій здався абонент.

Перевірка ніколи не може бути додатковим тягарем, і у разі серйозних підозр сміливо звертайтеся за допомогою до поліції!

* deepfake: вміст, створений за технологією deepfake, охоплює в основному відео та зображення, на яких обличчя однієї людини замінено на інше, але оригінальні рухи обличчя збережені. З його допомогою можна створювати підроблені, але правдоподібні матеріали, які можуть з’являтися в багатьох місцях - від політики до кіноіндустрії для дорослих. Викладений у статті випадок також можна класифікувати як фальшивий.