Штучний інтелект може стати катастрофою для комп’ютерної безпеки. Якщо вона засвоїть навички злому, це може бути не зупинити, попереджають вчені.
До цього часу за кожною хакерською атакою стояла людина чи група хакерів. Це може змінитися через кілька років, якщо штучний інтелект перебере навички злому. Експерти з безпеки IBM вважають, що захиститись від них буде дуже важко. У ході своїх досліджень експерти з'ясували, що може статися, якщо машинне навчання використовувати для створення спеціальних програм злому, які можуть проскочити найкращий доступний захист. Дослідники поділяться своїми висновками з конференцією Black Hat у Лас-Вегасі.
Вивчення шкідливого програмного забезпечення може бути не покрито
Найсучасніші системи безпеки сьогодні з’ясовують, як поводиться шкідливий код, замість того, щоб аналізувати код на наявність попереджувальних сигналів, які вказували б на те, що він може бути шкідливим. Нове покоління шкідливого коду за допомогою машинного навчання може навчитися поводитися непомітно, поки не знайде свою ціль, яку потім атакує. На думку вчених, такі шкідливі коди надзвичайно важко визначити і зупинити. Тому досі жодна з охоронних компаній не похвалилася таким уловом.
Навчальних шкідливих кодів поки що не так багато, але вони, швидше за все, зміняться. Складне шкідливе програмне забезпечення такого типу дотепер використовувалося лише службами безпеки деяких країн, які спричинили хакерські атаки на важливу інфраструктуру інших країн. Прикладом може слугувати шкідливе програмне забезпечення Stuxnet, розроблене Ізраїлем та США, яке поводилося дуже непомітно, поки не знайшло своєї мети - установ збагачення іранського урану. За кілька років ми, як повідомляється, зіткнемось із подібними типами загроз, для яких антивірусні рішення будуть короткочасними. "Я переконаний, що ми прямуємо туди. Виявити такі загрози буде набагато складніше ", - цитує Reuters аналітика Джона ДіМаджо з охоронної фірми Symantec Corp.