Буквально місяць тому ми також повідомляли, що дослідники OpenAI зробили настільки гарний копірайтинг штучного інтелекту (ШІ), що не наважились його опублікувати, але тепер знову виявилося, що варто боротися з драконом драконовою травою: MIT-IBM Watson AI Lab та дослідники Гарварду створили алгоритм під назвою GLTR, який визначає, що текст, створений такими ботами, не написаний людиною, пише Futurism.

індекс

Коли OpenAI представила свій проект GPT-2 у лютому, AI написав надзвичайно переконливі статті про шкідливі наслідки переробки та єдинорогів, виявлені дослідниками. Бот домігся цього завдяки здатності з дивовижною ефективністю вгадувати, які слова повинні слідувати одне за одним після тривалого навчального процесу, а GLTR працює точно так само, намагаючись зрозуміти, які слова алгоритм написання тексту використовував би у реченні.

Ми припускаємо, що люди вважають, що тексти, створені за допомогою штучного інтелекту, є реальними, оскільки вони містять лише слова, які найкраще відповідають реченням.

- був написаний дослідниками, які розробляли алгоритм, додавши, що текст, написаний людиною, навпаки, часто містить терміни, присутність яких логічна з контексту, але не буде найбільш очевидним рішенням.

Ось чому можна визначити, чи текст написаний людиною чи машиною, і це можна переглянути під час роботи, оскільки дослідники запустили демонстраційну версію, яка може перевірити заздалегідь запрограмовані тексти або навіть власні статті. Програма виділяє кожне слово кольорами в залежності від ймовірності того, що їх написав ШІ: якщо весь текст зелений, то це, безумовно, зловмисник машини, тоді як якщо багато червоного або фіолетового, є великі шанси. це може бути роботою чоловіка.

Звичайно, GLTR ще не ідеальний, вже було виявлено, що, хоча він чудово працює проти GPT-2, він не настільки ефективний з іншими алгоритмами, тому, схоже, такого інструменту буде недостатньо проти таких програм.