В принципі, приблизно 800 мільйонів користувачів китайської програми чату Tencent QQ могли отримати доступ до двох чатових ботів, запущених в середині тижня операторами відповідних груп через їх патріотичні та політично некоректні відповіді. За словами Tencent, розроблені третьою стороною алгоритми в даний час вдосконалюються і будуть доступні знову після необхідних удосконалень.
Це роботи під назвою BabyQ, керовані Роботом Тьюрінга в Пекіні, та XiaoBing, розроблені в Microsoft, які, мабуть, дали неадекватні відповіді на питання про китайську державу-учасницю та Південно-Китайське море. Financial Times повідомляє, що тестова версія BabyQ все ще була доступна розробнику в середу, і відповіла "чи подобається вам комуністична партія" простим "ні".
На питання, чи є Тайвань частиною Китаю, все, що він міг сказати роботові, було те, що він поки не може відповісти на це питання. Навпаки, XiaoBing на скріншоті, розміщеному на сайті мікроблогів Weibo, сказав, що його китайська мрія - це не що інше, як відмовитись від Америки. Алгоритми машинного навчання помітно збирали інформацію, яку вони знайшли в мережі, і зуміли синтезувати її з неї без відповідних настанов.
Це коли вони вільні вчитися
Це все-таки не перший приклад примусового відпочинку ботів, хоча, мабуть, жодного з них навіть не відправляли до Генерального генерала для антисистемних висловлювань. Зовсім недавно дослідники штучного інтелекту Facebook зіткнулися з проблемою: через деякий час два роботи, що спілкуються між собою, почали роздягати граматичні та семантичні правила, оновлюючи параметри, і продовжували своєрідною бешкетною мовою.
Багато хто трактував це як таке, що роботи говорили своєю мовою під час спроб переговорів та співпраці, що, звичайно, є абсолютною нісенітницею. Набагато яскравіше було, коли наприкінці минулого року новини були заповнені чат-флешкою від Microsoft під назвою Tay. Це був расистський карнавал годинами, і Тей не знадобилося багато часу, щоб знову виступити після маневру вимкнення-ремонту-перезапуску.
Тоді Microsoft говорила про скоординований саботаж користувачів, але чат-боти просто насправді не підходять для більш складних завдань, ніж, скажімо, чітко визначена діяльність із обслуговування клієнтів. Як зазначає експерт, якого цитує Financial Times, проблеми завжди виникають, коли завдання складніше, ніж відповіді так-ні.
IDC також не мають права страждати ожирінням
Щоб гарантувати, що життя не відбуватиметься без різноманітних чат-ботів, у четвер Міністерство громадської безпеки вимагало тригодинного стажування з деякими постачальниками онлайн-послуг, щоб продемонструвати свої «можливості реагування на надзвичайні ситуації» - тобто як швидко вони можуть зробити веб-вміст визнаним шкідливі для влади недоступні.
Цензори також готуються до 19-го з'їзду Комуністичної партії, запланованого на цю осінь, приймаючи свою роль більш суворо, ніж зазвичай, до заходу, який також приймає важливі особисті рішення. Згідно з повідомленням Reuters, онлайн-центри обробки даних та хмарні провайдери тепер також повинні були довести, що вони можуть своєчасно вилучити веб-сайти, які поширюють шкідливу інформацію.
Практику підтвердили Reuters чотири оператори IDC, включаючи китайський оператор хмарних служб Microsoft, а пізніше представник Управління національної безпеки в Гуанчжоу, проте компетентні органи не бажали коментувати інформацію. Практика нібито передбачала вимкнення позначених сторінок та передачу необхідних даних до поліції.
- Це не зробить стартап таким успішним, як ми думаємо - Bitport - Інформатика мовою бізнесу
- Коли звертатися до лікаря з приводу болю в кутах
- Що їсти при болях у суглобах
- Причини схуднення - 11 причин, по яких ти не можеш схуднути на животі в хорошій формі
- Які таблетки приймати від паразитів гостриків Збільшення ваги через паразитів