адміністраторів

Facebook працевлаштує ще 3000 людей для перевірки на невідповідний вміст у соціальній мережі. Однак він відмовляється говорити про те, як саме вони оцінюють невідповідні пости.

Що трапляється, коли ви повідомляєте Facebook, що публікація, яку ви вважаєте неприйнятною та має бути видалена? Чи лише ваш комп’ютерний алгоритм оцінить ваш звіт? Ні.

Чи лише деякі адміністратори десь в Індії розглядають такі звіти? Ні.

Чи допоможе це, якщо ви переконаєте більше людей також повідомити про цю публікацію? Ні.

Чи змінив Facebook щось, що Котлебовці втратили у квітні на значній частині своїх сторінок у Facebook? Ні.

Чи можемо ми бути абсолютно впевненими у наведених вище відповідях? Ні.

Співробітники Facebook давно відмовляються розголошувати, як їхня соціальна мережа оцінює проблемний вміст на своїх сайтах. Їхні відповіді розмиті та ухильні. Однак на основі різних підказок та підказок, які з’явились у громадськості за останні місяці, ми спробували описати, як Facebook вирішує, як поводитися з повідомленнями про ненависть і чому копіює помилки.

Кількість звітів не має значення

Коли в лютому Деннік Н наніс на карту 140 сторінок у Facebook, підконтрольних родині Котлеб, ніхто не знав, що за кілька тижнів більша частина їхнього арсеналу ЗМІ розпадеться - 4 квітня Facebook тимчасово заблокував сайт рецесіонізму «Зомрі», який часто висміював словацьких фашистів, і його вболівальники почали помсту. Веб-сайт NSSNS поступово впав, і сьогодні він вже недоступний 37. Існує також офіційний веб-сайт NSSNS, який мав понад 80 000 шанувальників, веб-сайт Маріана Котлеба, Мілана Мазурека або Мілана Уріка.

Якщо підсумувати кількість шанувальників, які Котлебовці мали на заблокованих сайтах, то ми отримаємо загальну кількість понад 313 000. Це не кількість унікальних людей, лише загальна кількість шанувальників, перекриття між цими сторінками може бути досить великим. Тим не менше, це величезна кількість і великий удар по маркетингу парламентської партії. За місяць вона втратила більше половини своїх шанувальників.

Facebook заблокував рецесійну сторінку "Зомрі", а вболівальники розпочали помсту проти котлів

Чи допомогло це тому, що дуже багато людей одночасно повідомляли про внески Котлебовців, тож вони були більше в очах адміністраторів? Представники Facebook прямо не відповіли. Однак у лютому вони все ще заявляли європейським неурядовим організаціям, що кількість повідомлень профілю, сторінки чи допису не мала реального впливу.

"Кожен звіт проходить оцінку, і не має значення, якщо п'ять людей або одна людина повідомляють про одне і те ж, рішення не змінюється", - сказала Мірка Графова з Фонду "Відкрите суспільство", яка була на зустрічі НУО з Facebook. Він додає, що якщо про один і той же вміст повідомляється неодноразово, і адміністратори неодноразово вирішують, що це нормально, тоді подальше повідомлення про публікацію не дійде до працівників Facebook. "Він автоматично отримує негативну відповідь."

Грофова, від імені Фонду «Відкрите суспільство», взяла участь у тренінгу разом із ще близько п’ятдесяти людей з некомерційних організацій з усієї Європи. Тренінг був зосереджений в основному на темі ефективних кампаній та ефективного спілкування у Facebook, але учасники також дізналися дещо про те, як відбувається процес оцінки внесених повідомлень.

Блогер Ян Бенчик отримує низку загроз та агресивних повідомлень. Facebook не бачить у них проблем.

Звітування про сторінки та профілі неефективне

Інформація, яку Facebook опублікував до цього часу, показує, що набагато ефективніше повідомляти про проблемні публікації (статуси, зображення, відео, посилання), ніж весь профіль користувача чи сторінка Facebook. "Люди, які оцінюють звіти, мають час в одному звіті лише в одиницях секунд. Тому вони не встигають розібратися з більш глибоким контекстом ", - говорить Груфова. "Якщо повідомляється про сайт чи профіль, вони в принципі лише оцінюють, чи містить заголовок, фотографія профілю, опис профілю та обкладинка щось, що порушує їхні стандарти. Але вони більше не мають доступу до самого вмісту, вони не мають можливості зробити це ".

Адміністратори можуть швидше переглядати певні публікації, і якщо під одним профілем скопійовано більше одного профілю, адміністратори можуть повністю його скасувати.

Ймовірно, це сталося з Котлебовцем у квітні. Коли багато людей починали повідомляти про свої публікації, вони також попереджали адміністраторів про дійсно проблемний вміст, який, мабуть, довго не помічався. Коли Facebook за короткий час видалив сторінку за порушення, вона відразу заблокувала всю сторінку.

Це лише гіпотеза, і ми точно не знаємо, чи дійсно вона правильна. Facebook абсолютно непрозорий щодо цих питань. Наприклад, у червні минулого року він щодня блокував кілька сторінок МСП. Хоча всі вони були відновлені, редактори досі не знають причини блокади. "Facebook ніколи не давав нам жодної думки, і ми не маємо уявлення, що могло бути за блоком", - говорить Томаш Чвіткович, головний редактор веб-сайту sme.sk.

"Нам вдалося вирішити всю ситуацію лише тому, що нам допомогло рекламне агентство, яке має діловий контакт у Facebook", - пояснює Цвітковіч. "Ми вважаємо процедуру Facebook тим більш некоректною, оскільки ми спілкувались безпосередньо з представниками Facebook та представником PR, які обіцяли нам, що вони вирішать проблему".

Facebook заблокував акаунт активіста Юрая Сматана на три дні за критичний коментар щодо Котлебовців.

Словаки також є серед адміністраторів, але вони не судять про весь словацький зміст

Рішення Facebook часто створюють враження, що у компанії немає навіть адміністраторів, які розмовляють словацькою та розуміють місцевий контекст. Однак Facebook стверджує, що в ньому працюють також люди, які можуть оцінювати дописи, написані словацькою мовою. "Ми докладаємо всіх зусиль, щоб забезпечити ретельне вивчення контексту всього повідомленого вмісту, саме тому у нас тисячі людей працюють по всьому світу цілодобово, без вихідних. Вони готові допомогти людям, які потребують нашої допомоги, більш ніж на 30 мовах, включаючи людей, які говорять на словацькій мові ", - заявив речник Facebook у Центральній та Східній Європі.

Скільки людей із Словаччини оцінюють повідомлений вміст? Де вони розташовані? Чи оцінюють вони всі пости словацькою мовою? Чи можна особисто з ними познайомитись? Це питання, на які компанія більше не відповідала, і лише при нагадуванні надсилала ухильні відповіді чи розмиті фрази.

На зустрічах з неприбутковими організаціями представники Facebook заявили, що словацькі адміністратори повинні базуватися в Дубліні. "Словацькі газети оцінюють словацькі модератори. За їхніми словами, вони мають алгоритми, які сортують усі пости та визначають, кого буде призначено. Вони приймають рішення на основі кількох факторів, таких як країна, яку ви маєте у своєму профілі, мова, яку ви вказали, мова профілю, про який повідомляється ... Це оцінюється, а потім внесок призначається людині, яка повинна розуміти мовою ", - сказав Граф.

Словацькі адміністратори не оцінюють весь вміст словацькою мовою, а лише публікації, для яких ключовою є мова статті. Графічно зображене насильство або зображення із сексуальним вмістом не сортуються за мовою. Швидше за все, словацькі адміністратори навіть не оцінюють реальність деяких облікових записів.

Наприклад, у Франції, наприклад, нещодавно Facebook скасував 30 000 фальшивих акаунтів, які поширюють фальшиві повідомлення, дезінформацію та спам, у нашій країні він також залишає без уваги фальшиві акаунти, які фігурують під іменами, такими як Ficovolič Prašivý або Soudružka Hodvábna. Повідомляючи про такі акаунти, Facebook буде писати лише про те, що профілі не порушують стандартів громади.

Однак у той же час Facebook створює проблеми для людей, які фігурують під справжніми іменами. "Одного разу Facebook вирішив боротися за те, щоб люди мали власні імена. Одним із критеріїв, згідно з яким машина буде судити, що це вигадане ім’я, було перевірка символів, що використовуються в назві. Очевидно, вони встановили просте правило, що якщо користувач походить із штату, то його ім’я повинно містити лише символи алфавіту мови, яка є офіційною в цій державі ", - пояснює Радо Ондржейчек, автор Цинічного монстра. "Отже, коли вони знайшли" ř "від мого імені та виявили, що це не" ř "словацькою мовою, вони оцінили це як помилковий профіль".

Ondřejíček повинен був змінити своє ім'я та поважати правило, що іноземні символи заборонені. Тож сьогодні він з’являється у Facebook під словами, які не мають нічого спільного з його ім’ям. "Але оскільки вони не містять" іноземних "символів чи іноземних символів, Facebook із задоволенням прийняв це".

Блогер Само Марек має подібний досвід. "Одного разу мені спало на думку, що мені повідомили, що моє ім'я не справжнє, і що я повинен його відредагувати, а також надати документ, що посвідчує особу". Тому Само довелося змінити своє ім'я на Самуель у Facebook, і він повинен був надіслати відсканований Посвідчення особи на Facebook.

Минулого тижня Facebook написав нам, що акаунт на ім’я Мацко Ушко не порушив правила.

Очевидно, підроблені акаунти. Адміністратори Facebook не виявили жодних порушень.

Виступили адміни в Берліні

Як повідомляється, у Facebook працює 4500 людей, які стежать за вмістом і видаляють його, коли політика порушується. Цього тижня компанія оголосила, що працюватиме ще 3000 людей по всьому світу.

Компанія зазнає все більшого тиску. Наприклад, Міністерство юстиції Німеччини пропонує закон, який може накласти штраф до 50 мільйонів євро на інтернет-компанії, якщо вони недостатньо борються з мовою ненависті. Тим не менше, Facebook не надає німецькій громадськості та журналістам більше інформації про те, як приймати рішення при розгляді проблемного контенту. Він також не коментує, як адміністратори кваліфіковані для своєї роботи.

У грудні 2016 року Süddeutsche Zeitung отримала інформацію про те, як працюють адміністратори Facebook у Берліні. Поважний німецький щоденник писав, що там працює близько 600 людей. Вони не працюють безпосередньо у Facebook, їх наймає Arvato. Їх заробітна плата повинна бути трохи вище законодавчого мінімуму. Більшість співробітників не володіють німецькою мовою, а адміністратори Берліна, серед іншого, оцінюють внески арабською, турецькою, італійською та французькою мовами. Люди, які втекли до війни в Сирії, також повинні працювати в команді.

Адміністратори, які є найнижчими в ієрархії, повинні оцінювати приблизно 2000 повідомлень на день. Інші, хто переглядає вміст відеороликів, мають близько восьми секунд, щоб вирішити, зберегти чи видалити публікацію.

Німецькі журналісти також повідомляли, що адміністратори Берліна скаржились на перевтому, стрес та розмови про психічні проблеми, через які вони щодня стикаються з надзвичайним та шокуючим вмістом в Інтернеті, включаючи тортури, вбивства та жорстоке поводження з дітьми. Компанія не надає їм жодної професійної допомоги і залишає за собою справу з психологічними наслідками своєї роботи.

Подібні застереження не є новиною. Ще в 2014 році журнал Wired опублікував звіт про те, як виглядає робота модераторів соціальних мереж на Філіппінах. "За три-п’ять місяців усі повністю знесилені", - заявив колишній модератор YouTube. Психолог, який надавав поради філіппінським компаніям, сказав, що те, що відчувають адміністратори, схоже на посттравматичний стресовий розлад, який відчувають солдати після повернення з війни.

Wired описав, що саме на Філіппінах багато компаній знайшли дешеву робочу силу для вирішення проблемного вмісту. Колись країна була американською колонією, культурно близькою до американців, так що місцевий персонал може оцінити, що американці вважають образливим.

Facebook заявляє, що не терпить нападів на конкретних людей. Однак адміністратори вирішили не порушувати таких правил.

Захищені категорії

Facebook має власне визначення свободи слова, його внутрішні правила точно говорять, що можна видалити, а що - залишатися в мережі. "Facebook категорично відмовляється коментувати, як виникли ці правила", - пише Süddeutsche Zeitung.

Німецький щоденник отримував частини внутрішніх документів, на підставі яких адміністратори Facebook повинні приймати рішення. Компанія визначила т. Зв захищена категорія. Якщо публікація містить захищену категорію та напад, це має бути виклик ненависті, який слід видалити.

Facebook визначає захищені категорії на основі статі, релігії, національності, гендерної ідентичності, раси, етнічної приналежності чи сексуальної орієнтації. Тому в документах зазначено, що релігійні групи слід захищати, але не самі релігії. Те саме стосується національностей. "Відверто говорити про Францію чи Німеччину, як правило, дозволено, засуджувати людей на основі їх національності заборонено".

Правила також передбачають, що якщо ви поєднуєте захищену категорію з іншою захищеною категорією, захищена категорія (наприклад, ірландські жінки) буде створена заново, а атаки на неї слід усунути. Однак якщо ви поєднуєте захищену категорію з незахищеною категорією, буде створена незахищена категорія. Наприклад, "підлітки" - незахищена категорія; тому, якщо хтось пише, що ірландські підлітки дурні, публікацію не потрібно видаляти.

У внутрішньому документі також зазначено, що забороняється писати "чортові мусульмани", оскільки це напад на релігійну групу, але Facebook більше не бачить проблеми з фразою "трахкані мігранти", оскільки мігранти просто "квазізахищені" категорія ".

Усі адміністратори, з якими допитувались журналісти Süddeutsche Zeitung, підтвердили, що правила, за якими вони приймали рішення, були суворими, незрозумілими і часто змінювались. "Зрозуміти правила практично неможливо. Я сказав своєму шефу: «Це божевілля! Картина сповнена крові та жорстокості, ніхто не повинен її бачити ". Але він сказав:" Це лише ваша думка. Ви повинні спробувати подумати про те, чого хоче Facebook. Від нас очікують, що ми думаємо як машини ''.

Минулого тижня адміністратори Facebook писали, що знімок, який надіслав до Роми дозу пістолета-кулемета, не порушує правил.

Штучний інтелект може мені допомогти

У березні британський BBC виявив, що Facebook також має проблему з видаленням сексуальних зображень дітей. Зі 100 повідомлень, про які повідомлялося, Facebook видалив лише 18. Водночас було повідомлено про п’ять акаунтів педофілів, жоден з яких не було скасовано.

Настав дивний момент, коли Facebook згодом повідомив поліцію журналістів BBC, оскільки вони безпосередньо надіслали йому приклади зображень, які не були видалені. Перегляд і передача педофільських зображень у Великобританії заборонений, і Facebook дотримувався вказівок Британського національного кримінального агентства (NCA). Репортери мали надсилати компаніям посилання на незаконний вміст, який Facebook не видаляв, а не на сам вміст.

Facebook все частіше заявляє, що розробляє та вдосконалює штучний інтелект, що має допомогти йому видалити проблемний вміст. У відкритому листі Марк Цукерберг також визначив це одним із своїх головних пріоритетів. Люди не можуть контролювати все. Щомісяця Facebook має 1,94 мільярда активних користувачів, у Словаччині їх кількість оцінюється у понад 2,3 мільйона. Щохвилини в мережі публікується 400 000 нових дописів та 180 мільйонів коментарів під загальнодоступними дописами знаменитостей та брендів.

Хоакін Кандела, керівник прикладного машинного навчання у Facebook у травні 2016 року, сказав TechCrunch, що Facebook вже мав більше невідповідних зображень, виявлених програмним забезпеченням, ніж люди на той час.

Кандела пояснив Mashable, що вони намагаються розробити алгоритм, який зможе виявляти та завантажувати невідповідні дописи ще до того, як їх хтось побачить. "У нас є багато образливих або огидних знімків. Протягом останніх кількох років ми докладаємо всіх зусиль, щоб вийти з режиму, коли ми покладаємось на те, що люди повідомляють нам зображення атак, а потім оцінюють їх по одному, до режиму, коли у нас є комп’ютерна система, яка видаляє такі зображення раніше, як хтось їх побачить ".

Він бачить проблему в оригінальній системі, оскільки до моменту завантаження проблемного зображення модераторами шкода вже завдана, оскільки тисячі людей змогли побачити його тим часом.

В останні місяці вони також зосередяться на розробці штучного інтелекту, який зможе шукати невідповідні відео в реальному часі. Facebook також починає мати проблеми з ними, оскільки поширюються прямі трансляції про заподіяння собі шкоди, зґвалтування чи навіть самогубство. Однак у грудні 2016 року Кандела заявив, що цей штучний інтелект все ще перебуває на стадії досліджень.

Додано 22.5.2017: Газета Guardian отримала десятки документів, за якими Facebook дотримується при видаленні вмісту. Правила говорять про насильство, ненависть, порнографію, расизм та заподіяння собі шкоди.