Майже 700 000 користувачів. Це кількість люди, які брали участь, не знаючи цього в останньому експерименті, який Facebook організував у своїй соціальній мережі, і який викликав хвилювання в останні дні. З чого складався цей тест? Наприкінці 2012 року група дослідників вирішила здогадатися, чи впливає те, що ми читаємо в соціальних мережах, на наші почуття. Коротше кажучи: вони хотіли з’ясувати, чи читання позитивних речей змушує нас ділитися більше щасливими станами, а чи читання негативних речей змушує ділитися більш сумними станами.

навчає

Як вони це зробили? Виникає проблема: вони змінили дописи, які люди бачили у своїй стрічці новин або розділі новин Facebook. За словами самих інженерів, пояснюють у дослідженні, "маніпулював" інформацією що було показано кожному учаснику. Хоча одні вирішили показати більше позитивних історій, інші заповнили профіль оновлень негативними відтінками. Хоча вони виявили, що так, емоції також заразні в соціальних мережах, вони також викликали ще одну дискусію: яке право Facebook має для маніпулювання чи фільтрування того, що ми бачимо?

Наслідки експерименту

Так, що зробив Facebook, може бути сумнівним, але після того, як багато засобів масової інформації повідомили про цю новину, багато хто пояснив, що це було включено до правил користування соціальною мережею. Зареєструвавшись, ви приймаєте їх. Існує пункт, в якому зазначається, що вся інформація, яку надає користувач, може бути використана для внутрішнього використання та дослідження. Тому, якщо ви зареєструвались і користуєтесь Facebook, ви повинні погодитися з цим. Насправді, як вони добре пояснюють у Read Write Web, єдиним рішенням не бути ціллю дослідження для Facebook є видалити свій рахунок.

Однак дати не зовсім підходять. Дослідження проводилось протягом тижня в січні 2012 року, проте Facebook не додав цей пункт до умов використання до травня 2012 Це може бути великою проблемою для соціальної мережі, яка фактично вже досліджується щодо неї британським агентством із захисту даних. Цей орган перевіряє, чи користувачі не дали свою згоду на участь та інформацію, яку Facebook зібрав.

Але це Facebook експериментує зі своїми користувачами як морськими свинками це не щось нове, і фактично створення команди, яка відповідає за ці випробування, відбулося в 2007 році. Приклад наведено в The Wall Street Journal: у 2010 році повідомлення про "політичну мобілізацію" було надіслано понад 61 мільйонам людей для голосування в вибори, які були проведені того року в США. Для Крамера, дослідника, про якого ми згадали раніше, Facebook є найбільшою галуззю досліджень у світі, і великою перевагою є те, що вони можуть проводити експерименти швидко та з великою кількістю учасників. Це було не перше дослідження і це не буде останнім.

Facebook та витік інформації

Справа в тому, що Facebook фільтрує нашу стрічку новин Це не щось нове, хоча багато людей про це не знають. Припустимо, у вас є 100 друзів. Ви збираєтесь бачити історії цих 100 друзів, абсолютно все, що вони публікують, у своєму профілі? Відповідь - ні. На відміну від того, що відбувається в інших соціальних мережах, Facebook використовує алгоритм, який визначає, яка інформація є релевантною для кожного користувача, а яка - ні. На основі цього він показує вам деякі оновлення або інші.

Проведіть експеримент: якщо у вас є акаунт у Facebook і ви давно нічого не читали від друга або вас дивує те, що ви нещодавно не бачили оновлень зі сторінки, за якою стежите, перейдіть безпосередньо до їх профілю. Сюрприз! Оновлення є, навіть якщо вони не надходять до вас. Чомусь алгоритм соціальної мережі вважає, що вони для вас не стосуються, і тому він вам їх не показує. Це те, що було завжди, і це вони виправдовують, кажучи це, якщо насправді нас усьому навчили, ми боялися б такої кількості інформації. За словами Брайана Боланда, керівника групи маркетингу Facebook:

Повертаючись до попереднього прикладу, якщо користувач має 100 друзів і опублікує фото, лише 20 із них можуть побачити його у своїй стрічці новин. Ця цифра відома в статистиці Facebook під назвою "сфера застосування": кількість людей, яким відображається певне оновлення. Якщо у вас є особистий кабінет, обсяг ваших публікацій є секретом. Якщо, з іншого боку, у вас є сторінка у Facebook (для бізнесу, бренду тощо), охоплення з’являється внизу кожного повідомлення. Але на чому ґрунтується алгоритм, щоб вирішити, чи історія для вас актуальна?

Це те, що відомо про алгоритм Facebook

Це питання, яке ми щойно задали собі, є саме однією з проблем, оскільки Facebook ніколи не давав про це багато подробиць. Спочатку цей алгоритм був відомий як EdgeRank, і говорилося, що він залежав, в основному, від трьох параметрів: спорідненості користувача з джерелом, важливості вмісту (якщо він отримав "лайки", коментарів.) І часу (що оновлено чи ні що є). Ми говоримо в минулому, тому що Facebook припинив використовувати цей термін пару років тому, а алгоритм є сьогодні, набагато складніше.

Насправді, кілька місяців тому Facebook визнав, що це сучасний алгоритм залежить від більш ніж 100 000 параметрів. Так, три ключі до EdgeRank все ще розглядаються, але сьогодні процес відбору вмісту набагато повніший і складніший. Еволюція цього алгоритму є логічною для Ларса Backstroom, інженера, відповідального за систему, який у квітні минулого року зробив порівняння з Google, щоб пояснити це. Протягом багатьох років пошукові системи вдосконалювали свої алгоритми, щоб відображати найбільш актуальну інформацію вище. З Facebook вони хотіли зробити те саме.

Незважаючи ні на що, все ще існує Загальні "поради", як отримати більше охоплення. Вам здається звичним бачити, як деякі бренди використовують загадки чи запитання, що спонукають до коментарів? Зазвичай можна бачити публікації типу "Доповни речення" або подібних. Чим більше коментарів та оцінок "подобається" статусу, тим більший охоплення він матиме. Те саме відбувається із зображеннями: загалом вони, як правило, мають більший охоплення, ніж інший вміст, наприклад, посилання або текстові стани. Але це загальні риси, які, крім того, змінюються з часом, оскільки Facebook постійно вносить корективи в те, що вивчає.

Повертаючись до прикладу, який ми наводили раніше. Якщо сторінка вирішить опублікувати "Доповни речення: Мені подобається _______", що це сприяє користувачам? Насправді мало, але оскільки вони, як правило, є дописами з багатьма коментарями, раніше вони мали багато сфери. А неодноразові оновлення, знову і знову, які просять вас «сподобатися»? Дії можуть ввести в оману алгоритм, але в грудні минулого року Facebook оголосив про вдосконалення та зміни в ньому саме для того, щоб запобігти проникненню публікацій такого типу через фільтр. Алгоритм та його інженери, вони швидко вчаться і вони постійно вносять зміни.

Користувач не контролює

Однією з найпоширеніших докорів Facebook за цей алгоритм є те, що користувач насправді не контролює те, що він бачить. Якщо ви хочете переглянути всі оновлення від друга чи сторінки, у вас немає можливості повідомити про це в соціальній мережі. Ви можете додати своїх друзів до списку "Найкращі друзі", що буде враховано алгоритмом, але нічого іншого. Немає можливості підписатися, щоб побачити все.

Що робити, якщо замість того, щоб переглянути дописи, упорядковані за важливістю, ви хочете їх бачити відсортовано за датою? У лівій колонці, у маленькій стрілці поруч із "Новини", ви можете вибрати "Найновіші", але це тимчасове налаштування. Щоразу, коли ви хочете переглянути оновлення в хронологічному порядку, вам доведеться пройти той самий процес. Коротше кажучи: у вас немає іншого вибору, як дозволити Facebook зробити вибір і замовити їх для вас.

Хто такий Facebook, щоб сказати, що важливо для користувача, а що ні? Хоча багато хто задається цим питанням, правда полягає в тому, що це те, чим займається соціальна мережа протягом декількох років не очікується, що вони його змінять в недалекому майбутньому. Для них це просто працює краще, і користувачеві нічого не залишається, як прийняти, що інші на основі невідомого алгоритму вирішують, що їм показуватимуть, а що ні.

Гроші в обмін на підвищення сфери застосування

Неможливо говорити про охоплення у Facebook, не згадуючи ще одну суперечку, що повторюється. Існує два типи охоплення: органічний (який отримує звичайне оновлення при публікації) та платний. Якщо у вас є сторінка та ви публікуєте оновлення, ви можете платити додаткові гроші за Facebook, щоб показати їх більшій кількості людей. Тож чому сфера застосування з роками падає? Це насправді техніка соціальних медіа, щоб отримати більше доходу?

Багато хто захищає, що це так. У Ogilvy & Mather вони називають це ефектом "Facebook Zero", гарантуючи, що настане час, коли органічний охоплення буде нульовим, і ми матимемо лише платний охоплення. Для цього вони проаналізували кілька сторінок своїх клієнтів із понад 500 000 оцінок "подобається" і отримали досить негативну статистику: охоплення згорнулося.

З Facebook, очевидно, категорично заперечують, що це так. Не будучи прецедентом, у цьому випадку я погоджуюсь із соціальною мережею: сторінок стає все більше і більше конкуренції, тому нормально, щоб охоплення знижувалось. Зважаючи на те, що їм коштувало переконання малих та середніх компаній зробити стрибок до соціальної сфери, чи справді вони збираються застосувати цю гібридну модель (органічну та платну) за кілька євро?

Фільтр міхур

Елі Паризер, керівник Upworthy і кібер-активіст, давно засуджує саме такий тип поведінки з боку різних Інтернет-служб, а не лише Facebook. Для Паризера це небезпечно для людини завжди піддаватися відповідній інформації її та її переконання. Це те, що він називає бульбашкою фільтра, і що він пояснив з BP на прикладі. Google також персоналізує пошуки, тому, якщо хтось шукає нафтову компанію BP, він може отримати інформацію про інвестиції, а інша людина з тим самим пошуковим рядком може потрапити на сторінку, де вони пояснюють відомий розлив компанії.

Парисер каже, що це змушує людей "закриватися на нові ідеї та важливу інформацію", створюючи враження, що все що існує - це те, що ми бачимо навколо нас, не йдучи далі. Це, на думку виконавчої влади, робить людей більш вразливими до маніпуляцій. Ця концепція не нова, і вже в 2011 році Хав'єр де Вега резюмував її у своєму блозі:

Таємниця навколо алгоритму Facebook не допомагає цьому. Залишаючи осторонь мету маніпуляції (спроба зробити людей засмученими негативними оновленнями не актуальна), той факт, що ми дізналися про ручну модифікацію алгоритму лише з висновків дослідження, вже показує, що насправді Facebook є показуючи нам, чого вони хочуть, і виходячи з того, що вони вважають. Немає прозорості.

Яке сприйняття реальності ми мали б, якби ми бачили лише вміст із джерела чи певного потоку думок? Наприклад, якщо ми читаємо лише вміст із La Razón? Або якби ми могли читати інформацію лише від Public? На нашу реальність впливатиме прочитане, оскільки ми не маємо можливості протиставити тому, що говорять інші. У Facebook та інших інтернет-сервісах, в яких інформація фільтрується, і, на думку захисників цього "бульбашки фільтру", відбувається щось подібне: вони показують нам те, що, на їх думку, ми хочемо бачити, а не реальність. І що ще небезпечніше: ми, користувачі, не маємо ні контролю, ні влади змінювати його.