Сюрприз: Facebook каже, що Facebook - добре для новин!

Минулого тижня в журналі було опубліковано дослідження Наука це свідчить про те, що алгоритм Facebook не є причиною гіпотетичного «бульбашки фільтру» - де люди бачать лише новини, які відповідають їхнім політичним налаштуванням у соціальній мережі.

Єдина проблема? Це дослідження Facebook, проведене людьми, які працюють у Facebook.

Чи насправді нас усіх повинно здивувати, що власні дослідники Facebook мінімізують вплив маніпуляцій своєї компанії на стрічки новин людей?

Навчання, Вплив на ідеологічно різноманітні новини та думки у Facebook, Ейтаном Бакши та його колегами у Facebook, був опублікований минулого тижня в Наука. Як можна було опублікувати це дослідження в престижному журналі Наука? 1 Чи не повинен експертний огляд охоплювати корисні дослідження, опубліковані компаніями, які демонструють лише те, що компанія хоче, щоб дані показували?

Треба дивуватися, як рецензенти пройшли це дослідження у виданні. Багато критичних зауважень щодо дослідження вже було опубліковано, тому я просто проведу короткий огляд проблем, на які посилаються інші. Ця критика Крістіана Сандвіга в значній мірі підсумовує проблему з тим, як дослідники Facebook обертали власні висновки в опублікованому дослідженні:

Що стосується порівнянь, то дослідження продовжує стверджувати, що:

"Ми остаточно доводимо, що ... індивідуальний вибір більше, ніж алгоритми, обмежує вплив вмісту, що викликає ставлення".

"Порівняно з алгоритмічним ранжуванням вибір людей щодо того, що споживати, мав сильніший ефект"

Для мене дзвонять будильники. Тютюнова промисловість, можливо, колись фінансувала дослідження, яке говорить, що куріння менш небезпечне, ніж видобуток вугілля, але тут ми маємо дослідження про куріння шахтарів. Можливо, поки вони перебувають у вугільній шахті.

Я маю на увазі сказати, що не існує сценарію, в якому "вибір користувача" та "алгоритм" можна обміняти, оскільки вони відбуваються разом […]. Користувачі вибирають з того, що алгоритм вже відфільтровано для них. Це послідовність.

Я думаю, що правильне твердження щодо цих двох речей полягає в тому, що вони обидва погані - вони обидва посилюють поляризацію та вибірковість. Як я вже говорив вище, алгоритм скромно збільшує вибірковість користувачів.

Дійсно, ви могли б подумати, що дослідники Facebook, які, ви знаєте, працюють у Facebook, зрозуміли б, що ви не можете дражнити і відокремлювати алгоритм від поведінки користувача, оскільки один залежить від іншого. Не маніпулюючи алгоритмом (який, як виявив дослідник Facebook Адам Крамер, не годиться робити без попередньої інформованої згоди користувача), ви не можете сказати, чому користувачі натискають на одне більше, ніж на щось інше.

Але цей огляд дослідження у Facebook від Зейнеп Туфекчі, професора Університету Північної Кароліни, Чапел Хілл, написав, що те, що фактично виявлено даними дослідження, було поховано в додатку до дослідження:

Чим вище посилання, тим більше (набагато більше), швидше за все, на нього буде натиснуто. Ви живете і вмираєте шляхом розміщення, що визначається алгоритмом стрічки новин. (Ефектом, як правильно зазначає Шон Дж. Тейлор, є поєднання розміщення та того, що алгоритм вгадує, що б вам хотілося).

Це було вже відомо, здебільшого, але чудово підтвердити це дослідниками Facebook (автор дослідження - виключно співробітники Facebook). […]

Однією з нових новин є те, що алгоритм подачі новин (скромно) пригнічує різноманітний вміст, а іншою важливою, а також новою висновком є ​​те, що розміщення у стрічці (сильно) впливає на рейтинг кліків.

Facebook показує вам новини, які ви, швидше за все, будете читати (оскільки це узгоджується з вашою політичною точкою зору), і що чим вище вони з’являються у вашій стрічці новин, тим більша ймовірність того, що ви натиснете на них.

Іншими словами, маніпулювання Facebook вашим стрічкою новин продовжує залишатися важливим фактором, що сприяє визначенню того, на що ви, ймовірно, натиснете. І вони продовжують маніпулювати цією стрічкою, щоб показувати вам політично узгоджені новини більше, ніж якби в їх алгоритмі взагалі не було упередженості.

І, як важливо відзначає Туфекчі, це була крихітна вибрана група користувачів Facebook, які вивчали лише тому, що дослідникам Facebook було зручніше (і дешевше) вивчати їх. Вони розглядали лише користувачів, які самостійно визначили свою політичну приналежність у Facebook та регулярно входять у службу (близько 4 відсотків загальної кількості користувачів Facebook [лише 9 відсотків користувачів заявляють про свою політичну приналежність до Facebook, тобто це не є зразком, який ви можете узагальнити що-небудь із]). Це нічого не говорить про користувачів Facebook, які не заявляють про свою політичну приналежність до Facebook - що є більшістю з нас.

Чи міг Facebook провести більш обґрунтоване дослідження? Звичайно, але для цього потрібні були б більш традиційні методи дослідження, такі як набір для опитування на сайті в поєднанні з рандомізованим набором електронної пошти за межами сайту.

Отже, ось нефільтрований, неупереджений висновок із даних (люб’язно наданий Tufekci), за якими дослідники Facebook, здавалося б, оберталися, щоб сказати, що те, що ви бачите в їхній стрічці новин, не є їх виною:

Дослідники Facebook напевно показують, що алгоритм подачі новин Facebook зменшує ідеологічно різноманітний, наскрізний вміст, який люди бачать у своїх соціальних мережах на Facebook, на помірну кількість. Дослідники повідомляють, що вплив різноманітного контенту пригнічується алгоритмом Facebook на 8% для самоідентифікованих лібералів та на 5% для самоідентифікованих консерваторів.

Або, як висловився Крістіан Сандвіг, «алгоритм відфільтровує 1 з 20 наскрізних важких новин, які бачить самовизнаний консерватор (або 5%), і 1 з 13 наскрізних важких новин, що самоідентифікований ліберал бачить (8%) ". Ви бачите менше новин, з якими ви б не погодились, і якими поділяються ваші друзі, оскільки алгоритм не показує їх вам.

На жаль, за межами Нью-Йорк Таймс та декілька вибраних видань, більшість основних веб-сайтів засобів масової інформації просто повідомляли про те, що дослідники Facebook стверджували у своєму дослідженні, без скептицизму.

Але тепер ви знаєте правду - Facebook вивчив невелику нерепрезентативну вибірку, а потім применшив те, що фактично показували їх дані, щоб підкреслити результат, який був більш позитивним для компанії. Для мене це ще один приклад того, як дослідники Facebook насправді не розуміють сенсу наукових досліджень - ділитися знаннями зі світом, який не є упередженим та маніпульованим.

Для подальшого читання ...

Зейнеп Туфекчі: Як алгоритм Facebook пригнічує різноманітність вмісту (скромно) та як Newsfeed регулює ваші кліки

Крістіан Сандвіг: Дослідження Facebook "Це не наша вина"

NY Times: Facebook використовує поляризацію? Сайт починає відрізнятися

Виноски:

  1. На жаль, зараз я повинен додати ще один журнал до свого списку шанованих наукових публікацій, які потребують подальшої перевірки. Як відомо давнім читачам Світу психології, цей список з кожним роком стає довшим: Педіатрія (Педіатрія публікує дослідження про технології, які, мабуть, не переглядає ніхто, хто знайомий з основними причинно-наслідковими зв’язками досліджень.), Кіберпсихологія, поведінка та соціальні мережі (Кіберпсихологія, очевидно, публікує будь-яке дослідження про залежність від Інтернету або соціальні мережі, незалежно від їх якості.) І зараз, Наука. [↩]

!-- GDPR -->