25 октября в США взорвалась информационная бомба. Сразу несколько десятков материалов самых крупных и авторитетных СМИ вышли по материалам слитых документов из Facebook её бывшей сотрудницей Фрэнсис Хауген. Все статьи собраны здесь.

Но читать 30+ статей долго. Часть из них закрыта Paywall, все на английском, много информации дублируется, поэтому я выбрал самые ключевые факты из сливов и обвинений Facebook и хочу поговорить о них в формате дайджеста с комментариями.

Проблема Facebook в том, что он слишком большой

Если собрать основные обвинения и проблемы Facebook в одно простое предложение, то получится примерно следующее:

Facebook, ты не можешь контролировать все сообщения всех людей в мире, которые тобой пользуются.

Львиная доля статей и претензий к Facebook основывается на отвратительной модерации. Давай посмотрим на цифры.

Сам Facebook говорит, что 40 000 человек работают над обеспечением безопасности на платформе, в том числе 15 000 человек, которые просматривают контент на более чем 70 языках и работают в более чем 20 странах по всему миру.

Грубо говоря, непосредственно модерацией занимается 15 000 человек. MAU Facebook, по данным на конец июля 2021 года, составляет 2,91 млрд человек. Всего продуктами «семьи Facebook» пользуются более 3,5 млрд человек ежемесячно.

То есть продукты Facebook охватывают 75% всех пользователей интернета.

Представляешь, СКОЛЬКО контента они создают? И этим всем богатством, управлением занимается только 15 000 человек и автоматическая система мониторинга.

Если грубо прикинуть, то на одного модератор «приходится» 233 000 пользователей продуктов Facebook! Но так прикидывать неправильно. Сам FB делит мир на категории и это стало известно из собранных материалов. Есть 4 уровня стран:

  • «Нулевой уровень» с самым высоким приоритетом: Бразилия, Индия и США. Facebook создал «военные комнаты» для постоянного наблюдения за сетью. Они создали информационные панели для анализа сетевой активности и предупреждали местных избирательных комиссий о любых проблемах.
  • Первый уровень: Германия, Индонезия, Иран, Израиль и Италия. Им будут предоставлены аналогичные ресурсы, за исключением некоторых ресурсов для обеспечения соблюдения правил Facebook и предупреждений за пределами периода, непосредственно связанного с выборами.
  • Второй уровень: 22 страны (не нашёл точный список). Им придется обойтись без военных комнат, которые Facebook также называет «расширенными оперативными центрами».
  • Остальной мир — третий уровень. Facebook проверил бы материалы, связанные с выборами, если бы они были переданы им модераторами контента. В противном случае он бы не вмешался.
87% бюджета на борьбу с фейками выделяется для США, а остальные 13% — для остального мира. При этом американские пользователи составляют всего 10% от общего числа, а крупнейший рынок для Facebook — Индия.

В декабре 2020 года попытка разместить языковых экспертов в странах увенчалась успехом только в шести из десяти стран «первого уровня» и странах нулевого уровня.

Да, есть алгоритм, который должен фильтровать контент автоматически. В февральском сообщении в блоге главного технического директора Майка Шрепфера утверждалось, что за последние три месяца 2020 года «97% разжигающих ненависть высказываний, снятых с Facebook, были обнаружены нашими автоматизированными системами до того, как кто-либо из людей отметил это».

Однако внутренние документы рисуют более мрачную картину. В презентации от апреля 2020 года отмечается, что удаление из Facebook привело к сокращению общей распространенности графического насилия примерно на 19%, наготы и порнографии примерно на 17% и языка ненависти примерно на 1%. Файл от марта 2021 года, ранее опубликованный Wall Street Journal , еще более пессимистичен. В нем исследователи компании подсчитали, что «мы можем отреагировать всего на 3-5% ненависти и ~ 0,6% в Facebook, несмотря на то, что мы в этом лучшие в мире».

Теперь вспомним, что Facebook существует во всех странах мира и модерация требуется везде. На всех языках. В моменте понимая контекст. Даже в ООН официально представлены 6 языков.

Поэтому алгоритм не везде работает одинаково. Только 6% ненавистнического контента на арабском языке автоматически удалил алгоритм в Instagram. У Facebook дела лучше, там удалилось 40%. Остальной контент был опубликован и должен был отрабатываться самими модераторами.

В Афганистане, где ежемесячно пользователями являются 5 миллионов человек, Facebook нанял несколько носителей местного языка для модерирования контента, в результате чего было удалено менее 1% разжигающих ненависть высказываний.

В документах, опубликованных в конце 2020 года, инженеры компании обнаружили, что более трех четвертей контента на арабском языке, автоматически удаляемого с платформы якобы за пропаганду терроризма, ошибочно помечены как вредоносные.

Документы показывают, что изучение влияния изменения алгоритма стало приоритетной задачей для многих экономистов, статистиков и других сотрудников Facebook, изучающих платформу. В исследовании, опубликованном внутри организации в декабре 2019 года, говорится, что алгоритмы Facebook «не нейтральны», а вместо этого ценят контент, который вызовет реакцию, любую реакцию, в результате чего «возмущение и дезинформация с большей вероятностью будут вирусными».

Вернёмся к цифре 233 тысячи пользователей на одного модератора. Почему-то мне очень хочется сравнивать модераторов с полицией. Для сравнения, в США на одного полицейского приходится 408 человек. В России 184 человека на одного сотрудника МВД. В Великобритании в районе 300.

Анализ криптовалют, динамика цен, последние новости и многое другое
Обновление каждые 15 мин.
ПОДРОБНЕЕ

На управление огромной частью контента в интернете брошено всего 15 000 низкооплачиваемых модераторов.

И они должны принимать часто крайне важные решения. Но общественность накладывает на Facebook миссию по контролированию и управлению всеми нами, что Цукербергу не сильно нравится.

«Мы очень неохотно решаем проблемы заранее».

И я могу понять причину такой выжидательной позиции. «Правильный мир» часто пытается продвигать исключительно свою повестку, абсолютно игнорируя другие мнения. Это видно по накалу страстей вокруг абсолютно любого вопроса. И они буквально требуют удаления любых материалов, которые огранизовывают противников «основной повестки». Кто решил, что это мнение неправильное? Кто решил, что его надо удалять? Я не считаю, что платформы должны становиться арбитрами.

Такие вопросы слабо заботят журналистов, которые публикуют сейчас умные статьи, становясь умными «после». Львиная доля материалов разбирает ситуацию с 6 января, когда состоялся «штурм Капитолия» в США. Якобы Facebook слишком медленно реагировал и слишком медленно удалял группы посвящённые «украденным выборам» и другим вопросам. Потому что там собирались радикалы и корректность результатов выборов ставить под сомнение вообще нельзя.

Для меня удивительно наблюдать за этим цирком «свободы слова», где есть только одно правильное мнение, а другие должны быть удалены. И это должен решить модератор и его руководитель, которые работают вообще на субподряде.

И при всём при этом у Facebook есть частная внутренняя система, известная как XCheck, которая освобождает высокопоставленных пользователей, таких как Трамп, от обычных правил компании (хотя в отношении Трампа корректнее говорить, что система освобождала, в прошедшем времени).

В документах не упоминается какой-либо конкретный запуск продукта, Хауген сказала, что за почти два года ее работы в компании Facebook откатил изменение платформы, которое уменьшило бы дезинформацию, поскольку это непропорционально затронуло пользователей правого крыла.

«Есть небольшая часть опытных пользователей, и они делятся друг с другом десятки или сотни раз в день», — сказал Хауген.
«Если вы просто удалите контент от этих людей, дезинформация резко упадет, например, на 20 или 30 процентов».

Но она сказала, что компания пришла к выводу, что, поскольку «справа было больше воздействия, чем слева, это вмешательство было неприемлемым».

Не великовата ли ответственность в руках простого менеджера по таким важным и глобальным вопросам?

Поговорим про алгоритм и аудиторию

Facebook пытается настроить работу алгоритма так, чтобы не потерять и свои метрики по удержанию пользователей (об этом ниже) и сделать хорошо всем остальным, но часто делает это криво. В 2018 году был изменен алгоритм определения приоритетов «значимых социальных взаимодействий» между пользователями.

Оптимизация была странной, например посты, вызывающие много комментариев или смайлики с сердитым лицом получали большую поддержку в ленте новостей. Как сообщала в сентябре Wall Street Journal , этот сдвиг имел ужасные побочные эффекты: он обеспечил значительный рост количества сенсационных и вызывающих возмущение страниц и сообщений, что, в свою очередь, привело к усилению давления на издателей и политиков. Хочешь охват? Ты должен набросить для дискуссии.

Особенно проблематичной была часть алгоритма, которая оценивала не то, насколько пост тебе понравится, а насколько вероятно ты сделаешь его репост, чтобы другие люди взаимодействовали с ним. Исследователи обнаружили, что по какой-то причине эта метрика «вносила огромный вклад в распространение ложной информации».

Вернёмся к метрикам и аудитории. Тут у Facebook огромные проблемы с молодёжью и Facebook не совсем предельно честен со своими акционерами (а это публичная компания и она не может мухливать со статистикой).

Число пользователей Facebook в США среди подростков сократилось на 13% с 2019 года и, по прогнозам, в течение следующих двух лет сократится на 45%, что приведет к общему снижению числа ежедневных пользователей на самом прибыльном рекламном рынке компании. Ожидается, что число молодых людей в возрасте от 20 до 30 снизится на 4% за тот же период. Что еще хуже, чем моложе был пользователь, тем меньше он в среднем регулярно взаимодействовал с приложением.

Facebook быстро теряет популярность у молодого поколения.

Во внутренней презентации в начале этого года сотрудники подсчитали, что подростки проводят в TikTok в 2–3 раза больше времени, чем в Instagram, и что Snapchat является предпочтительным методом общения с лучшими друзьями для молодых людей.

«Большинство молодых людей воспринимают Facebook как место для людей от 40 до 50».

«Молодые люди воспринимают контент как скучный, вводящий в заблуждение и отрицательный. Им часто приходится проходить мимо нерелевантного контента, чтобы добраться до того, что действительно важно».

Мартовская презентация показала, что в США «охват подростков невелик и продолжает снижаться». Количество регистраций учетных записей для пользователей младше 18 лет снизилось на 26% по сравнению с предыдущим годом в пяти ведущих странах приложения. Для подростков, уже пользующихся Facebook, компания продолжала «видеть более низкий или ухудшающийся уровень вовлеченности по сравнению с более старшими когортами». Количество сообщений, отправленных подростками, снизилось на 16% по сравнению с предыдущим годом, в то время как количество сообщений, отправленных пользователями в возрасте 20–30 лет, не изменилось.

Согласно одному из слайдов, «особенно тревожной тенденцией» было то, что время, проведенное в приложении Facebook молодыми людьми в США, сократилось по сравнению с периодом до начала пандемии коронавируса в прошлом году, когда использование сервисов Facebook на мгновение резко возросло по всему миру. На другом слайде описывается «устранение существующего разрыва в вовлеченности» между более молодыми и пожилыми пользователями, где говорится, что люди старше 30 лет в США проводят в среднем на 24 минуты в день на Facebook больше, чем более молодые пользователи.

Instagram стал лучше работать с молодыми людьми в США, Франции, Великобритании, Японии и Австралии. Но поводы для беспокойства все же были. Публикации подростков упали на 13% по сравнению с 2020 годом и «остаются наиболее тревожной тенденцией», отметили исследователи, добавив, что более широкое использование TikTok подростками означает, что «мы, вероятно, теряем общую долю времени».

В презентации, проведенной ранее в этом году, говорилось, что 7% подростков сообщают, что сталкивались с издевательствами в Instagram, и что 40% всех издевательств происходили в личных сообщениях.

В презентации говорится, что 61% новых учетных записей подростков в Instagram предпочитают делать свои профили закрытыми при, добавив, что сотрудники Instagram хотели внести «подталкивающие» изменения в продукт, чтобы побудить больше молодых пользователей сделать свои учетные записи такими. Документы показывают, что вторичные, частные учетные записи «finsta» также набирают популярность, особенно среди самых молодых пользователей Instagram — поведение, которое сотрудники хотят поощрять, чтобы удержать молодых людей.

«Подростки ищут способ связаться со своими друзьями, но не хотят делиться со всеми своими последователями», — написали исследователи компании в одном из недавних документов. «Они хотят легко делиться только с людьми, которым они доверяют, чтобы они чувствовали себя увиденными, принятыми и одобренными».

Аппаратный кошелек не подключенный к Интернету
Самая современная система безопасности
ПОДРОБНЕЕ

Общей нитью в документах было то, как сотрудники Facebook выступали за изменения в работе социальной сети и часто обвиняли руководителей в том, что они мешают.

Во внутреннем сообщении в августе 2020 года исследователь Facebook раскритиковал систему рекомендаций, которая предлагает страницы и группы, которым люди могут следовать, и сказал, что она может «очень быстро привести пользователей по пути к теориям и группам заговора».

«Из-за опасений по поводу возможной реакции общественности и заинтересованных сторон мы сознательно подвергаем пользователей риску нарушения целостности», — написал исследователь. «За то время, пока мы колебались, я видел, как люди из моего родного города идут все дальше и дальше в кроличью нору» таких движений теории заговора, как QAnon и заговоры против вакцинации и Covid-19.

Исследователь добавил: «Было больно наблюдать».

Резюме:

Глобально, мы с тобой и раньше знали большую часть информации. Часть подтвердилась фактами, что-то открылось с другой стороны.

Но проблемы с модерацией, погоня за пользовательскими метриками, потеря Фейсбуком молодой аудитории, тут вообще ничего нового.

Меня сильно удивляет то, насколько большую ответственность пытаются наложить на компанию, основной бизнес которой показывать рекламу между постами в интернете. Она должна теперь решить глобальные проблемы человечества, находить правильную сторону в абсолютно каждом конфликте и быть мерилом истины на всей планете.

Очевидно, что этого не случится. И очевидно, что Facebook не утонет в этом скандале, хоть Марка Цукерберга скорее всего вызовут на ковёр, очень сильно пожурят пальчиком публично, а в кулуарах договорятся о дальнейших шагах по продвижению нужных партии повесток и контролю того, что контролировать действительно надо.

Проблема Facebook в том, что он слишком большой. Я это сказал в начале, я это скажу и тут. Одно дело управлять информацией в пределах одной страны, но даже это бывает сложным. Другое дело — управлять контентом во всём мире.

Журналисты и исследователи офигивали от того, что Facebook в других странах куда менее модерирован и стерилен, чем в США, чьей лентой они всё равно недовольны.

«Пожалуй мы пользуемся лучшей версией Facebook из всех, доступных в мире». Примерно так сказал один из журналистов, писавших про Facebook.

Думаю футбольный тренер Дмитрий Хохлов может с ним согласиться. Ни он, ни его друзья и знакомые не могут нормально использовать Facebook и Instagram, потому что при любом упоминании его фамилии они получают блокировку из-за автоматических алгоритмов, видящих тут разжигание ненависти. Он даже в суд уже пошёл.

Алексей Ткачук

Автор блога Dnative.ru, digital-блогер, подкастер, SMM-стратег. Больше 7 лет занимаюсь продвижением в социальных сетях.

Опубликовано
Nov 19, 2021
 в
категории
Цифровой маркетинг
Источник
Крупнейшая криптовалютная биржа в мире
Позволяет полностью контролировать активы, не покидая среду Binance
ПОДРОБНЕЕ
Подробнее