Расчистить минные поля социальных сетей

719

Вы прочитаете этот материал за 8 минут

Защита экосистемы социальных сетей от языка вражды и дезинформации заключается в отслеживании ситуации и расширении прав и возможностей пользователей.

Социальные сети — это не просто пространство для общения, это новый вид поля боя. И хотя силы добра начинают уделять больше внимания этому вопросу, суровая реальность такова, что они все еще проигрывают.

Ядовитая смесь дезинформации, теории заговора и ненависти продолжает поражать платформы, через которые работает большая часть наших современных информационных сетей, затрагивая буквально все важные проблемы. Специалисты общественного здравоохранения говорят, что наша борьба с пандемией коронавируса значительно усложнилась из-за сопутствующей «инфодемии». Недавнее исследование дезинформации о болезни и ответных действиях правительства Оксфордским университетом задокументировало 225 различных кампаний теории заговора, 88% из которых использовали социальные сети в качестве своего центра. И это не говоря об уровне дезинформации вокруг предстоящих выборов в США.

Недавние действия, предпринятые платформами, такими как Facebook и Twitter, для запрета политической рекламы, демонетизации контента, разжигающего ненависть, и размещения заявлений об отказе от ответственности в отношении определенных типов контента, который является широко распространенным и заведомо ложным, показывают, что компании, работающие в социальных сетях, могут периодически вносить изменения к лучшему.

Тем не менее, их подход очень запоздал. Он часто характеризуется постфактум, отсутствием устойчивых действий и недостаточной оперативностью. К примеру, дезинформация о лесных пожарах на Западе США уже стала вирусной к тому времени, когда компании начали пытаться обуздать ее. И получивший широкую огласку наблюдательный совет Facebook объявил, что он, скорее всего, не заработает к выборам 2020 года. Организации по защите гражданских прав по-прежнему справедливо потрясены этой ситуацией, в то время как собственные сотрудники компаний жалуются на просочившиеся внутренние документы, в стиле «Мы терпим неудачу. И что еще хуже, мы закрепили этот провал в нашей политике».

Специалисты, работающие с цифровыми угрозами, опасаются, что в ближайшие месяцы проблема будет только усугубляться. Усилия (по манипулированию в соцсетях) России в 2016 году на самом деле не закончились, и с тех пор к ним присоединились многие другие (страны). Когда пандемия коронавируса усилилась, китайское правительство резко активизировало свою деятельность в области информационной войны. Как иностранные правительства, так и местные экстремисты уже предпринимают попытки использовать платформы социальных сетей не только для того, чтобы запутать предстоящие выборы, но и для разжигания насилия после них. Когда и если мы получим вакцину от COVID, ее применение будет сопровождаться такими же действиями. Как заключили председатели двухпартийной Комиссии по киберпространству США, борьба с дезинформацией — это не только защита нашей демократии. Теперь это имеет «истинное значение жизни или смерти».

Мы знаем, что у проблемы дезинформации в социальных сетях нет простого решения — по трем основным причинам.

Во-первых, это масштаб проблемы. Например, в Twitter мы обнаружили, что в любой день от 0,5% до 1,5% всех твиттов квалифицируются как агрессивные или разжигающие ненависть, что соответствует сотням миллионов сообщений в год с которыми сталкиваются сотни миллионов пользователей. На других платформах похожие проблемы. В Facebook сайты, продвигающие теории заговора о коронавирусе, имеют охват аудитории более чем в десять раз превышающий охват организаций общественного здравоохранения.

Во-вторых, это сам дизайн платформ, которые связывают свою прибыль с нашей психологией. В системе, которая монетизирует клики, язык вражды, подпитываемый дезинформацией, может быстро привлечь внимание и заинтересованность именно по той причине, что он подтверждает ранее существовавшие предубеждения и проявляется в структуре, которая поощряет тенденции.

Наконец, есть несколько конкурирующих приоритетов. Во-первых, частная прибыль и общественное благо не всегда совпадают. Информатор из Facebook описал свои попытки поступать правильно, контролируя опасный контент: «Я считаю, что оказался в невозможном положении — между моей лояльностью к компании и моей лояльностью к миру в целом».

Пользователи также посылают взаимоисключающие сигналы. Они одновременно хотят видеть меньше оскорбительного и фальшивого контента, но не хотят цензуры в соцсетях. Они не хотят, чтобы компании решали за них, что правдиво, а что нет. Но еще больше выступают против идеи, чтобы правительство принимала такие решения.

Учитывая парализованную внутреннюю политику и некоторую долю невежества в технических вопросах, не ждите, что Конгресс решит эти проблемы в ближайшее время. Тем не менее, наш коллективный опыт намекает на лучший способ смягчить хотя бы частично этот бардак. Вот три принципа, которые могут помочь компаниям, занимающимся социальными сетями, сократить количество ложной и разжигающей ненависть информации, при этом сохраняя то, что нравится и приносит прибыль в онлайн-мире.

Если вы не можете оценивать это, вы не можете управлять этим. Пока есть люди и интернет, будут попытки злоупотребить им. Тем не менее, как советует бизнес-гуру Питер Друкер, мы никогда не сможем решить эту проблему, если не решим ироническую проблему отсутствия данных об этом информационном пространстве. Большинство платформ социальных сетей теперь, наконец, самостоятельно сообщают о блокировании ложных и оскорбительных учетных записей и контента, но эти отчеты часто носят прерывистый характер и обычно противоречивы для разных платформ, включая даже те, которые принадлежат одной и той же компании. Пользователи, рекламодатели и регулирующие органы не имеют реального способа узнать, становится ли ситуация с дезинформацией лучше или хуже.

Платформы должны сообщать о прогрессе, достигнутом в борьбе с дезинформацией и ненавистью, опираясь на публичные и поддающиеся независимой проверке показатели.

Информированные клиенты — это защищенные клиенты. Этот аккаунт в Твиттере бот? Эта тенденция спланирована? Это не так сложно понять, как многие думают. Новые инструменты позволяют относительно легко отмечать автоматические и другие недостоверные попытки манипулировать коммуникацией в Интернете.

Однако эта информация не предоставляется пользователям простым способом. Подобно тому, как платформы помечают учетные записи всевозможными метриками всего, от географического положения до интересов, платформы должны уведомлять пользователей о степени автоматизации всех учетных записей социальных сетей. Маркер на каждой учетной записи в социальных сетях, показывающий, какая часть активности каждой учетной записи автоматизирована, таким образом проясняет, принадлежат ли учетные записи подлинным лицам или организациям, а не ботам и троллям. То же самое можно отметить и в «трендовых» темах, позволяя пользователям видеть, какая часть тенденции была подлинной, а какая — просто спланированной вовлеченностью.

Уполномоченные клиенты — это защищенные клиенты. Платформы также могут позволить пользователям выбирать фильтры для контента, который они видят. Например, у пользователей должна быть возможность отфильтровывать популярные онлайн-разговоры, в которых активно участвует автоматизация и неаутентичные сети. Это поможет пользователям социальных сетей взаимодействовать с реальным людьми и не поощрять манипуляции.

Эти три меры, безусловно, не решат проблему целиком. Но давайте создавать трудности для недобросовестных пользователей соцсетей,  давайте упростим их выявление и противодействие им.

С незначительными сокращениями.

Велтон Чанг — технический директор Human Rights First;

Доуэн Ли — адъюнкт-профессор Университета Сан-Франциско и старший директор по исследованиям и стратегии в фирме Кремниевой долины;

П.В. Сингер — стратег в New America и соавтор книги «LikeWar: The Weaponization of Social Media», для Defense One.

Logo_руна