- Facebook провел эксперимент над пользователями
- Apparat — Журнал о новом обществе
- Эксперимент Facebook по манипуляции эмоциями пользователей разозлил интернет
- Что произошло?
- Почему все возмущаются?
- Реакция
- Facebook ответил на обвинения в тайных экспериментах над эмоциями пользователей Статьи редакции
- Эксперимент Цукерберга: как Facebook протестировала эмоции 700 000 пользователей
- Facebook скрыто манипулирует настроениями пользователей ради экспериментов
Facebook провел эксперимент над пользователями
Исследователи попытались выяснить, как люди реагируют на различные типы информации
Москва. 30 июня. INTERFAX.RU — Социальная сеть Facebook вызвала массовое негодование своих пользователей новостью о том, что над ними без их ведома поставили психологический эксперимент, сообщила газета The Financial Times в ночь на понедельник.
В 2012 году психологи обработали данные о поведении за недельный срок более чем 689 тысяч пользователей. Они выяснили, что люди склонны оставлять отрицательные комментарии после прочтения «хороших» новостей и наоборот.
Исследователи выяснили, в какой степени люди подвергаются воздействию тех или иных эмоций, присутствующих в их ленте новостей. Результаты исследования показывают, что эмоции других людей в соцсетях влияют на наши собственные.
Научная работа была опубликована в этом году в журнале New Scientist. Ее авторы: Адам Крамер из команды Facebook, Джейми Гиллори, научный сотрудник Калифорнийского университета Сан-Франциско, и Джеффри Корнелл, профессор университета Корнелл.
Ученые пришли к выводу, что из-за массовости социальных сетей, таких как фейсбук, даже небольшие воздействия могут иметь серьезные последствия. Они считают, что онлайновые сообщения влияют на наши переживания так, что могут вызвать целый ряд поступков в реальной жизни.
В эти выходные пользователи узнали об исследовании. Оно вызвало сильный резонанс, поскольку сами участники эксперимента не подозревали о его проведении. Некоторые комментаторы сравнили поступок Facebook с действиями властей в антиутопии Джорджа Оруэлла «1984».
В руководстве социальной сети не видят ничего криминального и ссылаются на то, что данные исследования не связаны ни с одним реально существующим пользователем и не могут использоваться для сбора частной информации.
Представители Facebook говорят, что проделали эту работу с целью увеличить релевантность выдаваемой пользователям информации. По их словам, часть этой работы состоит в том, чтобы понять, как люди реагируют на разные типы контента.
Один из членов правления компании Марк Андреессен заявил, что социальная сеть не сделала ничего необычного. «Посмотрите: когда вы смотрите телевизор, читаете книгу, открываете газету или разговариваете с человеком, кто-то манипулирует вашими эмоциями. Вся система фейсбука предназначена для того, чтобы приводить к позитивным постам и взаимодействиям», написал он в своем твиттере.
Источник
Apparat — Журнал о новом обществе
Эксперимент Facebook по манипуляции эмоциями пользователей разозлил интернет
Что произошло?
Facebook оказался в центре страшного скандала после того, как сотрудники компании опубликовали результаты небольшого психологического эксперимента над собственными пользователями. Выяснилось, что два года назад на протяжении недели социальная сеть показывала одной группе людей посты с негативной эмоциональной окраской, а второй — с позитивной. Таким образом Facebook пыталась проверить, способно ли содержание новостной ленты повлиять на уровень счастья пользователей. Всего в эксперименте неосознанно приняли участие почти 700 000 человек. Теперь все пишут, что Марк Цукерберг превратил своих пользователей в лабораторных крыс.
Эксперимент вызвал большой резонанс, поскольку поставил ряд важных вопросов, касающихся приватности в Сети, этичности подобных исследований и в целом влияния технологических компаний на настроение людей.
Почему все возмущаются?
Никаких впечатляющих результатов эксперимент на самом деле не показал. Пользователи, для которых Facebook выбирал преимущественно негативные новости, в итоге в своих постах использовали всего на 0,1 % меньше положительных слов, чем остальные. Статусы пользователей, чья новостная лента была более радостной, наоборот, были чуть-чуть менее депрессивными — правда, ещё незначительней: в них встречалось всего на 0,07 % меньше отрицательных слов, чем у остальных. Даже не принимая во внимание проблемы с методологией исследования (например, способность Facebook адекватно оценивать эмоциональную окраску постов вызывает большие сомнения), возможности социальной сети влиять на мысли и эмоции своих пользователей кажутся минимальными. Это, впрочем, не заставляет многих перестать считать действия Facebook неэтичными.
Вторая претензия заключается в том, что эксперимент был проведён без ведома общественности. Участники на него не подписывались и ничего о нём не знали. При этом в соглашении, которое пользователи подписывают с Facebook в момент регистрации, содержится пункт о возможности проведения подобных исследований. В целом Facebook постоянно манипулирует содержанием и внешним видом новостной ленты, чтобы проверить, какие типы историй и какой дизайн наиболее привлекательны. Наконец, подобные А\В-тестирования так или иначе проводит большинство технологических компаний — скажем, онлайн-магазин Amazon на протяжении всего своего существования экспериментирует с цветом и формой кнопки «Добавить в корзину». Раньше это никого особенно не смущало.
Реакция
Пользователи разделились на два лагеря: некоторые негодовали, вторые пожимали плечами. Журнал The Atlantic назвал Facebook «кукловодом, который играет нами с помощью наших данных». Slate с укором замечает, что социальная сеть намеренно опечалила тысячи людей.
Кристиан Сэндвиг из Университета Мичигана с мрачной иронией написал в Twitter о том, что среди подопытных наверняка были люди с клинической депрессией и будет неплохо, если по результатам исследования никто из них не покончил жизнь самоубийством.
Источник
Facebook ответил на обвинения в тайных экспериментах над эмоциями пользователей Статьи редакции
Информация об эксперименте Facebook со скрытой манипуляцией лентами сотен тысяч пользователей вызвала грандиозный скандал в СМИ и соцсетях, однако представители компании Марка Цукерберга объясняли, что исследование было проведено на благо пользователей. Об этом сообщает The Verge.
Адам Крамер, специалист по изучению данных в Facebook и автор эксперимента, пояснил, что манипуляция затронула лишь 0,04 процента пользователей соцсети и лишь в течение одной недели 2012 года. По его словам, исследование проводилось с целью выявить эмоциональные механизмы, которые заставляют пользователей не заходить в Facebook, и сделать ленту более «релевантной и вдохновляющей».
Написав и придумав этот эксперимент самостоятельно, я могу сказать, что нашей целью не было расстроить кого-либо. Я понимаю, почему у некоторых людей возникли проблемы с ним, и вместе с моими соавторами я извиняюсь за то, как опыт был описан и за беспокойство, вызванное им. Оглядываясь назад, я понимаю, что исследование не стоило таких последствий. Адам Крамер, автор эксперимента
Как отмечает The Atlantic, помимо связи количества негативных постов за авторством пользователя с общим настроем его ленты эксперимент выявил и другие закономерности. Например, снижение количества записей обоих типов, негативных и позитивных, приводило к тому, что человек значительно реже начинал писать в Facebook.
Кроме того, у эксперимента была выявлена серьёзная проблема: программное обеспечение, использованное для анализа записей, предназначено скорее для больших текстов, нежели для коротких заметок. Если человеческий наблюдатель посчитал бы фразы «I’m not happy» («Я несчастен») и «I’m not having a great day» («У меня плохой день») строго негативными, то алгоритм LIWC 2007 выдал бы им нейтральный рейтинг: по два очка за слова «great» и «happy», и минус два очка за каждое «not».
Джеймс Гриммелманн (James Grimmelmann), профессор права в Университете Мэриленда, осудил эксперимент и с точки зрения закона. По его мнению, он не только не соответствует стандартам Американской ассоциации психологов, но и стандартам самого Facebook, который обычно помечает посты, чьё появление в ленте было форсировано.
После публикации журнала Proceedings of the National Academy of Sciences, раскрывшей подробности о масштабном эксперименте Facebook, известные защитники приватности подняли панику в сети. С разных сторон начали появляться призывы удалиться из Facebook из-за этого «пугающего» исследования.
In the wake of both the Snowden stuff and the Cuba twitter stuff, the Facebook «transmission of anger» experiment is terrifying.
Get off Facebook. Get your family off Facebook. If you work there, quit. They’re fucking awful.
В первой волне новостей многие СМИ сообщили, что эксперимент проводился при поддержке правительства США. Однако в своём пресс-релизе Корнелльский университет уточнил: исследование обошлось без внешнего финансирования. Тем не мене его пост-фактум поддержала независимая организация Institutional review board, занимающаяся оценкой этичности подобных опытов.
Источник
Эксперимент Цукерберга: как Facebook протестировала эмоции 700 000 пользователей
Вряд ли есть в мире научная лаборатория, которая могла бы похвастать большим объемом накопленных данных в области исследований человека, чем Facebook. У социальной сети нет нужды договариваться с участниками экспериментов об использовании их персональной информации или тратить время на бюрократию. Любой пользователь сервиса соглашается с условиями «политики в отношении обработки персональных данных». А специалисты Facebook беспрестанно работают над новыми методами анализа личной информации аудитории, чтобы лучше понять ее поведенческие паттерны.
Впрочем, порой результаты исследований соцсети сообщают нам больше нового про сервис, чем про его пользователей. Например, Facebook умудрялась отслеживать и анализировать статусы, которые на самом деле никогда не «постились». Подозревали соцсеть и в давлении на электоральные предпочтения пользователей. Но самый противоречивый и удивительный факт о том, как сервис манипулирует аудиторией, стал достоянием общественности на прошлой неделе.
Первыми на него обратили внимание авторы The New Scientist и Animal New York: специалисты Facebook по сбору данных намеренно искажали отображение постов в лентах новостей (News Feed) 689 003 пользователей. На протяжении недели все невольные участники эксперимента видели в своих подписных потоках либо исключительно позитивные сообщения, либо, напротив, исключительно негативные. Facebook таким образом пыталась отследить психологическое воздействие эмоционально окрашенных постов на настроение пользователей.
Так что если с 11 по 18 января 2012 года вы видели в своих лентах сплошь фото мертвых собак или одни только изображения милых младенцев, знайте – вы могли быть частью эксперимента.
И хотя и на этот раз Facebook формально не нарушила никаких пунктов своей информационной политики, новость об эксперименте вызвала смешанную реакцию у аудитории.
Ожидаемый вывод, который сделала группа исследователей под руководством Адама Крамера, — настроение ленты Facebook влияет на настроение пользователя. «Когда мы снижали долю позитивных сообщений в ленте, люди и сами начинали реже писать позитивные посты и чаще — негативные, когда чистили ленту от негатива — наблюдалась обратная тенденция, — говорится в отчете соцсети об эксперименте. — Эти результаты свидетельствуют, что эмоции других пользователей Facebook влияют и на наши собственные эмоции. Мы получили экспериментальное подтверждение цепной эмоциональной реакции в социальных сетях».
За сухими формулировками скрывается спорный с моральной точки зрения и невероятный по масштабу опыт, в который оказались втянуты сотни тысяч людей по всему миру. Facebook сознательно корректировала их настроение в сторону приподнятого состояния духа или депрессии в зависимости от отображаемых в ленте постов, в диапазоне от галереи «15 фотографий, которые вернут вам веру в человечество» до статусов о потере работы или опоздании на авиарейс. «До суицида мы никого не довели», — позднее шутил в Twitter один из профессоров, проводивших исследование.
Авторы эксперимента напирают на практическую значимость своих выводов. Так, «цепная эмоциональная реакция» противоречит распространенному заблуждению о том, что наблюдение за жизнью более успешных друзей в социальной сети способно вызвать депрессию. Также ученые выяснили, что если зачищать ленту от эмоционально окрашенных постов, то человек становится «менее экспрессивным», к примеру, реже обновляет статусы (так что будьте готовы — если Facebook захочет сподвигнуть вас на более активное ведение профайла, ваша лента новостей может неожиданно наполниться самыми пронзительными постами друзей).
Насколько приемлемы подобные «игры разума», пусть даже в научных целях? Выводы исследования интересны, но манипулирование эмоциями — скользкая тропа, на которую ступила соцсеть. В политике в отношении обработки персональных данных говорится, что собранная информация может быть использована «для внутренних операций Facebook, включая устранение багов, анализ данных, тестирование новых опций, исследование и улучшение сервиса». Пользователи взамен получают разве что доступ к сокровенному знанию о существовании таинственных алгоритмов формирования Facebook ленты новостей. Для сравнения, эксперименты с участием людей, которые проводятся в университетах, всегда предварительно проходят согласование у профильного комитета по этике. Такая схема предотвращает негуманные методы исследований и сглаживает эффект от спорных опытов.
В Facebook же исследователи, в отличие от академических ученых, идут по максимально короткому пути от идеи до эксперимента над сотнями миллионов пользователей.
В комментарии по поводу исследования, присланном Forbes в ночь на 28 июня, пресс-служба социальной сети подчеркнула, что не разделяет беспокойства по поводу проведенного исследования. В компании пояснили, что акцент при проведении подобных опытов делается на обеспечении сохранности персональной информации, а не этических аспектах. «Это исследование проводилось на протяжении одной недели в 2012 году, никакие данные не соотносились с отдельными аккаунтами, — заявил представитель Facebook. — Мы преследовали цели улучшения качества сервисов и повышения релевантности отображаемого контента. Достичь этих целей без понимания того, как люди реагируют на различные типы материалов, невозможно. Мы прекрасно отдаем себе отчет в том, что за исследование проводим, и контролируем весь процесс внутри компании. Никакого незаконного сбора или некорректного использования личных данных не проводилось».
Источник
Facebook скрыто манипулирует настроениями пользователей ради экспериментов
Недавний эксперимент Facebook является, по всей видимости, первым в истории исследованием, в ходе которого произошло активное манипулирование информацией в социальной сети
Новый скандал разгорелся вокруг самой популярной социальной сети. Причиной стал масштабный эксперимент с участием ок. 700 тысяч пользователей этой интернет-площадки. О странном психологическом эксперименте стало известно лишь сейчас после появления отчета о нем в американском журнале «Proceedings of the National Academy of Sciences». Информация о, по сути, незаконном эксперименте Facebook со скрытой манипуляцией лентами сотен тысяч пользователей спровоцировала раскатистое недоумение в СМИ, соцсетях и на блогерских аренах. Комментарий эксперта по интернет-технологиям Сергея Корогода.
Фото: Наталия Губернаторова
В ходе психологического эксперимента пользователи Facebook видели в новостной ленте либо негативно, либо позитивно окрашенные записи. В соцсети утверждают, что пользователи давали согласие на участие в эксперименте.
В психологическом эксперименте, проведенном Facebook, приняли участие, сами того не зная, почти семьсот тысяч англоязычных пользователей социальной сети. Как сообщает Deutsche Welle, в начале июня были опубликованы результаты исследования, которое компания провела еще в январе 2012 года. Эксперимент заключался в том, что пользователи видели в новостной ленте (Newsfeed) либо преимущественно позитивные, либо, наоборот, в основном негативные сообщения своих друзей.
Исследование показало, что чем больше негативных постов скапливается в ленте пользователей, тем больше отрицательных эмоций он сам выражает в своих сообщениях и наоборот. Таким образом, заключили организаторы эксперимента, настроение разных пользователей сети влияет на наше собственное.
«Когда число положительных фраз из новостных лент было уменьшено, люди реже публиковали позитивные статусы, когда же убирали негативные записи, то это давало обратный эффект. Результаты эксперимента говорят о том, что эмоции, выражаемые людьми в Facebook, воздействуют на наши собственные», — сообщила группа исследователей на страницах американского журнала PNAS, официального органа Национальной академии наук США (РИА Новости).
Самый противоречивый и удивительный факт о том, как сервис манипулирует аудиторией, стал достоянием общественности на прошлой неделе.
Первыми на него обратили внимание авторы The New Scientist и Animal New York: специалисты Facebook по сбору данных намеренно искажали отображение постов в лентах новостей (News Feed) 689 003 пользователей. Так что если с 11 по 18 января 2012 года вы видели в своих лентах сплошь фото мертвых собак или одни только изображения милых младенцев, знайте – вы могли быть частью эксперимента, выдает Forbes.ru.
И хотя и на этот раз Facebook формально не нарушила никаких пунктов своей информационной политики, новость об эксперименте вызвала смешанную реакцию у аудитории.
Ожидаемый вывод, который сделала группа исследователей под руководством Адама Крамера: «Мы получили экспериментальное подтверждение цепной эмоциональной реакции в социальных сетях».
В руководстве социальной сети не видят ничего криминального и ссылаются на то, что данные исследования, якобы, не связаны ни с одним реально существующим пользователем и не могут использоваться для сбора частной информации.
Представители Facebook говорят, что проделали эту работу с целью увеличить релевантность выдаваемой пользователям информации. По их словам, часть этой работы состоит в том, чтобы понять, как люди реагируют на разные типы контента.
Один из членов правления компании Марк Андреессен заявил, что социальная сеть не сделала ничего необычного. «Посмотрите: когда вы смотрите телевизор, читаете книгу, открываете газету или разговариваете с человеком, кто-то манипулирует вашими эмоциями. Вся система фейсбука предназначена для того, чтобы приводить к позитивным постам и взаимодействиям», хитроумно отписался он в своем твиттере (Интерфакс).
Между тем, член британского парламента Джим Шеридан потребовал провести расследование по поводу эксперимента Facebook, добавляет bfm.ru. По его словам, речь идет о тайном использовании материалов из личной жизни, и таким путем Facebook и другие соцсети смогут манипулировать настроениями людей в сфере политики и других областях.
Комментарий для «MK.ru» эксперта по интернет-технологиям Сергея Корогода:
В том, что социальные сети проводят эксперименты над пользователями, нет ничего необычного. Уже не раз говорилось: бесплатные сервисы — это приманка для пользователя. Если вы не платите за товар, значит, вы сами — товар. Как правило, соцсети собирают статистику интересов или предпочтений пользователя, после чего сформированные «профили клиентов» продаются платежеспособным клиентам: либо для анализа поведения (включая эмоциональные реакции), либо для показа рекламы. Другое дело, что Facebook от анализа реакций пользователя переходит к попыткам влиять на них.
Уже давно известно, что если отбирать новости или формулировать тексты в соответствии с определенными приоритетами (это называется «активное формирование картины дня»), то можно, даже не прибегая к обману, серьезно влиять на восприятие аудиторией событий и окружающего мира в целом, вызывая эмоциональный подъем или спад. Что отражается не только на, например, политических предпочтениях, но и на работоспособности и продуктивности, и даже в целом на образе жизни. Это делает «властителей дум» владельцами ценного ресурса, которым они активно торгуют, продавая настроения читателей клиентам более высокого, политического уровня.
Так что манипулирование мнением и эмоциями читателей — уже сложившаяся практика, и Facebook просто осваивает технологии работы на этом рынке. В этом плане «утечка» вполне может оказаться не утечкой, а сигналом потенциальным клиентам: «Теперь мы тоже можем влиять на пользователей в нужную сторону! Можно приступать к переговорам».
Стоит лишь с сожалением констатировать, что такие манипуляции становятся все более явными и беспардонными, а объективность и честное взаимодействие с пользователем все больше уходят в прошлое. В результате читатели или зрители все время вынуждены помнить, что информационный поток зачастую имеет целью не объективное информирование, а манипуляцию их мнением и настроением, и соответствующим образом «фильтровать» поступающую информацию, искать подтверждения или опровержения и т.д. Это отнимает много времени и сил, но главное — убивает доверие.
Люди ненавидят фото счастливых парочек на Facebook
Неприязнь между счастливыми парочками и остальными пользователями социальной сети Facebook оказались сильнее, чем можно было предположить.
Согласно результатам исследования, проведенного для новой книги «Наука об отношениях», в Facebook меньше всего любят именно тех, кто больше других публикует информацию о своих счастливых взаимоотношениях со второй половинкой, сообщает yahoo.com.
Ради этого исследования было создано несколько липовых страниц на Facebook, где разместили фото людей и их партнеров, установили видимый всем статус «в отношениях» и опубликовали уйму разных постов о том, как эти выдуманные люди обожают своих возлюбленных. На других созданных страничках о личных отношениях не было сказано ничего.
Затем сотню участников эксперимента попросили оценить созданные профайлы по двум критериям: во-первых, насколько преданными своим половинкам представляются им хозяева страниц, во-вторых, насколько приятными кажутся участникам эти люди. И хотя все липовые влюбленные казались вполне искренними в своих чувствах, именно эта группа любителей поболтать о своих отношениях вызвала меньше всего симпатий у оценивавших их людей.
Доктор Бенджамин Ли прокомментировал результаты исследования так: «Когда люди начинают выкладывать подробности своей личной жизни в соцсетях, из этого обычно не выходит ничего хорошего.».
Источник