Агрессия в общении медиапользователей: анализ особенностей поведения и взаимного влияния

Скачать статью
Кажберова В.В.

кандидат филологических наук, научный сотрудник Проблемной научно-исследовательской лаборатории актуальных проблем журналистики факультета журналистики МГУ имени М. В. Ломоносова, г. Москва, Россия

e-mail: kazhberovavv@gmail.com
Чхартишвили А.Г.

доктор физико-математических наук, главный научный сотрудник Института проблем управления им. В. А. Трапезникова РАН, г. Москва, Россия

e-mail: sandro_ch@mail.ru
Губанов Д.А.

доктор технических наук, ведущий научный сотрудник Института проблем управления им. В. А. Трапезникова РАН, г. Москва, Россия

e-mail: dmitry.a.g@gmail.com
Козицин И.В.

кандидат физико-математических наук, старший научный сотрудник Института проблем управления им. В. А. Трапезникова РАН, г. Москва, Россия

e-mail: kozitsin.ivan@mail.ru
Белявский Е.В.

аспирант Института проблем управления им. В. А. Трапезникова РАН, г. Москва, Россия

e-mail: evgenetc@gmail.com
Федянин Д.Н.

научный сотрудник НИУ ВШЭ, научный сотрудник Института проблем управления им. В. А. Трапезникова РАН, г. Москва, Россия

e-mail: dfedyanin@inbox.ru
Черкасов С.Н.

доктор медицинских наук, главный научный сотрудник Института проблем управления им. В. А. Трапезникова РАН, г. Москва, Россия

e-mail: cherkasovsn@mail.ru
Мешков Д.О.

доктор медицинских наук, главный научный сотрудник Института проблем управления им. В. А. Трапезникова РАН, г. Москва, Россия

e-mail: dmitrymeshkov@mail.ru

Раздел: Социология журналистики

Статья основана на данных многоаспектного междисциплинарного исследования актуальной проблемы – возможности преодоления экстремальных ситуаций в конкретных условиях. Цель исследования – выявить степень влияния интернет-пользователей на поведение друг друга по отношению к вакцинации во время пандемии COVID–19. В ходе исследования обнаружилось, что взаимодействие пользователей в паблике одного из ведущих СМИ характеризуется высоким уровнем агрессии, проявляющемся в использовании «языка вражды» (в 53% комментариев), при этом пользователи способны заражать друг друга этими настроениями. Была создана математическая модель распространения агрессии в Сети и проведен анализ управляемости ее уровня в рамках традиционных стратегий: модерирования комментариев пользователей и добавления комментариев редакции. Оказалось, что их применение не позволяет снизить уровень агрессии ниже определенного значения, что указывает на существенную проблему современной цифровой коммуникации, которая может набирать силу в дальнейшем.

Ключевые слова: агрессия, язык вражды, новые медиа, социальные сети, пользователи Сети, комментарии, медиапотребители
DOI: 10.30547/vestnik.journ.3.2023.2656

Предпосылки и актуальность исследования

Сегодня человечество переживает эпоху четвертой промышленной революции, когда главным ресурсом становятся информация и знания, компетенции, которые можно назвать также цифровым капиталом (Швабб, 2018: 12)1; технологии привнесли в мир медиа «разнообразие форм и доступность потенциальных источников, свободу от большинства видов контроля, интерактивность» (МакКуэйл, 2013:26).

Влияние социальных медиа на человека изучается с самого начала их широкого распространения – с 2000-х гг. Итоги исследования, продолжавшегося с 2003 по 2018 г., показывают, что наиболее травмирующими эмоциями пользователей соцсетей стали паника, раздражение, стресс, тревога, депрессия, чувства вины и одиночества (Boroon, Abedin, Erfani, 2021: 1–21).

В России в этот период также начали появляться системные исследования агрессии в Сети (Салимовский, Ермакова, 2011; Антропова, 2015; Курьянова, 2018), включая использование технологий математического и компьютерного анализа проявлений интолерантности (см., например: Потапова, Комалова, 2014; Гордеев, 2016; Уздяев, 2020; Babakov, Logacheva, Panchenko, 2022; Nugamanov, Loukachevitch, Dobrov, 2021; Grigoriev, Kuznetsova, Nikitina et al., 2022; Pronoza, Panicheva, Koltsova et al., 2021)2.

В целом за последние 25 лет в России сложился устойчивый научный тренд на изучение агрессии и «языка вражды» (Сковородников, 1996; Быкова, 1999; Дзялошинский, 2006; 2019). В его рамках авторы статьи опирались на действующие определения, а также границы применения этих понятий:

– «язык вражды» – это выражение дихотомии «мы–они» через нетолерантные высказывания3 в адрес какой-либо группы – этнической, расовой, национальной, религиозной, языковой;

– агрессия – специфическая форма речевого поведения (в том числе в письменной речи), которая мотивирована аффективным состоянием говорящего.

Эти понятия, их границы и особенности их проявлений в Сети в настоящее время описываются в том числе на стыке наук – например, медиакоммуникаций и психологии, социологии. Выявлено, например, что агрессия в Сети может быть обусловлена несправедливыми действиями государства, материальным положением пользователя, его коммуникативными навыками, навязанными социумом социальными ролями (Рябов, Боченкова, 2021: 170–178). Некоторые исследования изучают агрессию в соцсетях как часть сетевого насилия в целом: буллинга, хейтинга, призывов к убийству и самоубийству и т. д. (Малахаева, Потапов, 2018: 724–740; Солдатова, Рассказова, Чигарькова, 2020: 3–20).

Если говорить о современности, то в России по-прежнему высок уровень киберагрессии4: по данным исследования Microsoft DCI, 71% пользователей отметили, что были оскорблены в Интернете (в мире этот показатель ниже на 20%), при этом 60% россиян получили негативный комментарий от совершенно незнакомых людей (в мире этот показатель на уровне 36%)5. Согласно данным другого исследования, 49% респондентов испытывают негативные эмоции, пользуясь социальными медиа: 34% пользователей признались в зависимости от онлайн-платформ, 26% сообщили, что были расстроены агрессивными сообщениями в свой адрес6. Эти выводы дополнили качественные исследования, обозначившие риски обезличивания, анонимности, асоциальности, потери приватности, мошенничества при общении в Сети, что может травмировать человека (Ефимова, Зюбан, 2016; Аптикиева, 2020).

Нельзя утверждать, что причины этих «теневых» сторон соцсетей заключены только в особенностях медиаплатформы. Исследователи из разных областей знания констатируют, что в обществе происходит пересмотр ценностей, социальных ролей, вызванный как манифестацией традиций постмодернизма, так и феноменом, который был назван эрой постправды. Он тесно связан с распространением фейков, пранком и троллингом – все эти явления объединяет сознательный отказ от достоверности, грубое вмешательство в информационное пространство медиапотребителя (Зиновьев, 2018; Воронцова, 2016: 109–115). Фейки, например, американские пользователи признали более опасным явлением, чем расизм и терроризм7.

На фоне таких тенденций все острее встает вопрос о возможности минимизации подобных проявлений (например, путем модерации), учитывая возможные этические проблемы и коллизии (например, противоречие hate speech vs. free speech).

На первый план изучения выходят и риски роста агрессии, которые характеризуют состояние современного общества, уровень и структуру его ценностей, особенности межличностной и массовой коммуникации, опасности вмешательства в свободный сетевой дискурс8. Однако рост уровня агрессии и вражды при этом понимается как безусловно опасная для всего общества тенденция (Pronina, 2018; Галяшина, Никишин, 2021).

В настоящий момент очевидно, что изучение агрессии и «языка вражды» в социальных медиа может дать представление не только о влиянии пользователей друг на друга, но и о самом характере горизонтальных (по принципу «равный–равному») коммуникаций в современном социуме.

Вместе с тем в существующих в настоящее время исследованиях недостаточно представлено описание системных взаимосвязей внутри цифрового медиадискурса, способное в перспективе сформировать целостную картину сетевого взаимодействия. Далеко не полностью изучены механизмы влияния пользователей друг на друга, в частности в экстремальных ситуациях. Таким образом, задачами исследования стали уточнение базовых характеристик таких механизмов наряду с формированием «прозрачных» инструментов и методик для их оценки.

Отдельным исследовательским вопросом стала возможность влияния на сетевой дискурс «извне» – например, с помощью модерации и/или добавления редакционных комментариев. Все эти вопросы нуждаются в дальнейших системных междисциплинарных исследованиях, способных внести уточнения как в общие представления об экосистеме медиа, так и в актуальные коммуникационные стратегии редакций, блогеров, организаторов сообществ, медиакоммуникаторов, PR-специалистов.

Настоящее исследование является шагом к научному объяснению и систематизации процессов влияния друг на друга медиапотребителей и других акторов – представителей редакций, «лидеров мнений», блогеров и т. д. В качестве объекта исследования был выбран паблик СМИ в онлайновой социальной сети, где возможно как спонтанное выражение мнений, так и участие представителей редакции (например, в формате обращения к участникам дискуссии).

Теоретическая база исследования и смежные направления

Сама идея изучения взаимовлияния медиапотребителей основана на исследованиях того, как социальное влияние может изменять представления и действия людей, – это модели Френча-Харари-ДеГроота, Фридкина-Джонсона и др. (French, 1956; Harary, 1959; De Groot, 1974; Friedkin, Johnsen, 2011).

Существует несколько подходов к оценке влияния – например, структурный подход социально-сетевого анализа, а также подход на основе моделирования динамики (Губанов, Новиков, Чхартишвили, 2018). В данном исследовании влияние трактуется в рамках разработанной ранее акциональной модели (Губанов, Чхартишвили, 2016), основанной на отношениях причинности a→b, где совершенное в социальной сети (и доступное для наблюдения) действие a (например, написание поста) влечет за собой совершение действия. b (например, написание комментария к посту a, лайк, подписку). Этот подход выделяет из огромного множества влияющих на действия пользователей факторов. (психологическое состояние, нюансы развития сетевой дискуссии, недоступная для наблюдения частная переписка) те, которые могут быть однозначно выявлены на основании формального анализа большого массива доступных данных. Подобные методы позволяют наблюдать поведение человека долговременно, в естественной для него коммуникационной среде (в отличие, например, от опросов). Однако практических исследований такого влияния пока недостаточно, что еще раз подчеркивает их актуальность.

Первоначальной идеей исследования стала систематизация и анализ сообщений пользователей в критической ситуации – в условиях пандемии COVID–19. Тема мер борьбы против COVID–19,в частности вакцинации населения, была выбрана не случайно: она оказалась социально значимой и потенциально конфликтной, поскольку сильно зависела от взглядов и ценностей человека, а также отношений в социуме (Бузина, Бузин, Ланской, 2020). Даже ношение медицинских масок в период пандемии сильно коррелирует с политическими взглядами россиян. (Chkhartishvili, Gubanov, Kozitsin, 2021).

Идея влияния пользователей друг на друга, в частности – на убеждения, относящиеся к охране здоровья, стала рабочей гипотезой. В качестве цели исследования было выбрано выявление системных взаимосвязей, позволяющих описать актуальную модель взаимодействия пользователей в социальных медиа.

При этом авторы учитывали, что социальные сети – часть медиасистемы, которая развивается согласно своим внутренним закономерностям, поэтому использовали данные актуальных исследований, описывающих роль современных медиа в освещении конфликтов (Смирнова, Шкондин, 2021; Демина, Шкондин, 2021), а также посвященных особенностям новой реальности, сформированной пандемией коронавируса (Смирнова, Шкондин, Денисова, Стебловская, 2022) и вызванной ею агрессией, поляризацией общества (Bodrunova, Litvinenko, Blekanov и др., 2021; Nigmatullina, Rodossky, 2022), стигматизацией (Choi, 2021).

При этом агрессия и «язык вражды» часто рассматриваются как составляющая социально-политических дискуссий и конфликтов: например, в России (Сычев, Коваль, Жадунова и др., 2018), Белоруссии (Kirdun, Andreeva, 2017; Vasilenko, 2021), Сербии (Dordevic, 2020), Греции (Georgalidou, Katerina, Giakoumakis, 2020), Македонии (Trajkova, Neshkovska, 2018); часть исследований посвящена кризисам, вызванным притоком мигрантов (Pejchal, 2018; Gover, Shannon, Langton, 2020)9. Таким образом, рост уровня агрессии пользователей связывается в том числе с недоверием к международным и национальным акторам разного рода, интолерантностью к определенным группам граждан, «теориями заговора». Эти тенденции, свободно проявляющиеся в Сети, приобрели особую актуальность и остроту во время COVID–19.

Анализ структуры «враждебного» сетевого дискурса в ряде исследований показал, что пользователи менее агрессивны, если обсуждение носит предметный логичный характер; однако ряд участников диалога стремятся найти решение ситуации вовне (например, через «теории заговора»). В этом контексте особенно интересны исследования, где описаны попытки научного прогнозирования и моделирования конфликтных онлайн-дискуссий (Mathew, Dutt et al., 2018; Xiao-Kun, Tian-Fang et al., 2022; Охапкин, Охапкина и др., 2020).

Однако в основном до сих пор исследовались материалы именно гражданских медиаакторов (пабликов, сообществ, групп), но не представительств в социальных медиа крупных федеральных СМИ. У авторов исследования возникло предположение, что паблики СМИ более организованны, логичны, структурированны, а значит, позволят внести уточнения в механизмы влияния, в частности распространения агрессии и «языка вражды» в Сети. Поэтому эмпирическим материалом исследования стали публикации крупного российского СМИ – «РосБизнесКонсалтинг» (далее – РБК). в социальных медиа. Целевая аудитория издания – люди с высшим образованием, с доходами выше среднего уровня10. Авторы исследования предположили, что они также окажутся логичными, последовательными в своих взглядах, дисциплинированными в выражении эмоций, а значит, позволят создать наиболее полную модель сетевого взаимодействия пользователей.

Методы исследования

В качестве эмпирической базы исследования были использованы материалы РБК на платформе онлайновой социальной сети «ВКонтакте»11, где пользователи активно обсуждали вопросы, связанные с пандемией COVID–19 и ее последствиями, включая массовую вакцинацию.

Для анализа автоматизированными методами были выбраны все посты по тематике COVID–19 (содержащие, в частности, ключевые слова «ковид», «коронавирус», covid, «пандемия», «самоизоляция»), опубликованные в паблике РБК за период с 19 января 2020 г. по 30 июня 2021 г. (5 тыс. постов), а также комментарии и лайки пользователей к этим постам (390 тыс. комментариев и 970 тыс. лайков). Затем из этого массива по ключевым словам «вакцина», «вакцинация», «Спутник V», «ЭпиВакКорона», «КовиВак» было отобрано 17 тыс. комментариев, релевантных теме вакцин и вакцинации. Для анализа использовались те из них, у которых были исходные, «родительские» сообщения (в ответ на которые размещался комментарий).

На первом этапе исследования экспертами проекта (В. В. Кажберова, С. Н. Черкасов, Д. О. Мешков) был вручную обработан массив из 4,8 тыс. комментариев: эксперты маркировали комментарии, определяя их отношение к вакцинации (за/против/непонятно), а также предполагаемое влияние содержания комментария на других пользователей (положительное/отрицательное/ нейтральное/непонятное).

Наличие агрессии и «языка вражды» в большом массиве комментариев позволило уточнить задачи исследования, переместив фокус внимания с влияния на убеждения пользователей в целом на их взаимодействие в конфликтных условиях. Перед исследователями встал вопрос, насколько агрессивные и враждебные настроения могут передаваться другим пользователям, создавая потенциально травмирующий контекст обсуждения. В качестве уточненной цели исследования было выбрано выявление системных взаимосвязей, позволяющих описать актуальную модель агрессии в социальных медиа.

Для второго этапа исследования из уже обработанной выборки был случайным образом выделен массив данных из 400 комментариев, релевантных теме вакцин и вакцинации, а также соответствующих им «родительских» сообщений (еще 220 комментариев). Для их вторичного анализа экспертами был разработан следующий кодировочный лист:

– отношение к вакцинации (0 – против вакцин и/или вакцинации, 1 – за вакцины и/или вакцинацию, 2 – непонятная/нейтральная позиция);

– наличие логического обоснования своей позиции (1 – наличие логики, 0 – ее отсутствие);

– упоминание личного опыта (позитивного, негативного) или опыта ближайшего окружения (1 – наличие упоминания, 0 – отсутствие);

– наличие «языка вражды» (1 – наличие, 0 – отсутствие);

– наличие агрессии по отношению к оппоненту/собеседнику (1 – наличие, 0 – отсутствие);

– наличие агрессии по отношению к другим субъектам или объектам (1 – наличие, 0 – отсутствие).

Поле «наличие логического обоснования своей позиции» и «упоминание личного опыта» было введено, поскольку у авторов исследования появилось предположение, что комментаторы, использующие такого рода аргументацию, менее эмоциональны и поэтому менее склонны к агрессии и использованию «языка вражды». По этому параметру оценивалось, использует ли человек какую-либо аргументацию, приводит ли ссылки на публикации, в том числе научные.

Поле «наличие агрессии по отношению к другим субъектам или объектам» появилось как уточняющее, помогающее разделить сообщения с агрессией к собеседнику и сообщения, где объект вражды носит более абстрактный характер (страны, вакцины, политические акторы, компании и т. д.).

Главным фактором, определяющим наличие «языка вражды» в комментариях, было присутствие в них дискриминации по какому-либо признаку (полу, возрасту, отношению к вакцинации, национальности и т. д.), а также лексики и стилистики «свой–чужой». Часто в репликах можно быть отметить и наличие «языка вражды», и агрессии (к оппоненту, к другим субъектам и объектам). Такие высказывания маркировались сразу по двум этим пунктам кодировочного листа.

Таким же образом маркировались «родительские» комментарии. Для обозначения характеристики родительского комментария применялся индекс р (например, «мнениер»).

В сложных случаях решение принималось на основе совместного экспертного обсуждения.

Для анализа комментариев применялись методы структурирования и обработки данных12, для анализа взаимосвязей – метод факторных таблиц.

На основе собранных данных была разработана простая математическая модель распространения агрессии в социальной сети.

За основу была взята типичная ситуация, когда в ответ на актуальный пост пользователи пишут комментарии и/или публикуют посты, содержащие или не содержащие агрессию. На следующем шаге они могут снова спровоцировать ответные сообщения, также различные по своей тональности.

В качестве единицы времени были взяты одни сутки. Именно в этот период наблюдается наиболее значимый отклик на пост после его размещения (более 90% комментариев), позже активность реакции стремительно падает.

Выражение динамики агрессии оказалось следующим (использована формула полной вероятности):

Снимок экрана 2023-07-26 в 17.41.47.png

где:

Снимок экрана 2023-07-26 в 17.58.30.png

Если в начальный момент уровень агрессии оказался равен x*, то он не меняется со временем при стабильных значениях параметров, что дает основания называть этот показатель также равновесным уровнем агрессии. В рамках данной модели динамики x* является ограничением на уровень агрессии: если в некоторый момент уровень был ниже равновесного, то он и далее будет ниже равновесного.

Результаты исследования

Итоги контент-анализа

По итогам первого этапа исследования (экспертного анализа 4,8 тыс. комментариев) выяснилось, что значительная часть комментариев содержит сарказм, оскорбления, обесценивание чужих чувств и эмоций: они встретились в каждом втором комментарии. Это намного выше обычных значений: по данным BrandAnalytics, доля агрессии в социальных медиа в среднем составляет примерно 5,5% от всех сообщений13. Таким образом, первоначальная гипотеза о том, что сообщения в паблике СМИ могут выгодно отличаться от комментариев акторов в гражданских группах, пабликах, сообществах, не подтвердилась.

Далее была выявлена структура отношения пользователей к вакцинации. Значительная часть из них связывала эту тему с политикой и острой социальной проблематикой, где комментаторы не всегда могли удержаться в морально-этических рамках. Доля сообщений «за» вакцинацию оказалась относительно не- большой (11%). В качестве аргументации пользователи часто приводили личный опыт или опыт близких («Родители боялись противопоказаний, но сделали прививку. В итоге все хорошо...»), рассуждали об общей логике развития пандемии («Коронавирус не закончится, если не привьемся») или же ограничивались оценочными суждениями («Спутник лучший!»). Наряду с признанием пользы вакцинации встречались грубые оскорбления оппонентов – упреки в непонимании ситуации, ангажированной позиции. Такие комментарии чаще всего маркировались как поддерживающие вакцинацию (графа «мнение»), но оказывающие негативное влияние на других пользователей (графа «влияние»).

Существенно чаще высказывалась позиция «против» вакцинации (24%). В этих комментариях присутствовало большое количество бездоказательных утверждений: «Вирус мутирует, граждане, и делать прививку бесполезно!»; «Не наводите панику! это обычное ОРВИ»; «Вакцины придумали, чтобы сократить население земли»; «После вакцины вы умрете еще быстрее!»; «Мы против опытов над людьми! А как же Нюрнбергский процесс?»; «Есть VIP-вакцина более высокой степени очистки, ею привилась элита». Многообещающая мифологема связи между появлением COVID–19 и внедрением технологий 5G, а также планами Билла Гейтса, Илона Маска и т. д. не носила, однако, массового характера.

Противники вакцинации часто бывали агрессивны: желали оппонентам болезни или смерти, размещали уничижительные, саркастические, оскорбительные замечания.

Примеры оскорбительных комментариев (орфография и пунктуация сохранены): «Ну, вот ты от естественного отбора и подохнешь. Что ты привился – молодец, в конце-концов, людям нужно испытать вакцину на биомусор... на добровольцах»; «Вот бот фейковый – мозгов смотрю тебе для беседы не подвезли, оскорблять начала... Сама иди и что-то там отрабатывай, тупая курица».

Больше всего оказалось сообщений, где позиция пользователя была маркирована как непонятная (нейтральная). Их доля составила 65%.

Некоторые пользователи выражали вполне обоснованное отношение к вакцинальной кампании, отмечая ее недостатки, например (орфография и пунктуация сохранены): «Вакцина политизирована... не участвуй политики, мы бы привились»; «Нужно больше реальных мнений экспертов. Сейчас мнения слишком полярны, выглядят заказными с обеих сторон»; «Не нужно было ругать западные вакцины, это подорвало идею вакцинации в целом»; «Работа с населением не качественная. И тут еще и речи про принудиловку только усугубляют ситуацию, ибо много параноиков развелось».

Таким образом, контент-анализ выявил особенности убеждений пользователей, разнообразие мнений и их политизированность, а также значительный уровень агрессии и «языка вражды».

Анализ распределения комментариев по основным критериям и взаимосвязь между ними

В рамках второго этапа исследования – анализа 620 комментариев – было проанализировано их распределение по кодировочному листу, описанному в части «Методика исследования». Авторы исследования предполагали, что на основании изучения взаимосвязей возможно будет создать и описать общую теоретическую модель распространения агрессии и вражды в Сети, однако не все характеристики продемонстрировали значимые связи между собой. Данные представлены на рисунке 1.

Рисунок 1.png

На рис. 1 представлено распределение комментариев: отношение к вакцинации, логическое обоснование позиции, наличие личного опыта и т. д. По горизонтальной оси указано значение признака, по вертикальной – количество комментариев с этим значением.

Как показал анализ, пользователи в своих высказываниях редко прибегали к логическому обоснованию позиции (всего в 4% случаев), немного чаще ссылались на личный опыт или опыт окружения (7%). Довольно много было обнаружено выражений агрессии в отношении оппонента (14%), много – в отношении других объектов и субъектов (39%). Общий уровень агрессии составил 53%. Доля сообщений с «языком вражды» – 17%.

Дальнейший анализ осуществлялся при помощи факторных таблиц, которые показали совместное распределение признаков (переменных), разделенных попарно. Обобщенные результаты представлены в виде «тепловой карты» (см. рис. 2).

Рисунок 2.png

Не все характеристики кодировочного листа, вопреки первоначальным ожиданиям, показали сильные связи между собой. Например, по параметру «отношение к вакцинации» явной детерминированности выявлено не было, что говорит о том, что мнения в ветках дискуссий чередуются: охотнее на пост/комментарий отвечают те, кто с ним не согласен, чем те, кто поддерживаепт высказанные в нем идеи. Этот факт отчасти характеризует особенности сетевого общения как свободного и спонтанного.

Более других оказались связаны между собой такие параметры, как «отношение к вакцинации» и «наличие агрессии», «отношение к вакцинации» и «наличие “языка вражды”», а также «отношение к вакцинации» и «наличие логики».

Так, для позиции «“против” вакцинации» характерен высокий уровень агрессии по отношению к другим объектам, уровень агрессии в целом, а также велика доля сообщений, содержащих«язык вражды». В таких сообщениях реже встречается логическое обоснование позиции, упоминание личного опыта и опыта близких. Это подтвердило предположение о том, что авторы негативистских, агрессивных сообщений чаще используют не логические, а эмоциональные аргументы (Пронина, 2001), хотя исследователи в целом не исключают возможности проявления агрессии и на рациональном уровне (Седов, 2005).

Действительно, в тех комментариях, где прослеживалась позиция, соотносимая с принципами доказательной медицины, чаще использовались логические аргументы и реже присутствовали бессодержательные агрессивные высказывания.

Было выявлено, что «агрессия в отношении оппонента» с большой вероятностью вызывала ответную агрессию, что является косвенным признаком поляризации общества. Агрессия к другим субъектам или объектам провоцировала такую же агрессию, «заражая» других пользователей подобным настроением. Сообщения с высоким уровнем «агрессии к другим объектам и субъектам» часто содержали еще и «язык вражды».

Таким образом, полностью подтвердилась рабочая гипотеза о том, что негативно окрашенные сообщения влияют на других пользователей, создают деструктивный и травмирующий контекст обсуждения.

Итоги математического моделирования распространения агрессии и возможные стратегии управления

На основании анализа основных возможностей управления в Сети были выделены два типа стратегий, исходя из задачи снизить уровень агрессии:

– управление с помощью добавления комментариев (нейтральных, позитивно окрашенных14) представителями редакции, которые способны в ряде ситуаций вмешиваться в ход обсуждения, предлагая участникам дискуссии сохранять цивилизованный и конструктивный формат дискуссии;

– удаление агрессивных комментариев как вариант модерации15: в этом случае речь идет о тех сообщениях, которые нарушают права собеседника (оскорбительные, нетолерантные, уничижительные, с призывами к насилию и т. д.).

Проанализируем эффективность обоих типов стратегий на основе данных страницы РБК в социальной сети «ВКонтакте».

Оценим начальную долю агрессивных комментариев для модели, исходя из числа агрессивных и неагрессивных комментариев в рабочей выборке из 400 комментариев. На такой же выборке посчитаем условные вероятности.

Рассмотрим два случая динамики агрессии: агрессия по отношению к оппоненту и агрессия по отношению к другим субъектам или объектам.

Агрессия по отношению к оппоненту. Расчет равновесного уровня агрессии дает 16% комментариев, что соответствует результатам имитационного моделирования (график 1 на рис. 3).

Рисунок 3.png

Таким образом, уровень агрессии по отношению к оппонентам снижается даже без вмешательства «извне» в первые же сутки после публикации поста/комментария, что обусловлено снижением его актуальности. Этот процесс можно несколько ускорить при помощи управления: добавление 75 комментариев в день (10% от их общего числа) приводит к снижению доли агрессивных сообщений до 15,7% (график 2), а удаление 75 комментариев – до 14% (график 3).

В длительной перспективе применение обеих стратегий, раздельное или совместное, позволяет добиться одинакового эффекта – максимально возможного уменьшения уровня агрессии к оппоненту до 13,4%. В рамках действующей модели этот показатель снизить далее невозможно, поскольку некоторое количество агрессивных комментариев появляется на каждом шаге, даже если раньше тон обсуждения был нейтральным16.

Агрессия по отношению к другим субъектам или объектам. Расчет равновесного уровня агрессии дает 37,3 % комментариев, имитационное моделирование приводит к такому же результату (см. рис. 4, график 1).

Рисунок 4.png

Уровень агрессии к другим субъектам или объектам, в отличие от уровня агрессии к собеседнику, сначала повышается, а затем остается на том же уровне, не снижаясь. Это связано с тем, что при таком типе высказываний пользователи склонны отвечать агрессивно даже на нейтральные сообщения.

Добавление 10% нейтральных/позитивных комментариев уменьшает уровень агрессии до 36,8% (график 2), а удаление такой же доли сообщений – до 35,8% (график 3). Разница в эффективности невелика, сопоставима и скорость достижения результата. Таким образом, сообщения этого рода мало поддаются воздействию, независимо от стратегии.

В долгосрочной перспективе также можно добиться максимального уменьшения равновесного уровня агрессии: он составляет 32,6%.

Обсуждение и выводы

Авторы статьи видели основную исследовательскую задачу, прежде всего, в описании механизмов влияния пользователей друг на друга (в частности, в экстремальных ситуациях) и особенностей таких воздействий. Существование обширного ряда работ, описывающих особенности распространения агрессии и «языка вражды» в современных медиа (Bodrunova, Litvinenko и др., 2021; Nigmatullina, Rodossky, 2022; Choi, 2021 и т. д.), подтверждает актуальность такого исследования. В данной статье удалось на примере паблика СМИ в онлайновой социальной сети подтвердить связь убеждений с логическими характеристиками высказываний, построить матрицы отношений между мнениями, доказательствами (логика, опыт) и агрессией в комментариях.

Еще одной исследовательской задачей стала разработка и тестирование инструментария для оценки влияния медиапотребителей друг на друга. Как было отмечено выше, в современных работах активно используются технологии математического и компьютерного анализа проявлений интолерантности (см., например: Потапова, Комалова, 2014; Гордеев, 2016; Уздяев, 2020; Babakov, Logacheva, Panchenko, 2022; Nugamanov, Loukachevitch, Dobrov, 2021; Grigoriev, Kuznetsova et al., 2022; Pronoza, Panicheva et al., 2021), однако, как правило, их применение не универсально и не носит междисциплинарного характера, а значит, возможны «слепые зоны», нестыковки результатов разного рода исследований, проведенных согласно различным методикам. Те же работы, где описаны попытки научного прогнозирования и моделирования конфликтных онлайн-дискуссий (Mathew, Dutt и др., 2018; Xiao-Kun, Tian-Fang et al., 2022; Охапкин, Охапкина и др., 2020), пока носят "точечный" характер и не могут применяться для анализа широкого круга ситуаций. Авторы исследования надеются, что создание математических моделей распространения агрессии в цифровых коммуникациях может стать шагом к научной систематизации этих данных, стандартизации подходов, расширению эмпирической базы.

В настоящий момент были получены локальные результаты в рамках одного тематического обсуждения в одном из пабликов, однако в дальнейшем они могут быть существенно дополнены и расширены.

Так, в ходе исследования математической модели было выявлено, что на страницах СМИ в новых медиа при обсуждении острых социальных вопросов может присутствовать некий «базовый» уровень агрессии, который наблюдается в ветке обсуждения, даже если предшествующие сообщения были позитивными и/или нейтральными. Можно предположить, что это особенность социальных медиа, которую можно отнести к рискам их использования наряду с распространением фейков, буллингом, троллингом, мошенничеством, и ее важно учитывать.

В паблике РБК «ВКонтакте», например, при обсуждении тематики COVID–19 доля сообщений с агрессией к собеседнику составила 16%, далее этот уровень снижался только до 13,4%. Доля комментариев с агрессией к другим объектам (стране, чиновникам, вакцинам и т. д.) составила 37,3%, и этот показатель также не опускался ниже 32,6%. При этом разные стратегии воздействия (удаление редакцией негативных сообщений или добавление позитивных/нейтральных комментариев) показали при моделировании приблизительно одинаковую эффективность.

Бесспорно, при помощи простой модели стало возможным показать лишь «усредненную» картину динамики агрессии в социальной сети. Поэтапное введение в модель различных факторов, влияющих на уровень агрессии в социальных медиа, потребует анализа очень больших массивов данных, однако это является перспективным направлением дальнейших исследований. От ответов на вопрос, какими могут быть подобные факторы, могут зависеть актуальные стратегии и тактики поведения сетевых редакций, модераторов форумов и сообществ, медиакоммуникаторов разного рода и уровня. В любом случае важно, чтобы они сохраняли этичный подход к медиапотребителю как к собеседнику, обладающему интеллектом и знаниями для активного освоения информации. Вполне вероятно, что поиск решений актуализирует такие функции СМИ, как просвещение, формирование культурного слоя, ценностное ориентирование, а со стороны общественных и политических акторов стимулирует запуск коммуникационных, информационных, социальных кампаний.

Таким образом, исследование распространения агрессии и «языка вражды» в новых медиа важно продолжать на стыке самых разных областей знания, включая социологию, медиапсихологию, коммуникативистику, культурологию, математическое и имитационное моделирование, информационные технологии.

Примечания

1 Рагнедда М. Концептуализация и измерение цифрового капитала // МедиаТренды. 2019. № 8 (71).

2 Исследования в области компьютерной лингвистики, посвященные вопросам автоматизированного выявления и классификации оценочных, а также деструктивных русскоязычных текстов не пересекаются с предметом исследования настоящей работы: в ней проводятся исследование и моделирование опубликованных в онлайновой социальной сети сообщений (комментариев), разметка которых была выполнена экспертами «вручную».

3 См. также определение: «Язык вражды» – это выражения, подразумевающие отрицательную оценку всех представителей некоторой социальной группы, объединенной по признаку пола, расы, языка, этнического происхождения, религиозной принадлежности. Менделеева Д. «Колорады», «ватники», «укропы». Язык вражды и риторика ненависти. О лингвистическом феномене «hate speech» – филолог Алексей Шмелев. 2014. Окт., 23. Режим доступа: https://www.pravmir.ru/koloradyi-vatniki-ukropyi-yazyik-vrazhdyi-i-ritorika-nenavisti/ (дата обращения 15.05.2022).

4 Киберагрессия – термин, обозначающий проявления девиантного поведения в Интернете. К нему относятся оскорбления, унижения, издевательства, разоблачения, агрессивные нападки, преследования посредством коммуникативных технологий, манипулирование. Введен в 2007 г. доктором философии Д. Шабро.

5 Радулова Н. Страх и ненависть в рунете. Почему в российском сегменте Интернета столько агрессии // Огонек. 2020. № 32. С. 28.

6 Исследование платформы Perfluence, сервиса психотерапии Zigmund. Online и агентства аналитики ResearchMe. Респондентами стали пользователи от 18 до 55 лет (более 5 тыс. чел.). 2021. Режим доступа: https://www.sostav.ru/publication/issledovanie-perfluence-i-zigmund-online-52273.html (дата обращения 25.03.2022).

7 Mitchell A., Gottfried J., Stocking G. et al. (2019) Many Americans Say Made-Up News Is a Critical Problem That Needs To Be Fixed. Paw Research Center, 5 June. Режим доступа: https://www.pewresearch.org/journalism/2019/06/05/many-americans-say-made-up-news-is-a-critical-prob... (дата обращения: 31.05.2023).

8 Анализ этических аспектов применения подобных методов выходит за рамки настоящего исследования. Вместе с тем однозначно неэтичные методы (например, использование ботов, «троллей»; «вычислительная пропаганда» во время предвыборных и/или иных кампаний, преследование частных интересов) в массиве данных, иследованных авторами, представлены не были и, соответственно, не изучались. При анализе материалов паблика (постов, комментариев) РБК также не было замечено применения каких-либо масштабных информационных воздействий (кампаний), которые можно было бы отнести к рекламным, пропагандистским, манипулятивным или иным методикам подобного рода. Вопрос о том, когда и как, с какими целями подобные методы применяются в российской практике, требует дальнейшего изучения.

9 При этом нужно учитывать, что в мировой практике в целом растет интерес к использованию социальных медиа в качестве инструмента для изменения поведенческих характеристик в определенных целях. В этом контексте используется термин «сетевые вмешательства», от англ. network interventions (Valente, 2012: 49– 53; Kempe, Kleinberg, Tardos, 2003: 137–146). Они могут быть индивидуальными, групповыми, индукционными (т. е. вызывать целую серию поведенческих изменений, называемую «каскадом»), структурными. Часто их влияние ограничено определенной сферой применения, например здравоохранением (Cobb, Josee, 2014; Hunter, Haye et al., 2019; Kim, Hwong, Stafford, 2015). Но так или иначе технологические, мировоззренческие и этические особенности и границы применения этих технологий в русскоязычных социальных медиа находятся за пределами данного исследования.

10 По данным HeadMedia. Режим доступа: https://head-media.ru/printed_editions/reklama-v-zhurnalah/rbk/ (дата обращения: 31.05.2023).

11 Страница РБК «ВКонтакте». Режим доступа: https://vk.com/wall-25232578 (дата обращения: 25.05.2022).

12 Применялись технологии: библиотека Python Data Analysis Library, методы численных вычислений (библиотека Numerical Python) и методы для выполнения научных и инженерных расчетов (библиотека Scientific Library for Python). Библиотека Python Data Analysis Library. Режим доступа: https://pandas.pydata.org (дата обращения: 04.06.2022). Библиотека Numerical Python. Режим доступа: https://numpy.org (дата обращения: 04.06.2022). Библиотека Scientific Library for Python. Режим доступа: https://scipy.org (дата обращения: 04.06.2022).

13 Вебер В. Агрессивность в социальных медиа, ноябрь 2021 // Brand Analytics. 2022. Режим доступа: https://br-analytics.ru/blog/social-aggressiveness-2021/ (дата обращения: 04.04.2022).

14 При этом имеется в виду только тональность сообщений, а не отношение к чему-либо, например к вакцинации.

15 Первый вариант применяется преимущественно организациями и компаниями на независимых сайтах отзывов, хостингах, форумах. Второй характерен для официальных пабликов сообществ, онлайн-представительств. В процессе анализа не исключалось, что оба типа стратегий могут применяться и одновременно. В рамках данного исследования авторы опирались на устойчивую практику использования ряда перечисленных методов (модерации, премодерации, добавления комментариев от лица редакции и т. д.), не ставя своей задачей анализировать правомерность их употребления с точки зрения этики массмедиа и медиапотребления. Действительно, проблема hate speech vs. free speech является в том числе этической, однако это тема отдельного исследования. В этом случае многое зависит от тем и ситуаций, в которых применяется та или иная стратегия, стандартов редакций; в большинстве случаев их применение оправдано нарушением пользователями законодательства (например, публикациями призывов к насилию, вражде, национальной розни, дискриминации и т. д.).

16 Вопрос о том, насколько существенным является это снижение, выходит за рамки данного исследования. Для ответа на него требуется построение более общей модели информационного воздействия, учитывающей как общественную пользу от снижения уровня агрессии, так и затраты на это снижение. Эта задача может быть актуальна для дальнейших исследований.

Библиография

Антропова В. В. Речевая агрессия в текстах социальных сетей: коммуникативный аспект // Вестн. ВГУ. Сер.: Филология. Журналистика. 2015. № 3. С. 123–127.

Аптикиева Л. Р. Последствия психологического насилия для разных возрастных категорий // Вестн. Оренбург. гос. ун-та. 2020. № 1 (224). С. 6–13. DOI: 10.25198/1814-6457-223-6 УДК 371.3

Бузина Т. С., Бузин В. Н., Ланской И. Л. Врач и пациент: межличностные коммуникации // Медицинская психология в России. 2020. Т. 12. № 4 (63): 1–21. DOI: 10.24412/2219-8245-2020-4-2

Быкова О. Н. Языковое манипулирование общественным сознанием // Теоретические и прикладные аспекты речевого общения. Вып. 1 (8). Красноярск, 1999. С. 99–103.

Воронцова Т. А. Троллинг и флейминг: речевая агрессия в интернет-коммуникации // Вестн. Удмурт. ун-та. Сер.: История и филология. 2016. Т. 26. Вып. 2. С. 109–115.

Галяшина Е. И., Никишин В. Д. Язык вражды как угроза информационной безопасности Интернет-коммуникации // Вестн. СПбГУ. Право. 2021. Т. 12. Вып. 3. С. 555–573. DOI: https://doi.org/10.21638/spbu14.2021.305

Гордеев Д. И. Современные методы анализа состояния «агрессия» в письменных текстах // Вестн. МГЛУ. 2016. Вып. 15 (754). С. 47–54.

Губанов Д. А., Новиков Д. А., Чхартишвили А. Г. Социальные сети: модели информационного влияния, управления и противоборства. 3-е изд., перераб. и дополн. М.: МЦНМО, 2018.

Губанов Д. А., Чхартишвили А. Г. Влиятельность пользователей и метапользователей социальной сети // Проблемы управления. 2016. № 6. С. 12–17. DOI: https://doi.org/10.1134/S0005117918030128

Демина И. Н., Шкондин М. В. Журналистика в мире повседневности: слагаемые конвенциональной целостности как фактор преодоления конфликтов // Вестн. Волжск. ун-та им. В. Н. Татищева. 2021. Т. 1. № 1 (34). С. 134–143. DOI: 10.51965/2076-7919_2021_1_1_134

Дзялошинский И. М. Российские медиа: проблемы вражды, агрессии, насилия: учеб. пособие. Саратов: Ай Пи Эр Медиа, 2019.

Дзялошинский И. М. Язык вражды в российских СМИ: социальные, культурные, профессиональные факторы: учеб.-метод. пособие. М.: Гуманитарный институт, 2006.

Ефимова Г. З., Зюбан Е. В. Влияние социальных сетей на личность // Мир науки. 2016. Т. 4.

Зиновьев И. В. Постправда на телевизионных экранах: новости против достоверности // Журналистика и массовые коммуникации. 2018. Т. 24. № 1 (171). С. 41–48. Режим доступа: https://elar.urfu.ru/bitstream/10995/58289/1/iurp-2018-171-04.pdf (дата обращения: 25.05.2022).

Кирдун А. А., Андреева А. В. Язык вражды в современной массовой коммуникации Беларуси // Вестн. Минск. гос. лингв. ун-та. Cер. 1: Филология. 2017. № 6 (91). С. 100–110.

Курьянова И. В. Маркеры речевой агрессии в интернет-коммуникации при исследовании текстов экстремистской направленности // Вестн. МГЛУ. Гуманитарные науки. 2018. Вып. 6 (797). С. 29–38.

МакКуэйл Д. Журналистика и общество. М.: МедиаМир: Фак. журн. МГУ, 2013.

Малахаева С. К., Потапов Р. С. Агрессивность и аутоагрессивность в сетевом тексте: контент-анализ страниц в социальной сети «ВКонтакте» // Вопросы теории и практики журналистики. 2018. Т. 7. № 4. С. 724–740. DOI: 10.17150/2308-6203.2018.7(4).724-740

Охапкин В. П., Охапкина Е. П., Исхакова А. О., Исхаков А. Ю. Деструктивное информационно-психологическое воздействие в социальных сетях // Моделирование, оптимизация и информационные технологии. 2020. Вып. 8 (1). С. 1–14. DOI: 10.26102/2310-6018/2020.28.1.043

Потапова Р. К., Комалова Л. Р. База данных русскоязычных текстов, содержащая единицы семантического поля «агрессия» // Вестн. МГЛУ. Сер.: Языкознание. 2014. Вып. 19 (705). С. 112–121.

Пронина Е. Е. «Живой текст»: четыре стилевых признака Net-мышления // Вестн. Моск. ун-та. Сер. 10: Журналистика. 2001. № 6. С. 74–80.

Рябов М. А., Боченкова Н. А. Социальные аспекты агрессивного сетевого поведения // Вест. Удмурт. ун-та. Социология. Политология. Международные отношения. 2021. Т. 5. Вып. 2. С. 170–178. DOI: 10.35634/2587-9030-2021-5-2-170-178

Салимовский В. А., Ермакова Л. М. Экстремистский дискурс в массовой коммуникации Рунета // Вестн. Перм. ун-та. 2011. Вып. 3 (15). С. 71–80.

Седов К. Ф. Речевая агрессия в повседневной коммуникации // Речевая агрессия в современной культуре. Челябинск: Изд-во ЧелГУ, 2005. С. 32–41.

Сковородников А. П. Языковое насилие в современной российской прессе // Теоретические и прикладные аспекты речевого общения: научно метод. бюлл. Вып. 2. Красноярск-Ачинск, 1996. С. 10–15.

Смирнова О. В., Шкондин М. В. Исследования медиа и журналистики в контексте конфликтологии: системно-теоретические аспекты // Вопросы теории и практики журналистики. 2021. Т. 10. № 1. С. 5–21. DOI: 10.17150/2308-6203.2021.10(1).5-21

Смирнова О. В., Шкондин М. В., Денисова Г. В., Стебловская С. Б. Индикаторы конфликтности в российском медиадискурсе: анализ интернет-мемов // Вопросы теории и практики журналистики. 2022. Т. 11. № 1. С. 41–58. DOI: 10.17150/2308-6203.2022.11(1).41-58

Солдатова Г. У., Рассказова Е. И., Чигарькова С. В. Виды киберагрессии: опыт подростков и молодежи // Национальный психологический журнал. 2020. № 2 (38). С. 3–20. DOI: 10.11621/npj.2020.0201

Сычев А. А., Коваль Е. А., Жадунова Н. В. Проблема классификации языка вражды в отношении мигрантов (на примере Республики Мордовия) // Регионология. 2018. Т. 26. № 4. С. 798–815. DOI: 10.15507/2413-1407.105.026.201804.798-815

Уздяев М. Ю. Нейросетевая модель многомодального распознавания человеческой агрессии // Вестн. КРАУНЦ. 2020. Т. 33. No 4. С. 132–149. DOI: 10.26117/2079-6641-2020-33-4-132-149

Швабб К. Четвертая промышленная революция. М.: Эксмо, 2016.

Babakov N., Logacheva V., Panchenko A. (2022) Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable Topics for the Russian Language. arXiv: 2203.02392. DOI: https://doi.org/10.48550/arXiv.2203.02392

Bodrunova S. S., Litvinenko A., Blekanov I., Nepiyushchikh D. (2021) Constructive aggression? Multiple roles of aggressive content in political discourse on Russian YouTube. Media and Communication 9: 181–194. DOI: 10.17645/mac.v9i1.3469

Boroon L., Abedin B., Erfani E. (2021) The dark side of using online social networks: a review of individuals’ negative experiences. Journal of Global Information Management (JGIM) 29 (6): 1–21. DOI: 10.4018/JGIM.20211101.oa34

Chkhartishvili A. G., Gubanov D. A., Kozitsin I. V. (2021) Face Mask Perception during the COVID-19 Pandemic: an Observational Study of Russian Online Social Network VKontakte. Advances in Systems Science and Applications 21 (3): 91–100. DOI: https://doi.org/10.25728/assa.2021.21.3.1124

Choi S. (2021) «People look at me like I AM the virus»: Fear, stigma, and discrimination during the COVID-19 pandemic. Qualitative Social Work 20 (1– 2): 233–239. DOI: https://doi.org/10.1177/1473325020973333

Cobb N. K., Josée P. J. (2014) Effectiveness of a multimodal online well-being intervention. A randomized controlled trial. Am J Prev Med 46: 41–48. DOI: 10.1016/j.amepre.2013.08.018

De Groot M. H. (1974) Reaching a Consensus. Journal of American Statistical Association 69: 118–121.

Dordevic J. P. (2020) The sociocognitive dimension of hate speech in readers’ comments on Serbian news websites. Discourse, Context & Media 33: 1–9. DOI: 10.1016/j.dcm.2019.100366

French J. R. (1956) A formal theory of social power. The Psychological Review 63: 181–194. DOI: https://doi.org/10.1037/h0046123

Friedkin N. E., Johnsen E. C. (2011) Social Influence Network Theory: A Sociological Examination of Small Group Dynamics. Cambridge: Cambridge University Press. DOI: https://doi.org/10.1017/CBO9780511976735

Georgalidou M., Katerina T. F., Giakoumakis G. (2020) Aggression in media-sharing websites in the context of Greek political/parliamentary discourse in the years of the economic crisis. Journal of Language Aggression and Conflict 8 (2): 321–350. DOI: https://doi.org/10.1075/jlac.00039.geo

Gover A. R., Shannon B. H., Langton L. (2020) Anti-Asian Hate Crime During the COVID-19 Pandemic: Exploring the Reproduction of Inequality. American Journal of Criminal Justice 45 (4): 647–667. DOI: 10.1007/s12103-020-09545-1

Grigoriev O. G., Kuznetsova Y. M., Nikitina E. N., Smirnov I. V., Chudova N. V. (2022) Causative-Emotive Analysis. Part I. Emotional Reactions of Social Networks Users Research. Psikhologicheskii zhurnal 3 (43): 114–121. DOI: 10.31857/S020595920020501-7

Harary F. (1959) A criterion for Unanimity in French’s Theory of Social Power. In Studies in Social Power. Michigan: Institute of Sociological Research. Pp. 168–182.

Hunter R. F., Haye de la K., Murray J. M. et al. (2019) Social network interventions for health behaviours and outcomes: A systematic review and meta-analysis. PLoS medicine 16 (9): e1002890. DOI: 10.1371/journal.pmed.1002890

Kempe D., Kleinberg J., Tardos E. (2003) Maximizing the spread of influence through a social network. In Proceedings of the ninth ACM SIGKDD international conference on Knowledge discovery and data mining. Pp. 137–146.

Kim D. A., Hwong A. R., Stafford D., Hughes D. A., O’Malley A. J., Fowler J. H. et al. (2015) Social network targeting to maximise population behaviour change: a cluster randomised controlled trial. Lancet 386: 145–153. DOI: 10.1016/s0140-6736(15)60095-2

Mathew B., Dutt R., Goyal P., Mukherjee P. (2019) Spread of hate speech in online social media. In ACM Conference on Web Science (WebSci ’19). Boston, MA, USA. Available at: https://cse.iitkgp.ac.in/~animeshm/websci19.pdf (acсessed:15.10.2022).

Nigmatullina K., Rodossky N. (2022) Social Media Engagement Anxiety: Triggers in News Agenda. In International Conference on Human-Computer Interaction. Cham: Springer. Pp. 345–357. DOI: https://doi.org/10.1007/978-3-031-05061-9_25

Nugamanov E., Loukachevitch N., Dobrov B. (2021) Extracting Sentiments towards COVID-19 Aspects. In CEUR Workshop Proceedings. Moscow. Pp. 299–312.

Pejchal V. (2018) Hate speech regulation in post-communist countries: Migrant crises in the Czech and Slovak republics. International Journal for Crime, Justice and Social Democracy 7 (2): 58–74. DOI: 10.5204/ijcjsd.v7i2.500.

Pronina E. (2018) The new media and the evolution of the human psyche. Psyhology in Russia 11 (2): 148–160. DOI: 10.11621/PIR.2018.02011

Pronoza E., Panicheva P., Koltsova O., Rosso P. (2021) Detecting ethnicity-targeted hate speech in Russian social media texts. Information Processing and Management 58 (6): Article 102674. DOI: https://doi.org/10.1016/j.ipm.2021.102674

Trajkova Z., Neshkovska S. (2018) Online hate propaganda during election period: The case of Macedonia. Lodz Papers in Pragmatics 14 (2): 309–334. DOI: 10.1515/lpp-2018-0015

Valente T. W. (2012) Network interventions. Science 337 (6090): 49–53. DOI: 10.1126/science.1217330

Vasilenko E. (2021) Online Hate Speech in Belarus: Highlighting the Topical Issues. Zeitschrift f r Slawistik 66 (4): 558–577. DOI: https://doi.org/10.1515/slaw-2021-0026

Xiao-Kun W., Tian-Fang Z., Lu L., Wei-Neng C. (2022) Predicting the hate: a GSTM model based on COVID-19 hate speech datasets. Information Processing & Management 59 (4): 102998.


Как цитировать: Кажберова В.В., Чхартишвили А.Г., Губанов Д.А., Козицин И.В., Белявский Е.В., Федянин Д.Н., Черкасов С.Н., Мешков Д.О. Агрессия в общении медиапользователей: анализ особенностей поведения и взаимного влияния // Вестник Моск. ун-та. Серия 10. Журналистика. 2023. № 3. С. 26–56. DOI: 10.30547/vestnik.journ.3.2023.2656





Поступила в редакцию 30.06.2022