Статьи

№ 5 ' 2025

Содержание:

  • Искусственный интеллект в исследованиях медиа и коммуникации

    «Искусственный интеллект в медиасфере: направления исследования, профессиональные противоречия и новые риски»

    Редакторы номера сопоставляют ключевые направления международных исследований искусственного интеллекта с российским исследовательским контекстом. Темами, которые объединяют исследователей всего мира, можно считать в 2025 г. следующие: теории внедрения ИИ в коммуникативную практику и их критика; деонтология использования ИИ в журналистике и социальной коммуникации; практика создания ИИ-контента в федеральных и региональных медиа; ИИ в соцсетях и мессенджерах; визуальный медиаконтент и ИИ; восприятие ИИ и ИИ-новостей в медиаиндустрии и медийной аудитории – от надежд до страхов и противостояния; политика государства, платформ, медиакомпаний в области использования ИИ в коммуникации; машинное обучение, малые и большие языковые модели в анализе медиаконтента; распознавание эмоций, иронии, вредоносного контента на основе машинного обучения; ИИ в аналитике фейковых новостей и дезинформации. Ключевыми направлениями дальнейших исследований названы формирование гибридных моделей взаимодействия человека и ИИ, разработка регламентов и этических кодексов применения нейросетей в журналистике, анализ неравномерности цифровой трансформации региональных медиа, исследование когнитивных эффектов и профессиональной адаптации журналистов, общественно-политические и технологические параметры развития новой социальной среды и ее общественного регулирования.
    Ключевые слова: искусственный интеллект, журналистика, деонтология, цифровая трансформация, медиа
    DOI: 10.55959/msu.vestnik.journ.5.2025.322
    Бодрунова С.С., Нигматуллина К.Р. 3
  • «Российская модель использования ИИ в цифровых экосистемах медиакоммуникационной индустрии»

    В авангарде цифровой трансформации последних лет находятся медиа: изменились не только способы создания, продажи, хранения и потребления медиаконтента и медиасервисов, но и сама структура медиакоммуникационной индустрии (МКИ). Рассматривая ее новую структуру и субъектность, нельзя не обратить внимания на технологии искусственного интеллекта, проявляющие себя в сферах коммуникации, генерации содержания и обработки больших данных, создаваемых пользователями в медиакоммуникационных процессах. ИИ как совокупность технологий стал важной медиакоммуникаций, влияющей на взаимодействие активно существующих в них субъектов. В этом контексте особый интерес вызывают цифровые экосистемы (ЦЭС), ставшие ключевыми структурирующими МКИ и цифровую медиасреду акторами. Именно технологии ИИ сыграли решающую роль в трансформации медиаплатформ в медийные ЦЭС, поэтому актуальным исследовательским вопросом является анализ их вклада в ИИ-трансформацию медиакоммуникационной индустрии в целом. Анализ данных о функционировании и генезисе технологий ИИ в российской МКИ позволил выделить две качественно различные модели использования и развития в ней ИИ-технологий: основанная на лидерстве и экстенсивном захвате рынка экосистемная модель и ориентированная на оптимизацию (посредством ИИ-решений) внутренних процессов медийная модель.
    Ключевые слова: медиаплатформа, цифровая экосистема, медиакоммуникация, цифровые и социальные медиа, искусственный интеллект в медиа
    DOI: 10.55959/msu.vestnik.journ.5.2025.2353
    Вартанов С.А., Тышецкая А. Ю. 23
  • «Дипфейки как социальная угроза»

    В статье дипфейки – аудио- и/или визуальный синтетический контент, создаваемый с помощью глубоких нейронных сетей, – рассматривается с позиций деструктивного использования. Активное развитие технологий дипфейков, а также рост числа мошенничеств с использованием этих технологий актуализируют потребность в систематической оценке возникающих социальных угроз. Авторами дается оценка возможных рисков для разных отраслей и сфер деятельности (политики, медиа, бизнеса и т. д.), а также для социального и психологического благополучия общества. На основании результатов опроса российских экспертов (N=33) определяются основные угрозы распространения дипфейков и уровень эффективности различных способов борьбы с ними. Также систематизируются практики цифровой гигиены как одного из наиболее эффективных методов профилактики указанных угроз для трех целевых групп: индивидов, организаций, регулирующих органов. В заключении представлена разработанная авторами типология программных продуктов, которые могут содействовать в реализации практик цифровой гигиены: цифровой «нотариус», цифровой «советник», цифровой «телохранитель».
    Ключевые слова: дипфейк, искусственный интеллект, цифровая гигиена, цифровая безопасность
    DOI: 10.55959/msu.vestnik.journ.5.2025.5478
    Давыдов С. Г., Матвеева Н. Н., Сапонова А. В. 54
  • «Технологии искусственного интеллекта в работе российских СМИ: инструменты, проблемы и угрозы»

    В статье дается характеристика текущих практик внедрения технологий искусственного интеллекта в работу редакций российских СМИ федерального уровня в контексте существующих проблем: негативных последствий внедрения новых технологий, изменениий стандартов качественной журналистики и др. Для исследования были проведены полуструктурированные интервью с 71 представителем ключевых редакций разных видов СМИ. Результаты исследования показали, что, в отличие от зарубежных практик использования новых технологий, в российских СМИ нейросети используются преимущественно для решения рутинных задач, что позволяет ускорить и оптимизировать работу сотрудников. При этом «продвигают» новые технологии зачастую сами журналисты, а не руководство. Практически все информанты уверены, что ИИ не заменит журналиста, а лишь частично скорректирует его работу.
    Ключевые слова: редакционные практики, искусственный интеллект, технологии искусственного интеллекта, нейросеть, авторское право, редакционные стандарты, интервью
    DOI: 10.55959/msu.vestnik.journ.5.2025.79103
    Зуйкина К.Л., Разумова Д.В. 79
  • «Искусственный интеллект как соавтор журналиста локальных медиа: особенности когнитивной нагрузки при создании контента»

    В статье представлено пилотное исследование когнитивной нагрузки журналистов локальных медиа при взаимодействии с генеративными ИИ-инструментами. Актуальность исследования обусловлена цифровым неравенстом: различия между крупными и региональными медиа носят структурный характер и связаны с неодинаковым доступом к ресурсам, уровнем доходов, образования, специализации и цифровых компетенций сотрудников. Эти факторы определяют темп и качество освоения ИИ-инструментов, влияя на характер когнитивной нагрузки. Несмотря на растущий потенциал ИИ в автоматизации рутинных задач и поддержке аналитической работы, журналисты локальных медиа сталкиваются со значительными трудностями при освоении этих технологий. Цель исследования – разработать концептуальную рамку и методологический инструментарий для измерения когнитивной нагрузки журналистов при взаимодействии с генеративными ИИ-инструментами. На первом этапе пилотного исследования проведен квазиэксперимент с 10 журналистами локальных медиа, в рамках которого участники протестировали три платформы (GigaChat, DeepSeek, @GPT4TelegramBot). Результаты позволяют оценить применимость предложенного подхода и выявить направления для дальнейших исследований. В качестве теоретической основы использована теория когнитивной нагрузки, для измерения – модифицированная шкала NASA-TLX. Результаты позволяют предположить, что наибольшую когнитивную нагрузку журналисты локальных медиа испытывают в процессе формулировки и структурирования запросов, постоянного контроля и корректировки сгенерированного текста. Усиливает нагрузку необходимость удерживать и восстанавливать контекст диалога при его недостаточной поддержке системой. Существенную внешнюю нагрузку создают интерфейсные ограничения.
    Ключевые слова: искусственный интеллект, когнитивная нагрузка, локальные медиа, журналистика, ИИ-инструменты, соавторство, промпт
    DOI: 10.55959/msu.vestnik.journ.5.2025104134
    Павлушкина Н.А., Литвинова А. И. 104
  • «Искусственный интеллект как предмет профессиональной рефлексии журналистов и медиаменеджеров ставропольских СМИ»

    В статье рассмотрены три уровня профессиональной рефлексии по поводу искусственного интеллекта в ставропольских СМИ: презентация технологий ИИ массовой аудитории, осмысление ситуации внутри отрасли журналистами, с одной стороны, и медиаменеджерами – с другой, и сделан вывод о некоторых противоречиях между данными уровнями. Несмотря на лояльную информационную политику СМИ по отношению  к продвижению ИИ в регионе, представление позитивных практик внедрения ИИ в экономику и социальную сферу, в ходе опроса журналистов выявлена настороженность в отношении новых технологий, непонимание стратегии редакции и невысокая оценка своих навыков в этой области. Интервью медиаменеджеров выявили разброс мнений по вопросам внедрения сервисов ИИ в работу редакций, этических аспектов, готовности коллективов к использованию нейросетей и т. д. На современном этапе активное применение ИИ в работе редакции – привилегия крупных ставропольских медиакомпаний. Неравномерная диффузия ИИ-инноваций может привести к резкому отставанию небольших редакций, не имеющих достаточных ресурсов.
    Ключевые слова: ставропольские СМИ, искусственный интеллект, медиаменеджер, профессиональная рефлексия, региональное медиапространство
    DOI: 10.55959/msu.vestnik.journ.5.2025.135155
    Лепилкина О. И., Соколова Л. Н. 135
  • «Системные вызовы для региональных редакций при внедрении нейросетей в медиапроизводство»

    Авторами представлены результаты исследования опыта внедрения искусственного интеллекта в региональных редакциях в России. Интервью с сотрудниками трех видов медиа показали предпосылки для возникновения будущих системных вызовов в профессии журналиста. В качестве ключевых авторы называют увеличение разрыва между редакциями, внедрившими технологию ИИ в медиапроизводство, и теми, кто еще не завершил трансформацию в социальных медиа, а потому не может приступить к следующему этапу, увеличение разрыва в грамотности и осведомленности аудитории, увеличение профессионального разрыва между ИИ-грамотными журналистами и консервативными медиаменеджерами и, наоборот, увеличение разрыва в доходах между редакциями, оптимизировавшими новостное производство и менеджмент социальных сетей, и теми, кто основывает работу в цифровых медиа на ручном труде.
    Ключевые слова: искусственный интеллект, нейросети в медиа, региональная журналистика, внедрение искусственного интеллекта
    DOI: 10.55959/msu.vestnik.journ.5.2025.156178
    Нигматуллина К.Р., Касымов Р. М., Поляков А. К. 156
  • ««Дерево мнений»: метод динамического мэппинга онлайн-дискуссий на основе нейросетевого тематического моделирования и абстрактивной суммаризации»

    Современные модели формирования мнений в онлайн-среде, в т.ч. концепция кумулятивной делиберации, ставят вопросы о природе и динамике публичного консенсуса. Нейросетевые методы детекции мнений способны помочь в выявлении согласия/несогласия пользователей, включая складывание и разрушение консенсуса. Но пока не разработаны методики, учитывающие накопительную динамику мнений – их «мутацию», расхождение и слияние. Наша работа посвящена построению интерпретируемого «дерева мнений», в котором нарастают и изменяются мнения в онлайн-дискуссии. Кейсом послужило обсуждение на платформе Reddit 27-й Рамочной конференции ООН 2022 г. по изменению климата. Метод сочетает три элемента: выявление тем дискуссии, определение в них точек бифуркации (ветвления) и суммаризацию высказываний в рамках «ветвей». Это позволяет одновременно оценить тематический разброс «ветвей» и «мутацию» мнения в них. Метод сочетает пошаговое тематическое моделирование на основе BERTopic и абстрактивную суммаризацию на базе Pegasus, позволяя одновременный мэппинг хода обсуждения и мнений пользователей в «свернутом», «развернутом» и полярном виде на основе суммаризации разной длины.
    Ключевые слова: кумулятивная делиберация, онлайн-дискуссия, тематическое моделирование, абстрактивная суммаризация, BERT, Reddit, COP27
    DOI: 10.55959/msu.vestnik.journ.5.2025.179208
    Бодрунова С.С., Блеканов И. С., Тарасов Н. А. 179
  • «Оценка релевантности идентификации текстов об эмиграции большими языковыми моделями для мониторинга социальных медиа»

    Актуальность постановки заявленной темы связана с дефицитом методологических экспериментов, фокусирующихся на оценке эвристики искусственного интеллекта в исследовании цифровых маркеров социальных настроений пользователей. В статье анализируются профильные и смежные исследования, измеряющие язык, текст как данные для квалиметрического исследования, особое внимание уделено опыту исследователей, оценивающих репрезентацию цифровых маркеров гражданских установок пользователей социальных медиа. Замысел исследования состоит в оценке релевантности массивов, выгружаемых и сегментируемых нейросетью – языковой моделью LSTM, используемой сервисом «Медиалогия» с помощью специально обоснованных поисковых запросов, и анализе возможных ограничений нейросети в идентификации релевантного контента. В качестве методов сбора и анализа данных обосновываются когнитивное картирование (как предварительный этап исследования для выявления поисковых запросов), социально-медийный анализ с использованием сервиса «Медиалогия», ручной анализ репрезентативной выборочной совокупности выгруженного массива для оценки релевантности автоматически аккумулированного контента. Показаны типичные ошибки в создании поисковых запросов и способы преодоления их в обосновании лингвомаркеров для дальнейшего использования нейросети в ходе выгрузки релевантного датасета. Выявляется соотношение адекватности проведенной языковой моделью идентификации типов контекстов и направленности аккумулированных документов, делается предположение о причинах большей или меньшей релевантности сообщений, выгруженных сервисом.
    Ключевые слова: социальные медиа, цифровая коммуникация, социальномедийный анализ, когнитивное картирование, нейросети, большие языковые модели, методический эксперимент
    DOI: 10.55959/msu.vestnik.journ.5.2025.209232
    Домбровская А.Ю., Бродовская Е.В. 209
  • «Распознавание фальшивых новостей большими языковыми моделями»

    Статья основана на результатах исследования способности больших языковых моделей (LLM-моделей) различать достоверные и фальшивые новости. Специализированные организации способны затратить существенное количество ресурсов и провести доскональную проверку достоверности новости, однако читатели не всегда обладают столь мощными инструментами и оценивают степень  достоверности исходя из своего опыта, мнения социального окружения и – в последнее время – результатов проверки новостей с помощью доступных читателям LLM-моделей. В результате исследования обнаружилось, что достоверные новости почти всегда верно идентифицируются LLM-моделями, а в идентификации фальшивых новостей ошибки встречаются довольно часто. Было уделено внимание и способности LLMмоделей корректировать фальшивые новости для придания им большей достоверности.
    Ключевые слова: искусственный интеллект, большие языковые модели, фальшивые новости, проверка достоверности
    DOI: 10.55959/msu.vestnik.journ.5.2025.233247
    Леонова Ю. С., Федянин Д.Н., Чхартишвили А.Г. 233