Искусственный интеллект в медиасфере: направления исследования, профессиональные противоречия и новые риски
Скачать статьюдоктор политических наук, профессор кафедры медиаменеджмента массовых коммуникаций, Институт «Высшая школа журналистики и массовых коммуникаций», Санкт-Петербургский государственный университет, г. Санкт-Петербург, Россия; ORCID 0000-0003-0740-561X
e-mail: s.bodrunova@spbu.ruдоктор политических наук, профессор кафедры цифровых медиакоммуникаций, Институт «Высшая школа журналистики и массовых коммуникаций», Санкт-Петербургский государственный университет, г. Санкт-Петербург, Россия; ORCID 0000-0002-9146-1712
e-mail: k.nigmatu lina@spbu.ruРаздел: Искусственный интеллект в исследованиях медиа и коммуникации
Редакторы номера сопоставляют ключевые направления международных исследований искусственного интеллекта с российским исследовательским контекстом. Темами, которые объединяют исследователей всего мира, можно считать в 2025 г. следующие: теории внедрения ИИ в коммуникативную практику и их критика; деонтология использования ИИ в журналистике и социальной коммуникации; практика создания ИИ-контента в федеральных и региональных медиа; ИИ в соцсетях и мессенджерах; визуальный медиаконтент и ИИ; восприятие ИИ и ИИ-новостей в медиаиндустрии и медийной аудитории – от надежд до страхов и противостояния; политика государства, платформ, медиакомпаний в области использования ИИ в коммуникации; машинное обучение, малые и большие языковые модели в анализе медиаконтента; распознавание эмоций, иронии, вредоносного контента на основе машинного обучения; ИИ в аналитике фейковых новостей и дезинформации. Ключевыми направлениями дальнейших исследований названы формирование гибридных моделей взаимодействия человека и ИИ, разработка регламентов и этических кодексов применения нейросетей в журналистике, анализ неравномерности цифровой трансформации региональных медиа, исследование когнитивных эффектов и профессиональной адаптации журналистов, общественно-политические и технологические параметры развития новой социальной среды и ее общественного регулирования.
DOI: 10.55959/msu.vestnik.journ.5.2025.322В последние годы система и функционирование медиа во всем мире, включая Россию, переживают новую волну трансформации, и эта волна связана с развитием и внедрением технологий на базе искусственного интеллекта. Его влияние многообразно; оно порождает как надежды, так и опасения, связанные с «дивным новым миром» «не-человеческих» акторов социальной коммуникации и ее изучения.
Во-первых, генеративный ИИ на глазах обновляет журналистику: меняет практики и качество подготовки контента на уровне редакций и отдельных журналистов, используется в редакционной аналитике, участвует в фактчекинге, становится объектом дискуссии об этике и праксисе в журналистском сообществе. Внедрение ИИ вызывает в журналистской среде в том числе «новый луддизм» – опасения о массовой потере работы в сфере производства новостей, страх необходимости повышенного контроля текста, неясности в распределении ответственности за ошибки ИИ. Уже очевидны разрывы в осознании редакционных ролей ИИ между медиаменеджментом и работниками редакций, журналистикой и аудиторией, учеными и собственниками медиа. При этом многие страхи порождены в том числе тем, как мало исследованы – и с теоретической, и с индустриальной стороны – последствия внедрения ИИ в работу медиаорганизаций.
Во-вторых, более широкая социальная коммуникация: общение в соцсетях и мессенджерах, информационный поиск, использование рекомендательных систем и «умных» интерфейсов – все больше «ИИ-зируется». Алгоритмический гейткипинг, перешедший в ИИ-фазу, также создает перемены и угрозы социетального масштаба, мало обсуждаемые пока в российской публичной сфере и науке. Это и алгоритмическая «подкрутка» повестки дня вкупе с растущим неравенством в доступе к влиянию на нее, и ускоренное распространение вредоносного контента (содержащего примеры групповой ненависти, фейковую информацию, призывы к насилию и т. д.), и усложнение индивидуальных паттернов медиапотребления, ведущее к инкапсуляции индивидуальных «фильтрмиров» вместо создания общего пространства распространения информации.
В-третьих, искусственный интеллект многие годы используется для аналитики медиатекстов и развития новых методов медиаисследований. Аналитический ИИ, в том числе большие и малые языковые модели (LLMs, SLMs) и архитектуры машинного обучения (Transformer, BERT и др.), применяется отечественными научными коллективами для распознавания структурных характеристик социальной коммуникации, общественного мнения, эмоционального наполнения онлайн-дискуссий, динамики социальных конфликтов, рискового и вредного контента, обсуждения ключевых проблем здоровья. Однако российская наука о взаимодействии ИИ и медиа все еще не получила должной институционализации, что мешает развитию междисциплинарных связей и прорывному изучению современной коммуникации.
Предлагаемый спецвыпуск журнала призван частично закрыть описанные лакуны и стимулировать научную дискуссию вокруг проблематики ИИ и медиакоммуникации в России. Мы надеемся, что собранные в номере исследования российских ученых помогут выстраивать целостную картину эволюции научного взгляда на роль ИИ в медиа: от аналитических и визуальных экспериментов до его когнитивного, социологического, этического измерений.
Темы, которые сегодня кажутся актуальными для российской и глобальной науки, были обозначены нами для будущих авторов статей в начале 2025 г. Это:
– теории внедрения ИИ в коммуникативную практику и их критика;
– деонтология использования ИИ в журналистике и социальной коммуникации;
– практика создания ИИ-контента в федеральных и региональных медиа; ИИ в соцсетях и мессенджерах; визуальный медиаконтент и ИИ;
– восприятие ИИ и ИИ-новостей в медиаиндустрии и медий-ной аудитории: от надежд до страхов и противостояния;
– политика государства, платформ, медиакомпаний в области использования ИИ в коммуникации;
– машинное обучение, малые и большие языковые модели в анализе медиаконтента; распознавание эмоций, иронии, вредоносного контента на основе машинного обучения;
– ИИ в аналитике фейковых новостей и дезинформации.
К концу 2025 г. можно сказать, что академическое сообщество демонстрирует активное развитие теоретических подходов к внедрению искусственного интеллекта в коммуникативные практики. Можно отметить противоречивое отношение к теоретическим основам этого процесса, являются междисциплинарными и отражают текущую практику решения вызовов в области ИИ и коммуникации в широком смысле.
Чтобы создать для русскоязычного поля изучения ИИ в медиа точку отсчета, мы в стиле «веселой науки» нового поколения подготовили обзор 67 англоязычных научных публикаций 2025 г. по тематике спецвыпуска… с помощью нейро-улучшенного поисковика Perplexity от Google. Что машина скажет о том, как ее изучают?
ИИ в журналистике: расширение применения и деонтология. Машинный анализ показал, что даже в научных текстах доля практических вопросов оказывается намного выше, чем доля возможной концептуализации полученных результатов. В (достаточно редких) теоретических работах основное внимание уделяется искажениям и предвзятости ИИ. Концептуальные исследования в том числе отмечают, что западные модели искусственного интеллекта демонстрируют серьезные ограничения при интерпретации незападных коммуникативных паттернов, что приводит к культурным смещениям и необходимости переосмысления универсализма алгоритмических систем (Vindigni, 2025). Отметим, что вопросы предвзятости волнуют и российских ученых, но комплексных исследований в 2025 г. не было опубликовано. В других случаях применяется теория управления конфиденциальностью коммуникации, используемая для анализа поведения молодых цифровых граждан при использовании ИИ-технологий (Campbell, Joshi, Barthwal, Shouli et al., 2025). Наряду с этим в англоязычных исследованиях звучит критика существующих регулятивных рамок развития ИИ. Таким образом, теоретические разработки сосредоточены на трех ключевых категориях — достоверности, прозрачности и осведомленности, трактуемых не только как технологические, но и как онтологические основания современной коммуникации. Ученые подчеркивают необходимость формирования новой нормативности, которая объединяет этическое измерение, правовую прозрачность и личную ответственность в зоне ИИ; это вторит требованиям новой нормативности, высказанным ранее по поводу качества онлайн-делиберации (Бодрунова, 2023).
В том числе поэтому особое внимание уделяется вопросам этики. Ученые отмечают растущую роль индивидуальной профессиональной ответственности журналистов и медиапрактиков, развитие этических кодексов и использование ИИ-детекторов в медиапространстве. На этом фоне новостные организации и исследователи разрабатывают этические рамки, направленные на баланс между инновациями и журналистской честностью. Из обзора видно, что этические вопросы применения ИИ в коммуникации являются результатом практической проверки теоретических принципов профессионального сообщества, формируя основу для устойчивой нормативности медиа будущего (Samson, 2025).
В 2025 г. исследования фиксируют значительное расширение спектра реального применения ИИ в журналистике. Генеративные технологии радикально трансформируют производство контента – от автоматизации рутинных задач до персонализации и анализа больших массивов данных. Эти же технологии применяются для создания коротких форм контента: финансовых новостей, спортивных сводок, оперативных заметок, что позволяет производить в 15 раз больше материалов без увеличения штата редакций. При этом большинство исследователей подчеркивают: несмотря на эффективность и масштаб применения, эти решения пока не отвечают на вопрос, как именно внедрение ИИ меняет саму медиасистему и структуру журналистской ответственности. Исследования 2025 г. очерчивают сложную взаимосвязь между теоретическими поисками, этическими нормами и практическим применением ИИ в журналистике. Ученые приходят к выводу, что развитие технологий идет быстрее, чем их философское и социальное осмысление, а потому задача науки — не только фиксировать инновации, но и формировать новые основания для доверия и публичной подотчетности журналистики.
ИИ в смежных сферах: PR и SMM. Параллельно с развитием ИИ в журналистике англоязычные исследования отмечают активное распространение ИИ в смежных сферах медиакоммуникации — в PR, рекламе и маркетинге. Практическая направленность этих работ демонстрирует, как генеративный ИИ становится ключевым инструментом визуальной коммуникации и разработки брендстратегий. Так, в 2025 г. персонализированная графика, создаваемая с помощью нейросетей, становится неотъемлемой частью маркетинговых кампаний, ориентированных на аудиторию социальных сетей. Большие языковые модели интегрируются в процесс разработки креатива, ускоряя поиск идей, копирайтинг и создание изображений (Palys, Krezel, 2025). Научные работы не только показывают спектр доступных инструментов, но и поднимают вопрос о границах автоматизации творческого труда, что делает их важными для понимания динамики современной медиасферы.
Особое внимание исследователей привлекает интеграция ИИ в социальные сети и мессенджеры, которые в 2025 г. становятся одной из самых быстроразвивающихся областей применения искусственного интеллекта. ИИ используется для интеллектуального создания контента, автоматической генерации идей и прогнозирования трендов. Алгоритмы анализируют популярные темы, контент конкурентов и интересы аудитории, предлагая новые форматы публикаций. Эти процессы становятся неотъемлемой частью стратегического управления коммуникацией, а также объектом наблюдения со стороны исследователей, фиксирующих новую модель взаимодействия человека и машины в социальных медиа (Palys, Krezel, 2025). Конкретизируя их, авторы описывают мультимодальные системы модерации контента. В таких системах используются сверточные нейронные сети для анализа изображений и трансформеры для понимания текста; так создаются гибридные решения, в том числе для обеспечения безопасности онлайнпространства (Kumar, Gowda, Charishma, Darshan et al., 2025).
ИИ и медиааудитория: коммерческое повышение качества и политическая проблематизация. В ряде англоязычных публикаций также анализируется влияние контента, созданного ИИ (AI-Generated Content, AIGC), на поведение потребителей в социальных сетях. С опорой на бихевиоральные модели стимула – реакции показано, что такие характеристики, как развлекательность, интерактивность и визуальная привлекательность, напрямую усиливают восприятие ценности контента и доверия к нему (Luo, Zhang, Du, 2025). Эти результаты согласуются с другими международными исследованиями, демонстрирующими, как ИИ повышает эффективность SMM-кампаний, формируя новые стандарты коммуникационного дизайна. Исследователи также рассматривают технологии инклюзии — например, системы, позволяющие слабовидящим пользователям взаимодействовать с визуальными соцсетями (Chi, Hsu, Hung, Hsu, 2025).
Не менее значимы работы, посвященные AI-модерации, которая рассматривается как инструмент противодействия фейковым новостям и дезинформации. Ученые из разных стран подчеркивают, что сочетание обработки естественного языка, верификации визуальных данных и предиктивного моделирования (использование исторических данных и статистических методов, включая машинное обучение, для построения моделей, предсказывающих будущие события) позволяет повышать уровень достоверности контента. Наряду с этим развивается направление эмоциональной аналитики: анализ выражений лиц, поз, изображений и контекстов помогает выявлять депрессивные состояния и эмоциональные паттерны пользователей. Также активно исследуются системы детекции оскорбительных мемов с применением технологий глубокого обучения (Kiruthika, Santhosh, Santhosh, Surya et al., 2025). Параллельно формируется новое измерение коммуникационного взаимодействия — ИИ-агенты в социальных сетях. В англоязычных работах 2025 г. они описываются как «новая линия фронта» цифровых коммуникаций: интеллектуальные системы, способные к непрерывному круглосуточному взаимодействию, персонализированным ответам и даже кризисному менеджменту. В совокупности эти результаты фиксируют, какие именно процессы в социальных медиа оказываются наиболее востребованными для автоматизации, и подчеркивают переход ИИ от инструментального уровня к инфраструктурному.
Также для международных исследований актуальной проблематикой становятся изменения в восприятии ИИ аудиторией и индустрией. Например, молодежь в Европе все активнее использует ИИ для потребления новостей. При этом аудитория отмечает позитивные стороны — удешевление и повышение актуальности контента, но выражает обеспокоенность падением прозрачности и доверия. Пользователи готовы принимать вспомогательные функции ИИ: автоматическую суммаризацию новостей (краткое изложение), перевод и рекомендации, – но проявляют настороженность к полному замещению журналистов. Аналогичные тенденции отмечаются и в сфере профессионального медиаменеджмента. Цифровые лидеры выражают уверенность в будущем журналистики, но указывают на угрозы политической поляризации и падения охватов. Эти мнения подкрепляются систематическим обзором исследований осведомленности об ИИ (2019–2025), который выявляет существенные пробелы в знаниях и осознании технологий у широкой аудитории (Zhu, Wan, Wan, 2025). Таким образом, доверие и информированность становятся центральными факторами культурного восприятия ИИ в медиа. В работах особое внимание уделяется феномену «синтетических медиа» — ИИ-генерируемым изображениям, аудио и видео, способным влиять на общественное мнение. На этом фоне представители медиаиндустрии также обращаются к политическим и институциональным аспектам регулирования ИИ. В работах анализируется политика государств, направленная на снятие регулятивных барьеров и продвижение инноваций в сфере ИИ, а также на укрепление международной безопасности.
Генеративный ИИ в медиааналитике и изучении коммуникации: приближение к системной социальной интеграции. Англоязычные работы 2025 г. демонстрируют стремительное развитие технологий машинного обучения и больших языковых моделей, которые становятся неотъемлемой частью анализа медиаконтента. Так, в статьях анализируется сравнительная эффективность краудсорсаннотаций и языковых моделей при интерпретации политических сообщений в социальных сетях. Результаты показывают, что краудсорсинг по-прежнему обеспечивает более высокие показатели качества, однако новейшие версии GPT-4 API демонстрируют все меньший разрыв и сопоставимую точность (Stromer-Galley, McKernan, Zaman, Maganur et al., 2025). Это указывает на то, что машинные модели постепенно приближаются к человеческому уровню контент-анализа.
Другие англоязычные исследования обращаются к медицинским и поведенческим аспектам анализа данных, например, к обнаружению признаков психических расстройств на основе активности пользователей в социальных сетях (Sruneethi, Sharmila, 2025). Даже языковая эволюция — например, изменение индонезийского интернет-языка под воздействием ИИ — становится предметом исследовательского интереса (Santoso, Rawat, Ratri, Danang, 2025).
Развитие технологий суммаризации (создание краткого изложения) текста демонстрирует, что большие языковые модели не только повышают точность, но и качественно меняют сам подход к изложению информации. Сравнение между LLM и кодировщиками-людьми подтверждает: GPT-4 и аналогичные модели способны не только повторять, но и систематизировать субъективные паттерны анализа, что делает их ценным инструментом для анализа медиаконтента (Bojić, Zagovora, Zelenkauskaite, Vuković et al., 2025). Эти работы показывают, что научное сообщество не только наблюдает за развитием технологий, но и формирует методологию их включения в исследовательские и редакционные процессы.
Еще одно направление англоязычных исследований связано с эмоциональным анализом и распознаванием сложных форм коммуникации. Технологии понимания иронии, сарказма и вредоносного контента демонстрируют значительный прогресс (Yi, Xia, Long, 2025). Многозадачные исследования вредоносного контента в мемах выявляют, как большие языковые модели справляются с задачами обнаружения кибербуллинга (Kumar, Sthanusubramoniani, Gupta, Nair et al., 2025). В то же время более ранние исследования текстового анализа эмоций показывают, что ИИ может с высокой точностью классифицировать эмоциональные состояния пользователей (Machová, Szabóova, Paralič, Mičko, 2025). ИИ становится посредником не только в передаче информации, но и в интерпретации эмоциональных слоев коммуникации.
Не менее значительным направлением остаются исследования фейковых новостей и дезинформации — одной из центральных тем 2025 г. Англоязычные публикации показывают, как модели машинного и глубокого обучения применяются для автоматического выявления ложных нарративов и их сдерживания через обработку естественного языка, анализ изображений и предиктивное моделирование. Актуальные разработки включают веб-браузерные LLM, способные анализировать профили пользователей в соцсетях и предсказывать демографические характеристики с высокой точностью. Для борьбы с дезинформацией создаются новые корпусы данных, включающие реалистичные симуляции новостных статей и постов, помеченных по степени вероятности ИИ-генерации. Другие работы используют анализ тональности и настроений для определения вероятности недостоверной информации в текстах. Таким образом, борьба с дезинформацией становится не только технической, но и социальногуманитарной задачей, в которой ИИ выступает элементом нового уровня медиаконтроля.
Совокупность англоязычных исследований 2025 г., охватывающих теоретические, этические, практические и технологические аспекты внедрения искусственного интеллекта в медиа, демонстрирует важный глобальный сдвиг. Во-первых, ИИ становится предметом не только инженерных, но и культурных, философских и правовых размышлений. Во-вторых, эти работы показывают взаимосвязанность всех уровней внедрения ИИ в медиатизированное общество — от правительственных стратегий и этических рамок до анализа эмоций и восприятия пользователем.
Теоретические подходы формируют новое понимание коммуникации как среды доверия и прозрачности, а практические исследования подтверждают, что ИИ уже стал неотъемлемым инструментом журналистики, маркетинга и социальных сетей. Этические и правовые разработки пытаются осмыслить основу для ответственного использования технологий, тогда как достижения в области машинного обучения и больших языковых моделей открывают возможности для глубинного анализа медиаконтента, ранее недоступного человеку.
Таким образом, результаты англоязычных исследований ученых разных стран, а также индустриальные отчеты свидетельствуют о том, что ИИ в медиа нельзя рассматривать лишь как инструмент автоматизации. Он становится новым метаязыком цифровой эпохи — посредником между данными, смыслом и восприятием. Понимание этих процессов на уровне теории и практики позволяет не только оценить влияние ИИ на коммуникационные системы, но и сформировать основы для более справедливого, прозрачного и гуманистичного медиабудущего.
За пределами Perplexity: слепые зоны обзора и критические проблемы развития ИИ сегодня. Тем не менее можно выделить и лакуны проблематизации ИИ в медиатизированном обществе. В основном они связаны с осмыслением роли ИИ как актора и отдельного измерения публичной сферы и общественного диалога. Так, пока не обнаруживается больших межстрановых исследований влияния ИИ на понимание и реализацию журналистских ролей, глубинную трансформацию профессиональной культуры журналиста, принятие решений на основе публичной дискуссии. Не проблематизируется и снижение разнообразия журналистской стилистики при переходе внедрения систем генерации контента на инфраструктурный уровень – ни в микрорегиональной, ни в национальной, ни в кросс-национальной перспективе. Стандартизация новостного потока, отказ от фигуры журналиста как уникального носителя профессиональной деонтологии и центрального элемента инфраструктуры медиасистемы, перенос на ИИ-письмо стандартов качества медиаконтента и их сложное взаимодействие с доверием аудитории пока концептуализируются и изучаются недостаточно, хотя уже показано, что гибридные формы авторства (журналист + ИИ) вызывают наибольшее доверие читателей (Opdahl, Tessem, Dang-Nguyen, Motta et al., 2023). В целом пока мало осознан переход к ИИ основной инфраструктурной нагрузки в медиаиндустрии, а также политические и культурные последствия такого перехода.
Еще одна важная лакуна в обзоре от Perplexity (и в целом в текущих исследованиях ИИ) – борьба онлайн-платформ со сбором больших массивов текстовых и поведенческих данных для научных целей и проблема критически снижающихся возможностей ученых по анализу дискуссионных паттернов и поведения пользователей. Резкое обострение этой проблемы привело к множественным экспериментам в разных странах по симуляции динамики формирования общественного мнения на синтетических данных – наборах имитационных профилей пользователей, их поведения и складывающихся мнений, созданных машиной. Результаты этих экспериментов пока малоутешительны по многим причинам: это и резкое упрощение сложности дискуссии в силу моделирования на основе предзаданных аспектов анализа и прокси, и новые типы искажений, задаваемые машиной (например, выбор «нейтрального пользователя» и моделирование дискуссии «вокруг» него, чего не бывает в реальных обсуждениях), и предвзятость машины по поводу понимания поляризации пользователей, и низкое качество метрик, не подходящих для симулятивного моделирования (Akinfiev, Bodrunova, 2025). В итоге исследователи оказываются между Сциллой отсутствия данных, их крайней дороговизны при покупке у онлайн-платформ и отсутствием в приобретенных датасетах нужных ученым параметров – и Харибдой работы с синтетическими данными, которые критически оторваны от реальности и пока не вызывают доверия ни на одном из этапов симуляции. Недооценка этой проблемы грозит еще более серьезными последствиями в виде расслоения научного и индустриального медиааналитического сообщества на «богатых» и «бедных» относительно доступа к данным; монополизмом платформ на исследование коммуникативного поведения и продажу этого знания избранным публичным акторам; использованием данных для целевого прогнозирования и изменения электорального и покупательского поведения без ведома общества.
Российский взгляд на ИИ в медиасфере: структура спецвыпускаПредставленный вашему вниманию спецвыпуск во многом тематически коррелирует с найденными в зарубежных публикациях результатами. Мы разделили выпуск на следующие тематические блоки.
ИИ в медиасистеме: инфраструктура и журналистские практики. Российские исследователи не отстают от мирового потока ИИаналитики в осознании «инфраструктурного перехода» от ИИ как инструмента к ИИ как новому измерению медиасистемы на разных ее уровнях. Так, в работе С. Вартанова и А. Тышецкой ИИ рассматривается уже на уровне институциональной экосистемы. Исследователи показывают, что искусственный интеллект становится системообразующим элементом медиарынка, создавая новые типы субъектности. Традиционные СМИ утрачивают монополию на производство и распространение информации: ведущую роль занимают алгоритмы, объединяющие платформы, пользователей и рекламодателей в замкнутые экосистемы. Внимание аудитории становится главным ресурсом, а данные пользователей — новой валютой цифрового мира. В этом контексте ИИ перестает быть вспомогательным инструментом и превращается в полноправного участника коммуникации.
Параллельно развиваются исследования, фокусирующиеся на изменении визуального языка журналистики. Граница между художественным приемом и манипуляцией оказывается зыбкой. Это подтверждает работа С. Давыдова, Н. Матвеевой и А. Сапоновой, посвященная феномену дипфейков. Авторы рассматривают синтетические изображения и видео как новую социальную угрозу, подрывающую доверие к информации и институтам власти. На основании опроса экспертов сделан вывод, что главным механизмом противодействия должна стать не цензура, а развитие культуры цифровой гигиены — способности пользователя критически воспринимать визуальный контент и проверять его источники. ИИ одновременно открывает творческие возможности и порождает этические риски. Он становится не только инструментом визуального высказывания, но и фактором медиаполитической стабильности.
Еще одна линия исследований, сосредоточенная на применении ИИ в современной медиакоммуникационной практике, показывает, что машинные алгоритмы пока не заменяют человеческую интерпретацию. Такой вывод содержится в эмпирическом исследовании К. Зуйкиной и Д. Разумовой, которые проанализировали внедрение ИИ в российских редакциях. Их данные свидетельствуют о том, что технологии пока используются преимущественно для рутинных задач — транскрипции, поиска данных, рерайта. Отношение журналистов к ним двойственное: с одной стороны, ИИ облегчает повседневный труд, с другой — вызывает тревогу, связанную с риском унификации контента и потери авторского стиля. При этом именно журналисты, а не менеджеры чаще выступают инициаторами экспериментов, что свидетельствует о внутренней профессиональной динамике отрасли.
На уровне индивидуального опыта взаимодействия с ИИ выделяется работа Н. Павлушкиной и А. Литвиновой, посвященная когнитивной нагрузке журналиста. Их квазиэксперимент показал, что наибольшие трудности вызывает формулировка запросов (промптов) и постоянный контроль за результатами генерации. Журналисты вынуждены совмещать роли оператора, редактора и автора, что требует новых навыков когнитивного менеджмента. ИИ, таким образом, становится не просто инструментом, а соавтором, взаимодействие с которым требует выработки ментальной устойчивости и способности к критической проверке машинных решений.
Эти выводы согласуются с общей тенденцией: цифровая журналистика все больше превращается в совместную когнитивную систему «человек+машина», где эффективность определяется не только уровнем технологии, но и способностью человека осваивать ее психологические и этические аспекты.
Региональное измерение: неравномерная цифровая модернизация. Особое место в исследовательской повестке занимает региональный аспект. Работы О. Лепилкиной и Л. Соколовой, а также К. Нигматуллиной, Р. Касымова и А. Полякова показывают, что внедрение ИИ в регионах идет крайне неравномерно. В Ставропольском крае и других субъектах России наблюдается противоречие между публичной риторикой цифровизации и реальной готовностью редакций. Большие медиакомпании внедряют ИИ активно, тогда как малые редакции испытывают дефицит кадров, ресурсов и компетенций. Возникает новое цифровое неравенство — не только технологическое, но и когнитивное: между журналистами, владеющими ИИ-инструментами, и теми, кто не имеет доступа к ним.
Исследователи отмечают, что на региональном уровне искусственный интеллект становится не столько технологическим, сколько социально-психологическим вызовом. Он выявляет слабые места профессиональной подготовки, организационной культуры и институциональной поддержки журналистов. Без целенаправленных образовательных программ и обмена опытом региональные редакции рискуют оказаться на периферии цифровой модернизации.
ИИ в исследованиях коммуникации: аналитический и генеративный ИИ и оценка его эффективности. Еще один блок статей в спецвыпуске предлагает видение ИИ как методологического базиса изучения общественного мнения и коммуникационных процессов. Работа С. Бодруновой, И. Блеканова и Н. Тарасова предложила инновационную методику «дерево мнений» для динамического картирования онлайн-дискуссий с помощью нейросетевого тематического моделирования и абстрактивной суммаризации. Эта модель позволяет наблюдать эволюцию позиций участников, фиксировать точки согласия и разрыва, визуализируя процесс накопления и изменения смыслов в сетевом диалоге. Тем самым искусственный интеллект превращается не просто в вычислительный алгоритм, а в аналитического посредника, способного моделировать структуру общественной рефлексии.
Работа А. Домбровской и Е. Бродовской посвящена оценке эффективности языковых моделей LSTM в выявлении эмиграционных настроений. Результаты показали, что модели хорошо улавливают эмоциональную окраску текстов, но ошибаются при интерпретации политических и культурных контекстов. Этот пример демонстрирует границы автоматизированного анализа: машинные алгоритмы способны фиксировать структуру данных, но не заменяют человеческую интерпретацию.
Одним из наиболее острых направлений остается проблема достоверности информации. Исследование Д. Федянина, Ю. Леоновой и А. Чхартишвили показало, что большие языковые модели демонстрируют высокую точность при определении правдивых текстов, но часто ошибаются в распознавании ложных. Более того, при попытке «исправить» фейк они нередко делают его еще более убедительным. Это подчеркивает фундаментальное ограничение нейросетей: они оперируют вероятностями языка, но не проверяют факты. Следовательно, ИИ может служить лишь предварительным фильтром, а не конечным арбитром истины.
Работы, включенные в спецвыпуск, показывают, что исследования искусственного интеллекта в медиа движутся от описания технологий к осмыслению их социальных, когнитивных и этических последствий. ИИ становится не просто инструментом автоматизации, а структурным элементом медиакультуры, влияющим на формы восприятия новостей, политической коммуникации, общественного доверия. Проблемы нового, стремительно наступающего этапа внедрения искусственного интеллекта в российскую медиасферу – «инфраструктурный поворот», рост ИИ-неравенств, региональные различия, неясные паттерны доверия ИИ-контенту – уже привлекли внимание исследователей. При этом спецвыпуск, сигнализирующий о них, одновременно показывает, насколько более масштабными должны быть такие исследования как в России, так и за рубежом.
На наш взгляд, для научного сообщества ключевыми направлениями дальнейших исследований становится формирование гибридных моделей взаимодействия человека и ИИ, в том числе в восприятии контента аудиторией, потреблении современных интерфейсов, изучении коммуникации. Не менее важными «точками пересборки» медиаиндустрии станут разработка регламентов и этических кодексов применения нейросетей в журналистике, анализ неравномерности цифровой трансформации региональных медиа, исследование когнитивных эффектов и профессиональной адаптации журналистов. Превращение ИИ в новое измерение медийной и социальной реальности будет требовать от исследователей максимальной сосредоточенности на общественно-политических и технологических (от сбора данных до их правомерного использования на благо общества) параметрах развития новой социальной среды и ее общественного регулирования.
Библиография
Бодрунова С. С. Кумулятивная делиберация: новая нормативность в изучении публичных сфер онлайн // Вестник Московского университета. Серия 10. Журналистика. 2023. №1. С. 87–122. DOI: 10.30547/vestnik.journ.1.2023.87122
Akinfiev I., Bodrunova S. S. (2025) LLMs as Judgment Oracles: A Framework for Tracking Conversational Opinion Dynamics. In Proceedings of the International Conference on Artificial Intelligence and Networks (ICAIN’2025). Lecture Notes in Networks and Systems series. Dubai, UAE: Springer [in print].
Bojić L., Zagovora O., Zelenkauskaite A., Vuković V., Čabarkapa M., Veseljević Jerković S., Jovančević A. (2025) Comparing large Language models and human annotators in latent content analysis of sentiment, political leaning, emotional intensity and sarcasm. Scientific reports 15 (1): 11477. DOI: 10.1038/s41598-025-96508-3.
Campbell M., Joshi S., Barthwal A., Shouli A., Shrestha A. K. (2025) Applying Communication Privacy Management Theory to Youth Privacy Management in AI Contexts. In Proceedings of the IEEE 4th International Conference on AI in Cybersecurity (ICAIC). Houston, USA. Pp. 1–10. DOI: 10.1109/ICAIC63015.2025.10848639.
Chi C.-N., Hsu J.-L., Hung C.-H., Hsu C.-H., Tan Phuong T. N., Juan W.-C. (2025) InstaSight: Leveraging AI to See Beyond Sight for Blind Users on Social Media. In Proceedings of the 43th IEEE International Conference on Consumer Electronics (ICCE’2025). Las Vegas, USA. Pp. 1–2. DOI: 10.1109/ICCE63647.2025.10930208.
Kiruthika R., Santhosh G., Santhosh R., Surya S. B., Thamizh Amudhan K. (2025) AI-Powered System for Detecting Offensive Meme Texts on Social Media. In Proceedings of the 3rd International Conference on Artificial Intelligence and Machine Learning Applications Theme: Healthcare and Internet of Things (AIMLA). Namakkal, India. Pp. 1–5. DOI: 10.1109/AIMLA63829.2025.11040537
Kumar V C., Gowda C., Charishma G., Darshan B., Yadav D L. P., Vidya (Ms). (2025) AI Powered Multimodal Content Moderation for Online Safety in Social Media Platforms. In Proceedings of the 6th International Conference on Inventive Research in Computing Applications (ICIRCA). Coimbatore, India. Pp. 1748–1758. DOI: 10.1109/ICIRCA65293.2025.11089733
Kumar I. A. K., Sthanusubramoniani G., Gupta D., Nair A. R., Alotaibi Y. A., Zakariah M. (2025) Multi-task detection of harmful content in code-mixed meme captions using large language models with zero-shot, few-shot, and fine-tuning approaches. Egyptian Informatics Journal 30: 100683. DOI: 10.1016/j.eij.2025.100683
Luo J., Zhang K., Du J. (2025) Exploring the Impact Mechanism of AIGC-Driven Social Media Marketing Content on Consumer Decision-Making Behavior: A Two-Stage Hybrid Approach. IEEE Access 13: 147615–147632. DOI: 10.1109/ACCESS.2025.3600564.
Machová K., Szabóova M., Paralič J., Mičko J. (2023) Detection of emotion by text analysis using machine learning. Frontiers in Psychology 14: 1190326. DOI: 10.3389/fpsyg.2023.1190326.
Opdahl, A. L., Tessem, B., Dang-Nguyen, D. T., Motta, E., Setty, V., Throndsen, E., et al. (2023) Trustworthy journalism through AI. Data & Knowledge Engineering 146: 102182. DOI: 10.1016/j.datak.2023.102182.
Palys M., Krezel J. (2025) Exploring AI-Driven Social Media Content Creation Benefits, Barriers, And Good Practices: Experts’ Interviews. Communications of International Proceedings 17: 4542625. DOI: 10.5171/2025.4542625.
Samson O. O. (2025) Ethical frameworks for AI in journalism: Balancing technological innovation and journalistic integrity. World Journal of Advanced Research and Reviews 25 (1): 1342–1351. DOI: 10.30574/wjarr.2025.25.1.0187.
Santoso N. P., Rawat B., Ratri S. R., Danang D., Kumoro D. F., Supriati R., Natalia E. A. (2025) Transformation of Indonesian Language in Social Media Using AI Expert Systems and Machine Learning. International Transactions on Artificial Intelligence 3 (2): 130–139. DOI: 10.33050/italic.v3i2.806.
Sruneethi C., Sharmila K. (2025) Detection and Prediction of Future Mental Disorder from Social Media Data Using Machine Learning Ensemble Learning and Large Language Models. International Journal of Scientific Research in Science and Technology 12 (3): 335–338. DOI: 10.32628/IJSRST2512338.
Stromer-Galley J., McKernan B., Zaman S., Maganur C., Regmi S. (2025) The Efficacy of Large Language Models and Crowd Annotation for Accurate Content Analysis of Political Social Media Messages. Social Science Computer Review 08944393251334977. DOI: 10.1177/08944393251334977.
Vindigni G. (2025). Gender Bias and Cultural Misrepresentation in AI: A Critical Inquiry into Cross-Cultural Communication and Algorithmic Design. European Journal of Applied Science, Engineering and Technology 3 (3): 51–72. DOI: 10.59324/ejaset.2025.3(3).06.
Yi P., Xia Y., Long Y. (2025) Irony Detection, Reasoning and Understanding in Zero-shot Learning. IEEE Transactions on Artificial Intelligence. DOI: 10.1109/tai.2025.3579452
Zhu Y., Wan M. H., Wan H. (2025) Artificial intelligence (AI) awareness (2019–2025): A systematic literature review using the SPAR-4-SLR protocol. Social Sciences & Humanities Open 12: 101870. DOI: 10.1016/j.ssaho.2025.101870.
Как цитировать: Бодрунова С. С., Нигматуллина К. Р. Искусственный интеллект в медиасфере: направления исследования, профессиональные противоречия и новые риски // Вестник Московского университета. Серия 10. Журналистика. 2025. № 5. С. 3–22. DOI: 10.55959/msu.vestnik.journ.5.2025.322
Поступила в редакцию 17.10.2025

