Использование технологий искусственного интеллекта в российских медиа и журналистике

Скачать статью
Давыдов С. Г.

кандидат философских наук, доцент департамента социологии факультета социальных наук, Национальный исследовательский университет «Высшая школа экономики», Москва, Россия; ORCID 0000-0001-8455-9976

e-mail: sdavydov@hse.ru
Замков А.В.

научный сотрудник проблемной НИЛ комплексного изучения актуальных проблем, факультет журналистики МГУ имени М.В. Ломоносова, г. Москва, Россия; ORCID 0000-0002-7968-1616

e-mail: zamkov.andrey@mail.ru
Крашенинникова М.А.

кандидат филологических наук, доцент кафедры новых медиа и теории коммуникации, факультет журналистики МГУ имени М. В. Ломоносова, г. Москва, Россия; ORCID 0000-0003-3884-0112

e-mail: mashagarnova@gmail.com
Лукина М.М.

кандидат филологических наук, доцент кафедры новых медиа и теории коммуникации, факультет журналистики МГУ имени М. В. Ломоносова, г. Москва, Россия; ORCID 0000-0001-5866-5636

e-mail: maria_lukina@list.ru

Раздел: Новые медиа

Технологии искусственного интеллекта, активно проникающие в промышленное производство, финансы, медицину, ритейл, телекоммуникации и другие технологически емкие сферы, постепенно становятся неотъемлемой частью функционирования медиаиндустрии. В статье анализируются направления использования технологий искусственного интеллекта (ИИ) в российских медиа и журналистике. Выводы сделаны на основе обобщения мнений участников трех экспертных групп, представляющих академическое, инженерное и медиаиндустриальное сообщества. Технологии ИИ активно проникают в индустриальные практики, а экспертное сообщество оценивает потенциал использования этой инновации как весьма перспективный. Ряд отечественных медиакомпаний уже используют компьютерные нейронные сети и машинное обучение, глубокое обучение, генерацию текстов и т. д. Помимо драйверов внедрения ИИ также выделены сопутствующие риски, связанные со злоупотреблением и отсутствием контроля, транспарентности технологических решений, этического нормирования и др.

Ключевые слова: искусственный интеллект, инновации, российские медиа и журналистика, нейронные сети, символический искусственный интеллект
DOI: 10.30547/vestnik.journ.5.2023.321

Введение 

Использование технологий искусственного интеллекта в долгосрочной перспективе становится одним из наиболее актуальных трендов развития медиаиндустрии. По данным исследований Института Рейтер в Оксфордском университете, проникновение искусственного интеллекта в редакционную деятельность крупных зарубежных медиакомпаний уже рассматривается не как «феномен будущего», а как реальные и актуальные практики на разных этапах производственных циклов от сбора информации, фактчекинга и генерации контента до рекомендательных сервисов дистрибуции. Аналитики Института Рейтер констатируют, что системы искусственного интеллекта становятся активным субъектом конкуренции в медиа, а те медиакомпании, которые делают ставку на данные технологии, имеют больше шансов стать индустриальными лидерами (Newman, 2022). 

Консалтинговая компания Gartner фиксирует начальную фазу роста искусственного интеллекта в разных индустриях, включая медиаиндустрию. Эту фазу обычно сопровождают спекулятивные явления импульсного характера: всплеск публичного интереса, подключение источников венчурного финансирования, ажиотажный спрос и пр., известные как явления хайп-цикла, или завышения ожиданий. Компания Gartner характеризуют текущее состояние медийных ИИ-решений на мировом рынке инноваций как движение к пику хайп-цикла1, 2, 3. За сравнительно короткой (несколько лет) «взрывной» фазой хайпа, как правило, следует пологий тренд долгосрочного роста. В терминологии Gartner, этот тренд называется фазой технологической зрелости, траектория которой, как правило, следует S-образной логистической кривой, отражающей общую закономерность угасания интереса к фактору новизны. 

В отчетах Стэнфордского университета «Индекс искусственного интеллекта», Института изучения журналистики Рейтер при Оксфордском университете, а также консалтинговых и аудиторских компаний Deloitte4McKinsey5Accenture6PwCфиксируется начало стадии долгосрочного роста инновации искусственного интеллекта на высокоразвитых рынках медиатехнологий. 

Это, в частности, подтверждается рейтингом Глобального индекса развития ИИ Стэнфордского университета8, составленным на основе многофакторного анализа открытых данных по теме ИИ 29 стран, в том числе РФ (2017 по 2021 гг.). Уровень развития технологий ИИ определяется следующими индикаторами: количеством научных публикаций, цитирования, материалов конференций, базами данных, числом патентов, объемами инвестиций в технологии ИИ, открытием венчурных компаний, индексом найма на работу специалистов по ИИ, проникновением навыков работы с искусственным интеллектом в бизнес. По совокупности этих показателей с 2017 по 2021 гг. Глобальный индекс развития ИИ отводит России 23-е место. 

Институт Reuters Оксфордского университета (Newman, 2022) также усматривает косвенное подтверждение стадии роста ИИинноваций, когда для повышения конкурентоспособности медиакомпании выбирают инновационную стратегию внедрения технологий ИИ, в том числе применяют автоматизированную генерацию текстов и преобразование речи в текст, интеллектуальную поддержку редакционных процессов, персонализированные сервисы дистрибуции, работают с большими данными для мониторинга разных проблемных ситуаций и т. д. По мнению аналитиков Оксфордского университета, системы ИИ претендуют на статус активного субъекта конкуренции в медиа. При этом выражается озабоченность, что применение технологий ИИ может увеличить разрыв между крупными медиакомпаниями и теми изданиями, которые не могут себе позволить долгосрочные инвестиции в инновационные технологии. По данным отчета, большинство опрошенных экспертов считают, что лишь крупные издатели смогут получать выгоду от внедрения технологий ИИ. 

В данной статье обсуждается современное состояние и потенциал внедрения технологий искусственного интеллекта в российских медиа и журналистике в контексте концепции динамики технологических инноваций. Данная исследовательская повестка заметно актуализировалась благодаря активному внедрению в практики общественных коммуникаций, в том числе в медиа и журналистику, нейросетей и чат-ботов, способных вести равноправный диалог с пользователями на естественном языке. Дискуссия об искусственном интеллекте, его возможностях и ограничениях стала особенно активной в 2023 г. в связи с выпуском и внедрением в открытый доступ группы технологий (ChatGPT, Lensa, Midjourney и др.), отличающихся многозадачностью, возможностью использования в разных сферах, транспарентностью, а также доступностью для любого желающего. 

Методика 

Исследование, результаты которого описаны в данной статье, проведено в 2021–2022 гг. В экспертных интервью – одном групповом и 10 индивидуальных – участвовали представители трех групп российских экспертов. На основе анализа экспертных дискурсов – академического, инженерного и медиаиндустриального – сделаны выводы о потенциале инновации искусственного интеллекта в российских медиа и журналистике. 

Авторы столкнулись с терминологическими разночтениями словосочетания «искусственный интеллект» в дискурсах этих сообществ, поэтому решили в качестве отправной точки придерживаться определения искусственного интеллекта, предложенного в «Национальной стратегии развития искусственного интеллекта до 2030 года», которая была утверждена Президентом России в 2019 г.9 В Национальной стратегии искусственный интеллект понимается как «комплекс технологических решений, позволяющий имитировать когнитивные функции человека и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека»10. В ходе исследования использовались и другие понятия, описанные в документе, например технологии искусственного интеллекта, т. е. технологии, «основанные на использовании искусственного интеллекта, включая компьютерное зрение, обработку естественного языка, распознавание и синтез речи, интеллектуальную поддержку принятия решений и перспективные методы искусственного интеллекта»11 и т. д. 

Проектная группа также использовала определение ИИ, полученное в 2019 г. в рамках экспертного опроса РАЭК/НИУ ВШЭ/ Microsoft и не противоречащее приведенному выше: «Cовокупность технологий обработки различных типов данных и информации, в частности способных интерпретировать такие данные, извлекать знания и использовать для достижения определенных целей. Машинное обучение, в свою очередь, определяется как класс методов искусственного интеллекта, которые характеризуются выполнением компьютерными системами специфических задач посредством соотнесения их с ранее выполненными задачами сходного типа без использования установленных в явном виде инструкций»12

Исследование содержит ряд ограничений, которые исключают из его поля музыкальную, книжную и киноиндустрию, а также компьютерные игры, социальные сети, цифровые экосистемы и др. Изучая применяемые в медиа и журналистике технологии искусственного интеллекта, авторы определяют их как вычислительные системы, предназначенные для решения когнитивных задач обработки символьной и числовой информации, в частности текстовой, графической, визуальной, статистической и т. д. 

Взгляд исследователей на проблемы использования технологий искусственного интеллекта в медиа 

Как показал анализ научных источников, дискурс искусственного интеллекта в научной литературе по медиа, журналистике и коммуникациям является весьма проработанным и разнообразным. Отметим истоки теоретических медиаисследований, посвященных использованию информационных технологий в медиа, журналистике и коммуникациях. Они берут начало с таких известных концептов, как computer assisted reporting13 и «цифровизация новостей» (Boczkowski, 2005), и продолжаются в публикациях по автоматизации и алгоритмизации отдельных медийных процессов, например «роботизированный репортер» (Carlson, 2014), «алгоритмическая журналистика» (Dörr, 2015), «автоматизированная журналистика»14, «цифровые медиа» (Вартанова, 2018), «автоматизированные новости» (Diakopoulus, 2019) и т. д. Эти теории обобщают опыт внедрения высоких технологий в медиапрактики, анализируют эффекты и последствия человеко-машинного взаимодействия, в том числе угрозы отдельным лицам и целым сообществам. 

В фокусе других исследований, которые описывают проникновение инновационной технологии искусственного интеллекта, находятся разные объекты, в том числе медиакомпании и их редакционные процессы, медиаконтент, аудитория и дистрибуция, профессиональная журналистика, образование и кадры и т. д. Наиболее популярные темы связаны с анализом технологий естественного языка и машинного обучения, обработкой больших данных и др. 

Среди научных публикаций на эти темы имеются не только традиционные академические статьи, но и такой нестандартный формат, как научный форум (Broussard et al., 2019), по которому можно судить об интенсивности дискуссии в данной области. В серии мнений экспертов-медиаисследователей, включенных в научный форум, приводятся альтернативные взгляды на роль искусственного интеллекта в медиа, коммуникациях и журналистике, делается попытка осмысления этого явления в разных контекстах. Обсуждаются вопросы о том, какие новые функции создаются в медийных профессиях, как технологии искусственного интеллекта помогут управлять знаниями, осуществлять ситуационный анализ. Поднимается вопрос и о том, смогут ли технологии ИИ вписаться в человекоцентричность журналистики, как они будут встроены в профессиональные и корпоративные ценности медиакоммуникаторов и журналистов, удастся ли искусственному интеллекту «привить» чувство социальной справедливости и стандарты этических норм, как изменятся стандарты качества и т. д. При этом все академические эксперты сходятся на том, что потоки информации для публичной сферы станут гибридными, часть из них будет создаваться человеком, часть – машиной. 

В этой статье мы считаем необходимым более подробно проанализировать актуальные публикации двух известных зарубежных академических экспертов – Дж. Павлика (Pavlik, 2023) и Н. Хомски15. Обе публикации были вызваны всплеском интереса к потенциальным возможностям чат-бота ChatGPT фирмы Open AI (США) и в очередной раз актуализировали проблему признания «прав» искусственных субъектов медийной коммуникации. 

Исследователь цифровых технологий в медиа и журналистике Джон Павлик из университета Ратгерс (США) в январе 2023 г. опубликовал эссе в «соавторстве» с программой ChatGPT (Pavlik, 2023). Фактически это эссе является экспериментальным продуктом равноправного диалога двух субъектов коммуникации – человека и системы ИИ, которая создана на основе группы современных технологий обработки естественного языка (NLP). Круг вопросов, которые обсуждал профессор Павлик с ChatGPT, был достаточно широк и касался разных проблемных областей журналистики, в том числе природы искусственного интеллекта, человеческой креативности и креативности алгоритмов, например способности производить контент и т. п. Ответы на эти и другие вопросы, заданные профессором, были похожи на имитацию теста Тьюринга. Они были опубликованы в одном из ведущих научных журналов с целью демонстрации потенциальной способности ИИ производить речевой контент, сопоставимый по качеству с авторскими текстами человека. 

Публикация известного лингвиста и философа Ноама Хомского с соавторами отражает более скептическую позицию относительно технологического потенциала искусственного интеллекта. В своем недавнем интервью газете «Нью-Йорк Таймс» он квалифицирует «предполагаемые революционные достижения» в сфере ИИ как вселяющие оптимизм и одновременно озабоченность. Оптимизм потому, что интеллект всегда служил инструментом решения проблем, а озабоченность вызвана опасением, что столь популярная тема ИИ, как машинное обучение, приведет к деградации науки и смещению этических оценок через внедрение в наши технологии принципиально ложных представлений о языке и знании, которые, как известно, служат фундаментальной основой коммуникации, медиа и журналистики. 

По мнению Хомского, все нашумевшие системы ChatGPT (OpenAI), Бард (Гугл) и Сидни (Майкрософт), которые сегодня позиционируются адептами ИИ как «чудо машинного обучения», грубо говоря, опираются на поиск шаблонов в огромных массивах входных данных. В результате такого «обучения» они становятся все более опытными в генерации внешне подобных человеческому языку и суждениям статистически значимых выходных данных. Генеративные системы, по мнению Хомского, можно назвать первыми признаками становления так называемого «общего ИИ», т. е. качественно сопоставимого с человеческим интеллектом, имитирующего признаки инсайта, креативности и др. При этом Хомский оценил горизонт наступления этого события как весьма отдаленную перспективу, на фоне которой громкие заголовки и солидные венчурные инвестиции выглядят как непомерно преувеличенные. По его мнению, если такие механистические системы самообучения, как ChatGPT, продолжат доминирование на рынке интеллектуальных инноваций, то «озарение понимания» так никогда и не наступит. Как бы ни были полезны подобные системы в решении специальных задач узких предметных областей, принцип их действия принципиально отличен от человеческого употребления языка и мышления. 

Позиции российских специалистов 

Академический дискурсИтоги проведенной авторами серии глубинных интервью с представителями российского академического сообщества показали в целом согласованность мнений экспертов в оценке современного состояния исследований и разработок в области ИИ, его технического потенциала и рисков применения в социально-гуманитарной сфере, включая медиасреду. Однако авторы настоящей статьи также фиксируют довольно приличный разброс мнений между индустриальным и академическим дискурсами. В частности, это выражается в критике представителями академического сообщества общественной мистификации технологий искусственного интеллекта на современном этапе. Также опрошенные представители академического сообщества считают, что обыденное представление о сущности технологии ИИ имеет мало общего с тем, что описано в классической научной литературе. В частности, представитель академического сообщества считает, что «все наработки последних лет отличает большая примитивность» и «сегодня ИИ принято называть чуть ли не любое вычислительное устройство, обрабатывающее символьную информацию». С ним согласен и его коллега из академической среды: «Искусственный интеллект — это не то, о чем говорят сейчас <...> искусственный интеллект — это область компьютерный реализации интеллектуальных способностей человека, в силу чего компьютерная система может считаться интеллектуальной тогда и только тогда, когда она реализует действительно некоторые (минимальный набор) интеллектуальные способности человека». С точки зрения академического сообщества, «интеллектуальная» компьютерная система может называться таковой, лишь когда речь идет хотя бы о минимальной имитации функций человеческого мозга. 

Проблему использования ИИ в сфере медиа и коммуникаций представители академического сообщества связывают, прежде всего, с моделированием естественного языка (NL) и необходимостью разработки соответствующих прикладных программ. Относительно недавно благодаря прогрессу в создании мощных аппаратных средств «текст-процессинг» технологии естественного языка (NLT) стали объектом инженерных проектов. Еще одна важная тема, поднимаемая представителями академического сообщества, – противодействие ложным новостям. Так, третий из опрошенных представителей академического сообщества говорит: «Основная проблема, на мой взгляд, и интересная задача – это выявление “фейковых новостей”. Порой серьезные новостные агентства ловятся на эти фейки, тем самым подрывая свою репутацию». Также важной задачей ИИ в медиа эксперт считает использование методов машинного обучения для адаптации новостей под различные категории потребителей. Однако другой эксперт относится к подобной персонализации медиаконтента весьма скептически: «Я хочу знать весь широкий спектр существующих мнений. Я могу соглашаться или не соглашаться, но если я буду знакомиться только с людьми, которые думают так же, как и я, то у меня автоматически сужается собственное пространство, даже для моих собственных размышлений. Я не вижу аргументации противной стороны. Для того чтобы, так сказать, убеждаться, в чем-то убеж-дать, нужно знать, почему люди подругому думают». 

Участвовавшие в настоящем исследовании эксперты разделили NLT-системы на два класса. Первый – символические системы, их архитектура опирается на модели естественного языка, что сближает их с архитектурой интеллектуальных систем. Второй – «бионические» (нейросетевые) модели. Последние требуют статистического обучения на корпусе текстов сверхбольшого объема (порядка сотен гигабайт). Такие модели классифицируют как «большие языковые модели». В практической медийной деятельности находят применение оба типа ИИ. 

Инженерный дискурс. Проведенные авторами статьи глубинные интервью с представителями технологических компаний показали относительную незрелость рынка и недостаток подобного рода специалистов. В числе сдерживающих факторов активного внедрения ИИ в медиасреду эксперты отмечали дефицит квалифицированных кадров с инженерным образованием, отсутствие взаимодействия между медиа, IT-средой и бизнесом, неумение клиента грамотно объяснить свою задачу разработчикам. В частности, один из представителей инженерного сообщества в качестве основного сдерживающего фактора назвал отсутствие тесного взаимодействия между IT и медиа: «Медиа и айтишники далеки друг от друга <...> глобально нет постоянного взаимодействия, которое позволило бы родиться чему-то новому». Однако другой эксперт отметил все возрастающую необходимость подобного взаимодействия: «Произошел колоссальный скачок для индустрии с использованием технологий. 

И здесь есть разные моменты: 1) данных становится больше; 2) повышается открытость. Для журналистов важно это использовать». 

Типовые задачи, по мнению экспертов, могли бы выглядеть следующим образом: автоматический поиск информации, классификация информационных поводов, генерация контента, его адаптация под интересы разной целевой аудитории, рекомендательные системы. Лидерами в применении ИИ в разных отраслях экономики эксперты в основном называли США и Китай. 

Среди успешно внедряющих технологии ИИ в свою работу медиакорпораций были выделены преимущественно известные зарубежные СМИ: Associated Press, New York Times и Financial Times. В частности, другой эксперт из представителей инженерного сообщества первопроходцами с внедрением ИИ в медиасреде называет именно США: «Потому что они одними из первых начали использовать ИИ. Его используют такие крупные медиа, как NY Times, Financial Times и ряд других крупных СМИ. NY Times одними из первых начали использовать, потому что у них контент рассчитан как на продажу, то есть по бесплатной (рекламной) модели, и второе: он рассчитан на продажу подписки». 

Среди российских компаний это РБК, Яндекс, Интерфакс, Группа ВК. При этом группа экспертов, относимая авторами статьи к «инженерной команде», определяет медиасреду как потенциального лидера по применению ИИ-технологий из-за постоянно растущего объема контента. При этом эксперты, работающие в отечественных технологических компаниях, занимающихся ИИ, как правило, ориентированы на интересы своих заказчиков-медиахолдинги и описывают эти технологии как то, «что упрощает жизнь редакции и пользователей, как фактический инструмент для улучшения жизненного цикла новостей». В качестве ближайшей перспективы эксперты указывают на обучение ИИ распознаванию предпочтений пользователя, в том числе и с точки зрения информационного продукта. По мнению одного из экспертов, представляющего крупную IT-компанию, использование ИИ в медиа позволяет журналистам в большей степени сосредотачиваться на творческой работе, отдавая выполнение рутинных функций на откуп алгоритмам. Философия использования ИИ, по ее мнению, состоит именно в помощи человеку, а не в полной его замене роботами. 

Отдельная тема, о которой говорили эксперты, – этика применения технологий ИИ в медиа, коммуникациях и журналистике. В частности, речь шла о возможной дезинформации пользователя, манипуляции контентом и пр. Поэтому, по мнению одного из экспертов, очень важен осторожный и критический подход к новым технологиям, их «умное регулирование». Однако это может показаться затруднительным из-за недостаточно развитых компетенций пользователей, разрозненности регуляторов рынка, отсутствия доверия аудитории к инновациям, технологической непрозрачности, сильного разрыва между лидерами в ИИ-сфере и так называемыми консерваторами. 

Индустриальный дискурс. Как уже было отмечено выше, при проведении данного этапа исследования авторы использовали два формата интервью – групповое экспертное и серию индивидуальных. Такой подход позволил обозначить несколько магистральных аспектов использования технологий ИИ в медиа, а именно: подбор темы, поиск и проверка информации, генерация новостных текстов и заголовков, расшифровка интервью, автоперевод, подбор иллюстраций, написание титров, работа с большими данными, автотегирование, расстановка линков, проверка текста на наличие орфографических, пунктуационных и стилистических погрешностей, подбор бэкграунда, фактчекинг и др. 

Подбор темы, имеющий прямую корреляцию с интересами потенциальной аудитории, – первый такой аспект. В редакциях применяются специальные алгоритмы, помогающие журналистам проанализировать необходимые аудиторные показатели и на их основе выделить вероятные предпочтения пользователей в выборе приоритетных тем. 

Второй важный аспект – поиск и проверка полученной информации. Многие редакции готовы частично «поручить» алгоритмам подобные функции. Третий, самый «острый» и дискуссионный, – генерация новостных текстов и заголовков. Представители индустриального сообщества, участвовавшие в настоящем исследовании, в основном считают, что на современном этапе развития технологий ИИ возможно только ограниченное обращение к алгоритмам в части создания текстов (это связано с качеством, темой, ее сложностью, использованием источников и пр.). В частности, речь шла о том, что «журналисты – люди, которые рассказывают интересные истории, – будут, безусловно, в выигрыше, и их точно никакой машиной не заменишь» (эксперт из медийной индустрии). Один из опрошенных главных редакторов онлайн-медиа считает, что помимо технической помощи ИИ есть сферы, где журналиста заменить довольно сложно: 

«Хорошая и качественная журналистская работа в общественно-политических изданиях во многом делается на основе личных взаимоотношений автора и источников. Для этого нужно входить в доверие, встречаться офлайн. Роботы, конечно, этого всего не могут. Круг их задач пока что довольно сильно ограничен». 

Один из медиаменеджеров, принявших участие в групповом интервью, анализируя опыт внедрения технологий ИИ в новости финансовой сферы, считает этот процесс необходимым: «Генерация контента абсолютно с разной точки зрения для нас – принципиально важная вещь <...> То, что может позволить нам переживать какой-то объем критической информации <...> Ты просто автоматизируешь работу журналиста. То, что раньше делал человек (заглядывал в котировки), теперь делает робот. Люди читают». 

Опрошенные эксперты также считают, что «журналиста-человека» все же необходимо освободить от рутинного функционала и дать ему возможность сосредоточиться преимущественно на творческих задачах. На сегодняшний день ИИ уже внедрен в некоторые рутинные редакционные практики, например в расшифровку интервью, перевод текстов, написание титров, подбор иллюстраций, создание бэкграунда. Особое место занимают данные технологии при работе над материалами, где используются большие данные. По словам другого представителя индустриального сообщества, очень важно «вернуть журналиста к его исходной работе – максимально переложить с него все задачи, кроме работы с материалами и источниками. Такие задачи, как дистрибуция, «обвесы», выбор каналов, рейтинговые системы надо взвалить на плечи ИИ. Мы хотим, чтобы человек писал текст и больше ни о чем не думал». 

При этом пока подобные программы (например, для расшифровки интервью) сложно назвать совершенными. Зачастую журналисту все равно приходится контролировать процесс автоматической расшифровки. 

Автотегирование и расстановка линков на связанные с текстом публикации уже сегодня помогают редакторам существенно экономить время. Также технологии ИИ помогают проверять текст на соответствие нормам языка (в части орфографии, пунктуации, стилистики), подбирают соответствующий тексту бэкграунд. Редакции некоторых СМИ также используют сегодня «умные» технологии для автоматического рерайта или копирайта текстов. В части редакций ИИ дополняет публикации «обвесами» (справками, видео, графиками, дополнительной информацией). 

Пока технологии ИИ не могут полностью заменить человека в проверке информации. Фактчекинг сегодня в большей степени ложится на плечи «журналистов-людей». Данная функция, по мнению экспертов, крайне сложна в автоматизации, так как многие источники все же нуждаются в традиционной, «человеческой» проверке. При этом есть не очень сложные операции по проверке информации, которые можно доверить алгоритмам. В частности, это уточнение имен собственных, географических названий и пр. Еще один медиаменеджер, отвечавший на вопросы в ходе индивидуального интервью, считает одной из первостепенных задач ИИ «выявление фейковой информации и противодействие высокотехнологичным фейкам». 

Нельзя не упомянуть и достоверность выводов, которые могут быть сделаны с помощью ИИ. Независимый медиаэксперт, также индивидуально отвечавший на вопросы, считает это ключевым препятствием на пути внедрения ИИ в медиапрактику: «Текущие технологии, особенно технологии машинного обучения, часто могут сравнительно вольно трактовать входящие данные. Это прекрасно, когда нам нужно творчество, но очень плохо, если это творчество надо поместить в рамки достоверности, объективности и прочих журналистских принципов». 

Другие две темы, волнующие экспертное сообщество, – возможность отслеживать пользовательские комментарии и дистрибутировать контент. В части первой задачи эксперты видят необходимость в распределении с помощью алгоритма комментариев по группам, что облегчало бы задачу «модератору-человеку», экономило бы его время. В вопросах дистрибуции контента речь в первую очередь идет о персонализации на основе интересов различных групп аудитории. Задача любой редакции – расширять охваты потенциальной аудитории за счет автоматизации распространения журналистских текстов. Эксперты также посчитали важным затронуть тему исследования социально-демографических параметров своей аудитории – по принципу соцсетей, где люди сами оставляют о себе много информации. Сегодня СМИ, в том числе при помощи ИИ, вынуждены самостоятельно собирать эти данные, чтобы правильно настроить систему дистрибуции контента. 

Однако в вопросах дистрибуции есть и другая сторона медали – помещение потребителя в «информационный пузырь». Эксперты считают эту проблему потенциально преодолимой за счет приоритетности общественно значимого контента. 

Вопрос финансового благополучия редакций в части покупки, запуска и дальнейшего обслуживания редакционных ИИ-систем пока остается довольно острым. По мнению экспертов, сегодня эксперименты с ИИ доступны только крупным участникам российского медиарынка. Еще одна обозначенная многими экспертами проблема – отсутствие соответствующих специалистов, которые могли бы развивать ИИ-системы в редакциях.  

Основные выводы и дискуссия 

Применение метода независимых экспертных оценок продолжает оставаться наиболее эффективным подходом к комплексному анализу и прогнозу воздействия технологических инноваций на функционирование медиа. Как показало настоящее исследование, сравнение высказанных большинством экспертов мнений демонстрирует, по крайней мере на качественном уровне, сравнительно неплохую сходимость к консенсусу. 

Наиболее общие выводы касаются места медиаиндустрии в мировой экономической системе, а также динамики проникновения ИИ-инноваций в повседневную медиапрактику. Эти выводы справедливы как по отношению к российским медиа и журналистике, так и в мировом масштабе. Подтверждающие эти положения факты проявляются в виде тенденций опережающих темпов роста индустрии медиа и развлечений, причем по отношению к внедрению технологии ИИ в медиа, в первую очередь в России, следует говорить о стадии зарождения и начале стадии роста волны интеллектуальных инноваций. 

Сфера медиа входит в число наиболее перспективных направлений применения инновационных технологий искусственного интеллекта. Уже сегодня разнообразные системы искусственного интеллекта фактически становятся активным субъектом конкуренции за рабочие места в медиаотрасли. При этом медиакомпании делают ставку на технологии искусственного интеллекта для удовлетворения новых потребностей аудитории. Хотя российская медиасистема не входит в число мировых индустриальных лидеров по проникновению ИИ-инноваций, она имеет высокий потенциал по их освоению в будущем. В отличие от других секторов экономики, где наблюдается активная стадия диффузии ИИ (ритейл, медицина, финансы и т. д.), российская медиаиндустрия находится только на входе в этот сектор высоких технологий. 

Применение алгоритмов в журналистской практике – более чем дискуссионная тема в среде академического и индустриального медийного сообщества на протяжении последних нескольких лет. При этом если представители медиаиндустрии, сталкиваясь в своей работе с ИИ, подмечают и положительные стороны данного процесса, то «академики» чаще всего выступают с критикой любого «сверхтехнологического» вмешательства в классический творческий процесс создания журналистского произведения. 

В этом инновационном процессе практически все эксперты выделяют особый блок – этику использования технологий ИИ в медиа, журналистике и коммуникациях, особенно в сфере злоупотреблений технологией и манипуляций контентом. 

В числе дискуссионных вопросов, которые надо осмыслить всем участникам журналистского сообщества, стоит назвать и социальный, и психологический, и общегуманитарный аспекты. Особое внимание следует уделить контролю за технологиями, приоритетности антропоцентрического подхода к ряду потенциальных журналистских тем, ситуации на рынке труда, журналистскому образованию. Несомненно, тема дистрибуции контента с помощью ИИ порождает новые вызовы, а именно опасность для читателя оказаться в «эхо-камере», не понимать, кто и как создает контент, им потребляемый, и пр. 

Один из магистральных вопросов, который также необходимо будет решать как в целом представителям рынка ИИ-технологий, так и менеджерам от медиаиндустрии, внедряющей подобные технологические решения в свою практику, связан с защитой от возможных внешних мошеннических действий, а также хакерских атак на ИИсистемы. Технологизация медийных процессов, несомненно, должна сопровождаться внимательным отношением к безопасности. 

Примечания

1 Hype Cycle for Artificial Intelligence, 2018. Available at: https://www.gartner.com/en/documents/3883863 (accessed: 12.04.2023).

2 Tackling Trust, Risk and Security in AI Models. Available at: https://www.gartner.com/en/articles/what-it-takes-to-make-ai-safe-and-effective (accessed: 12.04.2023).

Wiles J. (2022) What’s New in Artificial Intelligence from the 2022 Gartner Hype Cycle. Available at: https://www.gartner.com/en/articles/what-s-new-in-artificial-intelligence-from-the-2022-gartner-hype-cycle (accessed: 12.04.2023).

4 Cognitive Artificial Intelligence. The Invisible Invasion of the Media Business. Available at: https://www2.deloitte.com/content/dam/Deloitte/de/Documents/technology-media-telecommunications/Cognitive_Artificial_Intelligence.pdf (accessed: 12.04.2023).

5 Notes from the AI Frontier. Tackling Europe’s gap in Digital and AI. Available at: https://www.mckinsey.com/~/media/mckinsey/featured%20insights/artificial%20intelligence/tackling%20europes%20gap%20in%20digital%20and%20ai/mgi-tackling-europes-gap-in-digital-and-ai-feb-2019-vf.pdf (accessed: 12.04.2023).

6 Purdy M., Daugherty P. (2019) Why Artificial Intelligence is the Future of Growth. Available at:https://dl.icdst.org/pdfs/files2/2aea5d87070f0116f8aaa9f545530e47.pdf (accessed: 12.04.2023).

7 Fault lines and fractures: Innovation and growth in a new competitive landscape. Perspectives from the Global Entertainment & Media Outlook 2022–2026. Available at: https://www.pwc.com/gx/en/industries/entertainment-media/outlook/downloads/PwC_Outlook22_v2.pdf (accessed: 12.04.2023).

8 Zhang D., Maslej N., Brynjolfsson E., Etchemendy J. et al. (2022) The AI Index 2022 Annual Report. Available at: https://aiindex.stanford.edu/wp-content/uploads/2022/03/2022-AI-Index-Report_Master.pdf (accessed: 12.04.2023).

9 Указ Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации». Режим доступа: http://www.kremlin.ru/acts/bank/44731 (дата обращения: 12.04.2023).

10 Там же.

11 Там же.

12 Цифровая экономика от теории к практике: как российский бизнес использует искусственный интеллект. Режим доступа: https://raec.ru/upload/files/190715-ii.pdf (дата обращения: 22.05.2023).

13 Stith P. A. (2005). Guide to Computer Assisted Reporting. Available at: https://www.poynter.org/archive/2005/a-guide-to-computer-assisted-reporting/ (accessed: 12.04.2023)

14 Guzman T.A. (2016) «Automated Journalism», Robots in the Newsroom: The Future of Corporate Media. Available at: https://www.globalresearch.ca/automated-journalism-robots-in-the-newsroom-the-future-of-corporate-me... (accessed: 12.04.2023).

15 Chomsky N., Roberts I., Watumull J. (2023) Noam Chomsky: The False Promise of ChatGPT. Available at: https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html (accessed: 12.04.2023).

Библиография

Вартанова Е. Л. Об основных понятиях «поля цифровых медиа» в российских исследованиях СМИ // МедиаАльманах. 2018. № 2 (85). С. 8–16. DOI: 10.30547/mediaalmanah.2.2018.816

Broussard M., Diakopoulos, N., Guzman, A. L., Abebe, R. (2019). Artificial Intelligence and Journalism. Journalism & Mass Communication Quarterly 96(3): 673-695. DOI: 10.1177/1077699019859901

Boczkowski P.J. (2005). Digitizing the News: Innovation in Online Newspapers. Cambridge: The MIT Press.

Carlson M. (2015) The Robotic Reporter. Automated Journalism and the Redefinition of Labor, Compositional Forms, and Journalistic Authority. Digital Journalism 3(3): 416-431. DOI: 10.1080/21670811.2014.976412

Dörr K.N. (2016) Mapping the Field of Algorithmic Journalism. Digital Journalism 4(6): 700-722. DOI: 10.1080/21670811.2015.1096748.

Diakopolous, N. (2019) Automating the News: How algorithms are rewriting the media. Cambridge, MA: Harvard University Press.

Newman, N. (2022) Journalism, media, and technology trends and predictions 2022. Reuters Institute for the Study of Journalism. DOI: 10.60625/risj-ahx9-vm24

Pavlik J. V. (2023) Collaborating with ChatGPT: Considering the Implications of Generative Artificial Intelligence for Journalism and Media Education. Journalism & Mass Communication Educator 78(1): 84-93. DOI: 10.1177/10776958221149577



Как цитироватьДавыдов С. Г., Замков А. В., Крашенинникова М. А., Лукина М. М. Использование технологий искусственного интеллекта в российских медиа и журналистике // Вестн. Моск. ун-та. Сер. 10: Журналистика. 2023. № 5. С. 3–21. DOI: 10.30547/vestnik.journ.5.2023.321


Поступила в редакцию 15.06.2023