четверг, 5 сентября 2024 г.

Быков И.А. Политическая журналистика и технологии ИИ: к вопросу о практических перспективах

Быков И.А. Политическая журналистика и технологии искусственного интеллекта: к вопросу о практических перспективах // Трансформация медиа и журналистского образования в эпоху цифровизации. Алматы, 2023. С. 159-161.

Быстрое развитие искусственных цифровых участников современной информационной экосистемы, которых мы вслед за С. В. Володенковым и С. Н. Федорченко предлагаем называть сетевыми актантами [1], привела к целому ряду неожиданных последствий. С одной стороны, огромную популярность приобретает сервис ChatGPT, позволяющий пользователям работать с искусственным интеллектом и выполнять самые разнообразные задачи с его помощью. Этот сервис становится все популярнее, а число его пользователей растет более высокими темпами, чем у социальных сетей или мессенджеров, относящихся к технологиям Веб 2.0 [2].

С другой стороны, раздаются весомые призывы о приостановке исследований и внедрения таких технологий. В открытом письме, которое подписали И. Маск, С. Возняк и тысячи других известных специалистов в области IT-технологий раздается следующий призыв: «Мы призываем все лаборатории, исследующие искусственный интеллект, немедленно прекратить хотя бы на шесть месяцев тренировки систем мощнее GPT-4» [3]. В этом письме также высказывается обеспокоенность, что искусственный интеллект позволяет наводнять информационные каналы пропагандой, автоматизирует все рабочие места, делает людей ненужными, что приводит к риску потери контроля над цивилизацией.

Многочисленные новости по поводу практического использования технологий искусственного интеллекта вызвали интерес со стороны известных экспертов в различных областях научного знания. Так, известный исследователь-лингвист Н. Хомский с коллегами также опубликовал критическую статью в газете New York Times, где показывал, что ChatGPT оказывается не только не обладает адекватным воображением (либо недооценивая, либо переоценивая альтернативы), но также не имеет выраженных этических ценностей и готов выступать послушным орудием для осуществления самых неэтичных поступков [4]. Отдельной критике подверглись лингвистические способности ChatGPT. Авторы оценивают программу как «чудо машинного обучения» и считают невозможным рассматривать чат-бота как самостоятельного коммуникативного участника. Хомский с коллегами выражают негодование по поводу популярности сервиса ChatGPT.

Второй пример - статья «The Coming Age of AI-Powered Propaganda», опубликованная в американском журнале Foreign Affairs [5]. В ней анализируются риски управления коммуникативными технологиями пропаганды, возникающие из неуправляемого использования подобных технологий, как ChatGPT. Также поднимается вопрос о необходимости имитации человеческого диалога такими программами.

Оценивая перспективны использования новых сетевых актантов в политической коммуникации и политической журналистики в первую очередь напрашивается идея автоматизированной политической пропаганды. Так, недавние утечки секретной информации из Министерства обороны США показывают, что российским программистам из главному научно-исследовательскому вычислительному центру России, также известному как ГлавНИВЦ [6]. Согласно полученным данным, не более 1 % фейковых аккаунтов или ботов в социальных сетях было раскрыто. Напрашивается вывод о том, что сетевые актанты могут занять место «хищников» в современной информационной экосистеме, распространяя прежде всего негативные политические сообщения.

Если попытаться систематизировать практические перспективы использования технологий искусственного интеллекта в положительном для журналистике смысле, то в первую очередь в голову приходит технология автоматизированной обработки информации. Искусственный интеллект может быть использован для автоматизации обработки и анализа огромного объема политической информации. Алгоритмы машинного обучения могут помочь журналистам в сборе и фильтрации данных, идентификации ключевых тем и трендов, а также анализе настроений и реакций общественности на политические события. Это позволяет журналистам эффективно выделять самые важные новости и предоставлять читателям более точные и своевременные данные.

Во вторую очередь можно выделить технологию проверки фактов и борьба с дезинформацией. Искусственный интеллект может быть полезным инструментом в борьбе с дезинформацией и фейковыми новостями. Алгоритмы машинного обучения могут анализировать тексты, изображения и видеоматериалы, идентифицировать потенциально ложные утверждения и проверять факты. Журналисты могут использовать эти инструменты для проверки достоверности информации и предоставления читателям достоверных данных. Это способствует укреплению доверия к журналистике и повышает качество информации, которую получают люди.

В-третьих, использование технологии искусственного интеллекта позволяет создавать персонализированные информационные потоки для читателей. Алгоритмы машинного обучения могут анализировать предпочтения и интересы пользователей, основываясь на их предыдущем поведении и взаимодействии с контентом. Это позволяет журналистам предлагать читателям более релевантную и интересующую информацию о политических событиях, партиях, кандидатах и других аспектах политики. Персонализация информации может помочь привлечь больше читателей и улучшить их опыт чтения.

В-четвертых, искусственный интеллект может помочь журналистам прогнозировать политические тренды и предсказывать результаты выборов и референдумов. Алгоритмы машинного обучения, основанные на анализе исторических данных и социальных медиа, могут предоставлять ценную информацию о том, какие темы и кандидаты пользуются наибольшей популярностью, а также о предпочтениях и настроениях избирателей. Это помогает журналистам делать более точные прогнозы и предоставлять более надежные аналитические материалы.

Таким образом, технологии искусственного интеллекта предоставляют политической журналистике огромные возможности. Она помогает автоматизировать обработку информации, проверять факты, бороться с дезинформацией, создавать персонализированные информационные потоки и прогнозировать политические тренды. Однако необходимо также учитывать потенциальные риски, связанные с использованием искусственного интеллекта, включая проблемы приватности данных, возможность предвзятости алгоритмов и рост безработицы среди журналистов [7]. Важно найти баланс между использованием технологий и сохранением человеческого качества и нравственности в политической журналистике.


Литература

1. Володенков С. В., Федорченко С. Н. Субъектность цифровой коммуникации в условиях технологической эволюции интернета: особенности и сценарии трансформации // Политическая наука. 2021. № 3. С. 37-53.

2. Бот chatGPT установил мировой рекорд по росту числа скачиваний // Ведомости. 2 февраля 2023 г. https://www.vedomosti.ru/technology/news/2023/02/02/961433-chatgpt-ustanovil-rekord (Дата обращения: 22.05.2023)

3. Илон Маск призвал приостановить разработку и обучение нейросетей. Подпись под открытым письмом поставили более 1000 экспертов // Коммерсант. 29 марта 2023. https://www.rbc.ru/life/news/6424457c9a7947ebee7f7534 (Дата обращения: 22.05.2023)

4. Chomsky N., Roberts I., Watumull J. The False Promise of ChatGPT // The New York Times, 8 марта 2023, https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html (Дата обращения: 22.05.2023)

5. Goldstein J. A., Sastry G. The Coming Age of AI-powered Propaganda. How to Defend Against Supercharged Disinformation // Foreign Affairs, 7 апреля 2023 г., https://www.foreignaffairs.com/united-states/coming-age-ai-powered-propaganda (Дата обращения: 22.05.2023)

6. Menn J. Russians boasted that just 1% of fake social profiles are caught, leak shows // The Washington Post, 2023. April 16. https://www.washingtonpost.com/technology/2023/04/16/russia-disinformation-discord-leaked-documents/ (Дата обращения: 22.05.2023)

7. Быков И. А., Курушкин С. В. Цифровая политическая коммуникация в России: ценности гуманизма против технократического подхода // Вестник Российского университета дружбы народов. Серия «Политология». Т. 24. № 3. С. 2313-1438. DOI: 10.22363/2313-1438-2022-24-3-419-432