Илья Анатольевич Быков
Профессор, доктор политических наук
среда, 27 ноября 2024 г.
Закон Быкова
Скоро будет 24 года, как научная и преподавательская жизнь Ильи Анатольевича Быкова связана с Санкт-Петербургским госуниверситетом. Мы поговорили с профессором о принципах работы, этичности ChatGPT и о том, как все успеть.
– Илья Анатольевич, вы профессор, политолог, геймер. Что из этого вам нравится больше?
– На мой взгляд, первое, что определяет любого человека – его профессиональная составляющая. Во всяком случае для меня. Моя работа имеет первостепенное значение, со всеми плюсами, минусами и так далее. Геймер – это хобби, и то с большим перерывом.
– Как вы все успеваете?
– Ничего не успеваю (смеется). Я стараюсь планировать, но это не всегда работает. Надо уметь расставлять приоритеты – это мой совет. Бывают такие ситуации, когда за деревьями вы не видите леса. Наша жизнь так устроена, особенно информационная. Тем более у журналистов, пиарщиков – много дел, много мероприятий. Накладки будут всегда – это понятно, но иногда нужно уметь расставлять приоритеты. Есть такая шкала – срочные дела, особо важные. Она мне в жизни несколько раз очень помогала.
В то же время, я считаю, нужно ковать железо, пока оно горячо. Иногда авантюрные мероприятия оказываются гораздо более успешными, чем какие-то запланированные задолго до. Это поразительно. Поэтому если мы говорим о журналистах и о пиарщиках, нам нужно быть гибкими.
– Как проходят ваши занятия со студентами?
— Наша преподавательская работа — в каком-то смысле креативная индустрия. Работа с людьми — сложная интеллектуально и эмоционально работа. Я стараюсь вести занятия в entertainment-манере. Не всегда это получается, да и не всегда оно должно быть. Много зависит от самих студентов — если они готовы учиться и воспринимать серьезный контент, то, конечно, занятия будут более серьезными. Очень тяжело работать в группах, где есть некие такие депрессивные настроения и отторжение. Психологи это называют сопротивлением — когда аудитория не хочет понимать материал и считает его бесполезным.
– Расцениваете ли вы их как коллег?
– Я воспринимаю студентов как людей, которые иногда знают больше, чем я, особенно в области социальных медиа, новых сервисов. Они меня долго склоняли скачать Tik-Tok и делать там контент. Я отказывался, но на Youtube канал завел.
– Как вы пришли в СПбГУ?
– Политология – интерес из детства. На меня большое влияние оказала бабушка, которая преподавала марксизм-ленинизм. У нее дома было полное собрание сочинений Ленина. Мое детство и юность пришлись как раз на время перестройки – отсюда и интерес к политике. Мне было очень интересно, чем все это закончится (смеется). Когда пришло время поступать, я решил выбрать направление «новейшая история» и Санкт-Петербург. Мне показалось, что СПбГУ – один из старейших вузов России с известными историками и научной школой, и будет очень исторично учиться именно здесь. Так вышло, что на историю меня по итогу не взяли и я попал на политологию, о чем не жалею. Это оказалось близко к моим интересам. Тогда, поступая, я и не знал, что меня интересует политология – и не знал, что существует такая наука. Хотя недавно Владимир Владимирович высказал сомнение, что это наука.
– Вы писали в блоге, что общаетесь с ChatGPT. Действительно ли искусственный интеллект (ИИ) может помочь политологам?
– У меня еще в YouTube была программа, где мы это обсуждали. Я говорил, что ChatGPT может писать тексты, ответы на билеты и в принципе на уровне бакалавриата он отвечает, по-моему, вполне как студент-политолог. Но другое дело, что мои коллеги-преподаватели сказали: «А на дополнительные вопросы-то…»
– Вопросы со звездочкой ему пока не под силу?
– Его бэкграунд солидный, он формулирует достаточно хорошо. Но очень важный момент – нужно уметь задавать вопросы. Не буду скрывать, мы сейчас проводим небольшое исследование, связанное с ChatGPT, в журналистике в том числе. Я, например, попросил нейросеть сформулировать новость, но он отказался.
– Потому что формулировка была неправильная?
– Нет, я некорректную просьбу поставил. «Я не буду писать, потому что это фейк-ньюс», – вот так нейросеть ответила, представляете?
– У ChatGPT тоже есть журналистская этика?
– Вот именно! Это очень интересно – многое, опять же, зависит от того, как вы вопрос зададите. Видимо скоро появится профессия промпт-инженер – специалист по задаванию вопросов искусственному интеллекту. Потому что не все понимают, как правильно это сделать. Как с гуглом – не все понимают, что надо переформулировать. Это не так просто, как кажется.
– Мы так часто говорим про ИИ и нейросети, но вряд ли все до конца разбираются в этих терминах. Можно ли сказать, что нейросети включены в ИИ?
– Тут надо поднять мои записи. Вы правильно совершенно говорите – это очень сложные понятия. И, честно говоря, мне как гуманитарию не до конца понятно, как это технически работает, хотя я изучал программирование. По-простому не готов объяснить – должна быть отдельная лекция. Я давно пришел к выводу, вслед за Бурдье, что порой эксперты выступают в роли телевизионных болванов – за одну минуту объясняют сложные понятия. А это невозможно. И тут мы попадаем в странную ситуацию: чтобы объяснить, что такое искусственный интеллект, нужно ну как минимум час-два. А телеформат современных СМИ сжат – это «тик-токи». Как вы в Tik-Tok объясните? Это невозможно. Единственное, что могу сказать: мы с профессором Сидоровым делаем научно-исследовательский проект по медиааксиологии, проблематика которой применима и к искусственному интеллекту. Была масса публикаций, что часто ChatGPT ведет себя этически отстраненно: перекладывает ответственность на человека, который задает вопросы. И тут для гуманитариев есть поле деятельности. Человеческие ценности, которые мы задаем, могут либо присутствовать, скажем, в каком-то опыте, либо отсутствовать. То, какие ценности мы закладываем, – очень важно.
– То есть этику можно заложить в искусственный интеллект?
– Более того: нужно, скорее всего.
– Даже так… Кажется, что это несовместимые с ИИ и техникой понятия – субъективный, человеческий фактор.
– Вот в этом-то как раз и проблема – какие ценности закладывать, как это будет работать, как это технически реализовывать, нужно ли это в принципе делать? Недавно писал тезисы на конференцию в секцию про эко-информационный подход. На данный момент мы видим, что ИИ – это хищник, дискредитирующий человеческих участников. Его проще всего использовать для самых неблаговидных целей. Самое простое – дать команду искусственному интеллекту, и он будет тиражировать фейковые посты. Если продолжать эту аналогию с экосистемой, можно сказать, что информационное пространство – это лес. В нем есть грибы, ягоды, деревья, хищники, травоядные. Какое место займет там ИИ? Если не будет никаких этических оснований, то он пожрет всех.
– У вас есть какие-то опасения насчет искусственного интеллекта?
– Любая технология может быть использована как во благо, так и во вред. Закон Быкова – любая технология может использоваться как во вред, так и во благо человека. Точка.
Беседовала Эрика Шакирова
Над текстом работала редактор Александра Зорина
пятница, 8 ноября 2024 г.
Креатив из нулевых
Была такая компания "Евросеть", которая прославилась "мощным" креативом https://retailer.ru/kak-evroset-jepatirovala-rossiju-2000-h-fotopodborka/. Правда, основатель теперь скрывается за границей...
среда, 6 ноября 2024 г.
Как я предсказал победу Трампа в 2024 году
1. Краткий анализ избирательной кампании. В самом начале кампании в феврале месяце Трамп уверенно победил на республиканских праймериз Ники Хейли (которая FYI - женщина). В то же время опросы показывали, что перспективы Байдена, хотя он и победил на демократических праймериз, так себе. 28 июня прошли важные дебаты Трамп-Байден, в ходе которых даже демократам стало понятно, что Байден уже не то(р)т. Начало кампании в пользу Трампа. Но и это еще не все. 13 июля произошло покушение на трампа, его рейтинги взлетели до небес. Он не просто остался жив, но и заработал своим поведением "респект и уважуху". Конечно, демократы не сдались. Они "додумались" сделать "рокировочку" и поменяли Байдена на Харрис. Харрис во время дебатов 10 сентября, как минимум, не проиграла. В штабе Трампа сделали верный вывод, что больше не надо экспериментов - никаких дебатов, если в них можно проиграть. Тут даже некоторые опросы начали показывать, что рейтинги Харрис выше рейтингов Трампа. Однако к концу избирательной кампании где-то в октябре большинство опросов говорили о примерном равенстве голосов. С учетом особенностей избирательной системы США (там побеждает не тот, кто набрал больше голосов избирателей, а тот кто набрал больше голосов выборщиков от штатов) это значило, что шансы Трампа выше. Напомним, что в последний раз, когда Трамп стал президентом, за него проголосовало на несколько миллионов избирателей меньше. Все это значило, что согласно динамики опросов и особенностей избирательной системы шансы Трампа победить выше.
2. Скрытые установки простых американцев. А кто же голосует в колеблющихся штатах, которые чаще всего определяют результат? Не те ли самые консервативные избиратели, которых уже достала эта "зелено-феменистско-политкорректная повесточка"? Не те ли самые простые работяги и религиозные (Трамп выжил после покушения - это знак Божий!) избиратели, которые уже и в первый раз обеспечили ему Президентское кресло? Именно они. Может быть в открытую они не будут говорить, что против женщины-президента, но как скорее всего проголосуют? Риторический вопрос. Просто, напомним, что в прошлый раз Трам проиграл Байдену (М), а до этого выиграл у Хиллари Клинтон (Ж). Я понимаю, что это очень скользкая тема и доказать это сложно. Вряд ли какие-то фокус-группы это могут показать. В конце концов можно пострадать за "расизм и дискриминацию".
пятница, 27 сентября 2024 г.
Euronews как инструмент конструирования европейской идентичности
Выступил на пленарном заседании конференции "Проблемы идентичности в реалиях современного мира" в Санкт-Петербургском государственном техническом университете.
Питерская идентичность
четверг, 5 сентября 2024 г.
Быков И.А. Политическая журналистика и технологии ИИ: к вопросу о практических перспективах
Быстрое развитие искусственных цифровых участников современной информационной экосистемы, которых мы вслед за С. В. Володенковым и С. Н. Федорченко предлагаем называть сетевыми актантами [1], привела к целому ряду неожиданных последствий. С одной стороны, огромную популярность приобретает сервис ChatGPT, позволяющий пользователям работать с искусственным интеллектом и выполнять самые разнообразные задачи с его помощью. Этот сервис становится все популярнее, а число его пользователей растет более высокими темпами, чем у социальных сетей или мессенджеров, относящихся к технологиям Веб 2.0 [2].
С другой стороны, раздаются весомые призывы о приостановке исследований и внедрения таких технологий. В открытом письме, которое подписали И. Маск, С. Возняк и тысячи других известных специалистов в области IT-технологий раздается следующий призыв: «Мы призываем все лаборатории, исследующие искусственный интеллект, немедленно прекратить хотя бы на шесть месяцев тренировки систем мощнее GPT-4» [3]. В этом письме также высказывается обеспокоенность, что искусственный интеллект позволяет наводнять информационные каналы пропагандой, автоматизирует все рабочие места, делает людей ненужными, что приводит к риску потери контроля над цивилизацией.
Многочисленные новости по поводу практического использования технологий искусственного интеллекта вызвали интерес со стороны известных экспертов в различных областях научного знания. Так, известный исследователь-лингвист Н. Хомский с коллегами также опубликовал критическую статью в газете New York Times, где показывал, что ChatGPT оказывается не только не обладает адекватным воображением (либо недооценивая, либо переоценивая альтернативы), но также не имеет выраженных этических ценностей и готов выступать послушным орудием для осуществления самых неэтичных поступков [4]. Отдельной критике подверглись лингвистические способности ChatGPT. Авторы оценивают программу как «чудо машинного обучения» и считают невозможным рассматривать чат-бота как самостоятельного коммуникативного участника. Хомский с коллегами выражают негодование по поводу популярности сервиса ChatGPT.
Второй пример - статья «The Coming Age of AI-Powered Propaganda», опубликованная в американском журнале Foreign Affairs [5]. В ней анализируются риски управления коммуникативными технологиями пропаганды, возникающие из неуправляемого использования подобных технологий, как ChatGPT. Также поднимается вопрос о необходимости имитации человеческого диалога такими программами.
Оценивая перспективны использования новых сетевых актантов в политической коммуникации и политической журналистики в первую очередь напрашивается идея автоматизированной политической пропаганды. Так, недавние утечки секретной информации из Министерства обороны США показывают, что российским программистам из главному научно-исследовательскому вычислительному центру России, также известному как ГлавНИВЦ [6]. Согласно полученным данным, не более 1 % фейковых аккаунтов или ботов в социальных сетях было раскрыто. Напрашивается вывод о том, что сетевые актанты могут занять место «хищников» в современной информационной экосистеме, распространяя прежде всего негативные политические сообщения.
Если попытаться систематизировать практические перспективы использования технологий искусственного интеллекта в положительном для журналистике смысле, то в первую очередь в голову приходит технология автоматизированной обработки информации. Искусственный интеллект может быть использован для автоматизации обработки и анализа огромного объема политической информации. Алгоритмы машинного обучения могут помочь журналистам в сборе и фильтрации данных, идентификации ключевых тем и трендов, а также анализе настроений и реакций общественности на политические события. Это позволяет журналистам эффективно выделять самые важные новости и предоставлять читателям более точные и своевременные данные.
Во вторую очередь можно выделить технологию проверки фактов и борьба с дезинформацией. Искусственный интеллект может быть полезным инструментом в борьбе с дезинформацией и фейковыми новостями. Алгоритмы машинного обучения могут анализировать тексты, изображения и видеоматериалы, идентифицировать потенциально ложные утверждения и проверять факты. Журналисты могут использовать эти инструменты для проверки достоверности информации и предоставления читателям достоверных данных. Это способствует укреплению доверия к журналистике и повышает качество информации, которую получают люди.
В-третьих, использование технологии искусственного интеллекта позволяет создавать персонализированные информационные потоки для читателей. Алгоритмы машинного обучения могут анализировать предпочтения и интересы пользователей, основываясь на их предыдущем поведении и взаимодействии с контентом. Это позволяет журналистам предлагать читателям более релевантную и интересующую информацию о политических событиях, партиях, кандидатах и других аспектах политики. Персонализация информации может помочь привлечь больше читателей и улучшить их опыт чтения.
В-четвертых, искусственный интеллект может помочь журналистам прогнозировать политические тренды и предсказывать результаты выборов и референдумов. Алгоритмы машинного обучения, основанные на анализе исторических данных и социальных медиа, могут предоставлять ценную информацию о том, какие темы и кандидаты пользуются наибольшей популярностью, а также о предпочтениях и настроениях избирателей. Это помогает журналистам делать более точные прогнозы и предоставлять более надежные аналитические материалы.
Таким образом, технологии искусственного интеллекта предоставляют политической журналистике огромные возможности. Она помогает автоматизировать обработку информации, проверять факты, бороться с дезинформацией, создавать персонализированные информационные потоки и прогнозировать политические тренды. Однако необходимо также учитывать потенциальные риски, связанные с использованием искусственного интеллекта, включая проблемы приватности данных, возможность предвзятости алгоритмов и рост безработицы среди журналистов [7]. Важно найти баланс между использованием технологий и сохранением человеческого качества и нравственности в политической журналистике.
Литература
1. Володенков С. В., Федорченко С. Н. Субъектность цифровой коммуникации в условиях технологической эволюции интернета: особенности и сценарии трансформации // Политическая наука. 2021. № 3. С. 37-53.
2. Бот chatGPT установил мировой рекорд по росту числа скачиваний // Ведомости. 2 февраля 2023 г. https://www.vedomosti.ru/technology/news/2023/02/02/961433-chatgpt-ustanovil-rekord (Дата обращения: 22.05.2023)
3. Илон Маск призвал приостановить разработку и обучение нейросетей. Подпись под открытым письмом поставили более 1000 экспертов // Коммерсант. 29 марта 2023. https://www.rbc.ru/life/news/6424457c9a7947ebee7f7534 (Дата обращения: 22.05.2023)
4. Chomsky N., Roberts I., Watumull J. The False Promise of ChatGPT // The New York Times, 8 марта 2023, https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html (Дата обращения: 22.05.2023)
5. Goldstein J. A., Sastry G. The Coming Age of AI-powered Propaganda. How to Defend Against Supercharged Disinformation // Foreign Affairs, 7 апреля 2023 г., https://www.foreignaffairs.com/united-states/coming-age-ai-powered-propaganda (Дата обращения: 22.05.2023)
6. Menn J. Russians boasted that just 1% of fake social profiles are caught, leak shows // The Washington Post, 2023. April 16. https://www.washingtonpost.com/technology/2023/04/16/russia-disinformation-discord-leaked-documents/ (Дата обращения: 22.05.2023)
7. Быков И. А., Курушкин С. В. Цифровая политическая коммуникация в России: ценности гуманизма против технократического подхода // Вестник Российского университета дружбы народов. Серия «Политология». Т. 24. № 3. С. 2313-1438. DOI: 10.22363/2313-1438-2022-24-3-419-432
четверг, 29 августа 2024 г.
Итоги приемной кампании в СПбГУ
пятница, 2 августа 2024 г.
Правительство (сериал)
четверг, 25 июля 2024 г.
Снеговик
Прочитал детектив модного норвежского писателя Ю Несбё "Снеговик". Очень неплохой роман. Любопытно, насколько норвежское общество глубоко глобализировано или как бы сказали по телевидению - "находится под культурным влиянием англо-саксов". Главный герой, он же детектив по особо важным делам, свободно говорит по-английски, проходил стажировку в США, слушает музыку на английском и т.п. Главный антагонист - он же маньяк - тоже описан вполне хорошо, добротно показаны причины и обстоятельства его психоза. Ну и конец тоже не подкачал: маньяка ловят и сажают за решетку при том, что он сам бы хотел умереть. Вот такой гуманизм. Еще хорошо, что несколько раз сюжет походит к развязке, но потом снова закручивается новая интрига. Любопытно сделано. В общем, если есть время почитать крутой детектив на солнышке в шезлонге - рекомендую)))