Проект БЕЛТА и Белорусского института стратегических исследований. Известные аналитики, политологи, экономисты обсуждают актуальные вопросы из жизни Беларуси и мира
DEEPFAKES: новый вызов информационной безопасности
В эпоху постправды тема фейков стала одной из проблем информационной безопасности. В 2017 г. составители словаря Collins English Dictionary выбрали слово Fake словом года. Но прогресс продолжается, и сегодня перед СМИ и потребителями информации стоит новый вызов - deepfakes (глубокие фейки), когда при помощи использования технологий искусственного интеллекта можно производить такой высокореалистичный аудиовизуальный контент, что непрофессионал не всегда отличит подделку от настоящего.
Для Беларуси эта технология тоже становится актуальной - известные образы уже стали основой дипфейковых креативов. Пока на уровне юмора с политическим подтекстом.
ЭКСПЕРТЫ:
Александр Карлюкевич
министр информации Республики Беларусь
Виктор Наумов
старший научный сотрудник сектора информационного права и международной информационной безопасности Института государства и права Российской академии наук, кандидат юридических наук, доцент
Ольга Агейко
заведующая кафедрой социально-гуманитарных дисциплин Академии управления при Президенте Республики Беларусь, кандидат психологических наук, доцент
Виталий Демиров
аналитик Белорусского института стратегических исследований, кандидат философских наук
Олег Макаров
директор Белорусского института стратегических исследований, доктор юридических наук
Юрий Прокопов (модератор)
заместитель директора Белорусского института стратегических исследований
Юрий ПРОКОПОВ (модератор) заместитель директора Белорусского института стратегических исследований
В этом году мы стартуем с темы, которая на слуху в экспертных кругах, среди журналистов, но больше среди пользователей интернета — обычных потребителей информации. Deepfakes (глубокие фейки) — новый вызов информационной безопасности. Так мы озаглавили сегодняшний наш круглый стол.
Deepfakes - технологии искусственного синтеза человеческого изображения, основанные на использовании нейросетей и искусственного интеллекта, позволяющие создавать высоко реалистичное фото и видеоизображение людей либо производить модификацию фото-, аудио- и видеоматериалов. Обычно точкой отсчета называют 2017 год, когда с помощью нейросетей было сгенерировано фейковое порновидео с известной израильской актрисой Галь Гадот. Его активно распространяли в соцсетях.
Апрель 2018 года. Известный ресурс BuzzFeed выставил видео под названием "Вы не захотите поверить тому, что Обама скажет в этом видео". Хайповый заголовок, как водится в таких случаях. Обама (берем в кавычки) произносит оскорбления в адрес Трампа. В конце ролика появляется реальный человек и показывает, что это видео - подделка. Были потом еще видео и с участием спикера парламента Палаты представителей конгресса США. При помощи искусственного интеллекта получился вот такой продукт, который на первый взгляд не отличишь.
Давайте перенесемся в наши широты и поговорим о deepfakes на медийном ландшафте в эпоху постправды.
Олег Сергеевич, в октябре прошлого года вы были в Дохе на конференции по информационной безопасности, где тоже поднимали вопрос глубоких фейков. Почему мир заботит эта проблема?
Летом прошлого года в комитете по разведке в конгрессе США прошли слушания по вопросу deepfakes, внесен закон по борьбе с высокотехнологичной дезинформацией. Фейсбук принял решение, что будет удалять видео, в котором эксперты признают технологии глубокого фейка. Но это не будет распространяться на юмористический контент и развлечения.
На самом деле эта конференция была посвящена фейку. Для меня самым интересным было как раз то, что были показаны некие сущности, изначально принятые за людей. Они общались, делали какие-то заявления. И с помощью интернета мы видели их социальную жизнь. Оказалось, что это не люди. Это, в общем-то, синтезированные сущности, которые никогда не существовали физически.
Олег МАКАРОВ директор Белорусского института стратегических исследований, доктор юридических наук
Это наталкивает на мысль, что сегодня сложно верить своим глазам
Отличить deepfakes с помощью каких-то технических средств практически невозможно. Если создатель обладает технологией высшего порядка, то так называемый разоблачитель, не обладающий подобной технологией, не имеет шанса определить, была ли это синтезированная сущность или новый стиль, какой-то образ либо же это была правда. И здесь я хотел бы задать юридический вопрос.
И мы видим, как общество настороженно воспринимает такие новации, говоря, что мы всего-навсего только распространили и ничего не имели в виду.
Мы часто сталкиваемся с предложениями о привлечении к ответственности лиц, распространяющих подобные новости.
Технологический и правовой вопрос deepfakes
Виктор Наумов
Срабатывает эффект лайков: сколько лапочек, поднятых вверх пальцев поставишь - столько к тебе больше условного доверия возникает. Это печальное развитие культуры, в которой мы уже давно живем.
Александр Карлюкевич
Уже сегодня надо готовить проекты, где будут прописаны такие понятия, как fake и deepfake... Нам надо задуматься о радикальных скоростях в эволюции наших отечественных масс-медиа.
Ольга Агейко
Самое страшное - если вдруг роботы получат сознание - и тогда это будет процесс неконтролируемый... Чем меньше наши знания о чем-либо, тем более велика вероятность купиться на этот дипфейк. И поэтому самая большая группа риска - наши дети.
Виталий Демиров
Сейчас пока нет завершенных техрешений, которые бы помогали распознавать deepfakes. Когда они появятся, важно, чтобы распознание таких роликов шло достаточно быстро. Если обличение будет запаздывать, то видео успеет вызвать эффект в соцсетях.
Юрий ПРОКОПОВ (модератор) заместитель директора Белорусского института стратегических исследований
В вопросе deepfake много плоскостей, требующих детального обсуждения, здесь есть и технологический вопрос, и правовой, и вопрос массового сознания.
Виктор Борисович, обычный человек имеет сегодня возможность отличить ложь от правды или без технического решения это невозможно сделать?
Я боюсь, что нет. В том информационном потоке совершенно разного тотального содержания, который льется на головы обычных людей, невозможно быть осведомленным в сколь-нибудь значимой части всех этих процессов. Дальше срабатывает эффект лайков.
Виктор НАУМОВ старший научный сотрудник сектора информационного права и международной информационной безопасности Института государства и права Российской академии наук, кандидат юридических наук, доцент
Сколько лапочек, поднятых вверх пальцев поставишь - столько к тебе больше условного доверия возникает
Это печальное развитие культуры, в которой мы уже давно живем, большая часть мира живет, культура потребления, когда упаковка создает эффект качества.
Мы сейчас говорим про дипфейки, но я думаю, мы просто выделяем какой-то один кусочек искусственного интеллекта. В ближайшее время люди с ним столкнутся. Что с этим делать - мало кто знает. Есть разные гипотезы.
Ольга АГЕЙКО заведующая кафедрой социально-гуманитарных дисциплин Академии управления при Президенте Республики Беларусь, кандидат психологических наук, доцент
Самое страшное - если вдруг роботы получат сознание - и тогда это будет процесс неконтролируемый
Почему люди ведутся на эти дипфейки? Есть замечательная фраза: "мир таков, каковы наши знания". Вот здесь правильно сказал Виктор Борисович:
Они по возрасту не могут этими знаниями обладать, плюс, давайте говорить честно, сегодня мы не наделяем их этими знаниями, которые бы повышали этичность и возможность к анализу. Поэтому проблема двусторонняя: с одной стороны, рост информационных технологий, а с другой - неготовность человеку эти информационные технологии принимать анализировать с повышенной долей критичности.
Чем меньше наши знания о чем-либо, тем более велика вероятность купиться на этот дипфейк. И поэтому самая большая группа риска - наши дети.
Чтобы мы ни делали в этом направлении, мы все равно будем догонять уходящий поезд. Мы 50 лет жили с четкой иллюзией, что есть искусственный интеллект, который можно программировать, контролировать и можно развивать. И что происходит? За 5 лет получили больше, чем за 50.
Ольга АГЕЙКО
Об искусственном интеллекте
Однако сейчас пока нет завершенных техрешений, которые бы помогали распознавать deepfakes. Когда они появятся, важно, чтобы распознание таких роликов шло достаточно быстро. Если обличение будет запаздывать, то видео успеет вызвать эффект в соцсетях.
Виталий ДЕМИРОВ аналитик Белорусского института стратегических исследований, кандидат философских наук
Воздействие deepfakes и fake news на политику, общество и бизнес становится гораздо более ощутимым, а новые технологии, которые пытаются усилить этот эффект, - более заметными.
Юрий ПРОКОПОВ (модератор) заместитель директора Белорусского института стратегических исследований
3-4 года назад появилось наше приложение "Маскарад", это была сенсация, на каждый телефон можно установить, одно время оно занимало лидирующие позиции в AppStore, да и сейчас им пользуются. Несколько лет назад это был прикол для телефона, а сейчас мы сидим здесь в экспертном кругу, серьезные люди в комитете разведки, в конгрессе США это дело обсуждают. Александр Николаевич, для нашего информационного пространства это уже проблема или мы пока не ощущаем?
Нам надо всем понимать - и тем, кто работает в печатных СМИ, и тем, кто работает в электронных СМИ, и тем, кто просто производит новости и забрасывает их в социальные сети, - что медийное влияние – это как раз влияние на всех участках, и социологические опросы показывают, что наибольшее влияние идет из социальных сетей. Параллельно развитию технологии deepfakes сегодня все среды, которые так или иначе имеют отношение не просто к медийному влиянию и информационной безопасности, к обеспечению безопасности в этой части, что же мы можем противопоставить? Противопоставить и с законодательной точки зрения в том числе. Мы сегодня так или иначе затрагивали тему, что у нас часть общества, (по-моему вы, Юрий, говорили об этом) настраивается на то, что нововведения ограничивают право на потребление информации.
Александр КАРЛЮКЕВИЧ министр информации Республики Беларусь
Уже сегодня будем готовить проекты, где будет прописан и fake, и deepfakes в законодательной базе, потому что надо обществу объяснить, что это повлечет.
Нам надо задуматься о радикальных скоростях в эволюции наших отечественных масс-медиа.
Александр КАРЛЮКЕВИЧ
Об эволюции отечественных СМИ
ИНФОРМАЦИОННАЯ КУЛЬТУРА
Виктор Наумов
Мы можем столкнуться с ситуацией изготовления атомной бомбы на кухне. Только атомной бомбы информационной... Разрыв в культуре между классическими медиа и обычными гражданами – это тот самый негативный фактор, который и дальше будет играть очень серьезную роль, если с ним определенным образом не работать.
Александр Карлюкевич
Должны быть эксперты, должны быть профессионалы по целому ряду общественных явлений и технологических процессов, иначе мы просто упустим и образовательный уровень общества.
Ольга Агейко
Мы читаем то, что хотим читать, слышим то, что хотим слышать, и становимся эмоционально глухими... Сегодня есть, к сожалению, такое понятие "жидкий мир", когда человек может быть представлен в десяти лицах в социальных сетях.
Олег Макаров
Существует "эффект второй волны", когда производится некая технология, ее запускает производитель, но работает потом с ней уже не только он. Информация распространяется через репосты, через отношение к этой информации.
Позвольте продолжить мысль Александра Николаевича. Сейчас в новых информационных реалиях любой человек - уже почти журналист, может быть, уже почти редактор, а в ближайшее время почти продюсер. Потому что технологии дешевые и простые. Но у этой массы населения, которая как раз количество лайков и нагоняет, никакой культуры и осознания ответственности за важность распространения информации нет.
По сути, мы можем столкнуться с ситуацией изготовления атомной бомбы на кухне. Только атомной бомбы информационной.
Виктор НАУМОВ старший научный сотрудник сектора информационного права и международной информационной безопасности Института государства и права Российской академии наук, кандидат юридических наук, доцент
Сейчас речь идет о будущем общественном договоре. Если ты хочешь разрабатывать и затем внедрять технологии, ты должен осознавать, какие последствия должны возникать в этой связи.
Ольга АГЕЙКО заведующая кафедрой социально-гуманитарных дисциплин Академии управления при Президенте Республики Беларусь, кандидат психологических наук, доцент
Люди покупаются не на информацию, они покупаются на эмоции.
Мы читаем то, что хотим читать, слышим то, что хотим слышать, и становимся эмоционально глухими. Хотим получать эмоции через социальные сети. Есть такое понятие "жидкий мир", когда человек может быть представлен в десяти лицах в социальных сетях.
Парадокс в том, что сегодня то, что происходит в социальных сетях, сравнивают с психологией толпы. По большому счету, эффект заряжения происходит намного даже быстрее, чем в толпе. Людям нужна эмоциональность. Посмотрите, что происходит опять-таки с молодежью, как они читают, что они читают. Во-первых, сохраняется так называемое клиповое восприятие информации по чуть-чуть, везде и обязательно убирается та информация, которая сегодня не вписывается в мою картинку мира, и получается, что информационно мы становимся как бы настолько закрытыми.
Я хотел бы остановиться на одном социальном эффекте - "эффекте второй волны". Когда производится некая технология, ведь ее запускает, в общем-то, в свет производитель, но работает потом с ней уже не только производитель. И мы с вами поговорили о распространении этой информации через репосты, через отношение к этой информации. Но очень важным мне кажется то, как лидеры различных мнений - чиновники, блогеры, иные - реагируют на эту информацию, что и как потом делают с этой информацией.
Олег МАКАРОВ директор Белорусского института стратегических исследований, доктор юридических наук
Если их комментарий, их реакция будет непропорционально резкая, быстрая и активная, то вот это вызовет большую реакцию общества, чем само событие. И здесь мы говорим об ответственности тех лиц, которым эта "кухонная бомба" досталась в распоряжение.
Для Беларуси характерно все-таки рассудительное и спокойное отношения к событиям, мудрая пауза. Она дает возможность не сразу принимать решение, связанное с какой-то новостью, а подумать и посмотреть, насколько это подтверждается другими источниками. Вот эта рассудительность и является неким иммунитетом.
Должны быть эксперты, должны быть профессионалы по целому ряду общественных явлений, технологических процессов, иначе мы просто упустим и образовательный уровень общества.
Александр КАРЛЮКЕВИЧ
Об общественных корреспондентах
ПОДВЕДЕНИЕ ИТОГОВ
Александр Карлюкевич
В парламенте надо рассматривать новые среды, новые явления. И это касается не только fakes иdeepfakes. Это касается многих других аспектов. Если говорить в целом о том, что же все-таки делать, конечно же, воспитывать общество и быть в этом процессе постоянно. И разные форматы воспитания общества применять: и юридический, и образовательный и технологический.
Олег Макаров
Критика нашего мышления повысилась, и тем самым эффект негативный от такой технологии снизился. И вот такое образование общества будет способствовать снижению деструктивной эффективности подобных технологий.
Ольга Агейко
Информацию можно рассмотреть как ковер, из которого каждый, кто смотрит, вытащит только ту нить, которая ему больше нравится. И вот здесь мы должны понимать, что (если следовать метафоре) то основная задача - все-таки сделать, чтобы ковер был соткан из хороших нитей, и с точки зрения психологии попытаться спрогнозировать, какую же нить вытащу я или мой коллега.
Виталий Демиров
Наше общество имеет хороший критический иммунитет к потрясениям и шокам, то есть оно вряд ли будет каким-то образом дестабилизироваться от отдельных ситуаций. И плюс к тому нужно поощрять те стартапы и инициативы, которые нацелены на то, чтобы создавать именно технический инструмент автоматизированного выявления таких вот подделок.
Виктор Наумов
С позиции законодательства нужно смотреть не только и не столько на категории deepfakes (это необходимо), но в целом на законодательство об идентификации субъектов в информационном пространстве. Именно идентификация является неким порталом в этот "волшебный" мир. На входе этого портала должны стоять стражи либо свидетели, которые записывают входящих. Ты должен идентифицироваться полностью либо частично.
Юрий Прокопов
Мы обсудили очень важную тему - deepfakes как новый вызов информационной безопасности. Важно, что мы выяснили, что в работе с этим вопросом, этим механизмом, этой проблемой, этим развлечением есть много аспектов - и информационных, и правовых, и этических. И, я думаю, возможно, наша беседа послужит каким-то толчком для людей, которые принимают решения.
Экспертная среда
DEEPFAKES: новый вызов информационной безопасности