ЧТО НУЖНО ЗНАТЬ О ДИПФЕЙКАХ В СВЕТЕ НОВОГО ЗАКОНА «ОБ ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕ» В КАЗАХСТАНЕ
3 февраля, 2026 - 10:33
ЧТО НУЖНО ЗНАТЬ О ДИПФЕЙКАХ В СВЕТЕ НОВОГО ЗАКОНА «ОБ ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕ» В КАЗАХСТАНЕ
Автор: Администратор
97

В новом законе Казахстана «Об искусственном интеллекте» много внимания уделено дипфейкам — технологии, которая уже стала частью повседневности для казахстанской медиасреды. От шуточных роликов до мошеннических видео и цифрового «воскрешения» людей — примеров в Казахстане много. Большинство таких ситуаций и раньше подпадало под действующие нормы, а новое законодательство лишь добавило процедур и участников.

О том, что нужно знать о дипфейках в свете нового закона — во время специального вебинара «Авторские права, маркировка, дипфейки. Что нужно знать редакциям СМИ о новом законе “Об искусственном интеллекте”?» рассказала Гульмира Биржанова, соучредитель Правового медиа центра (Астана), руководитель службы Media Qoldau.

Сможет ли новый закон защитить от дипфейков?

По словам Гульмиры Биржановой, закон «Об искусственном интеллекте» в Казахстане во многом стал реакцией на стремительное распространение технологий и растущую тревогу вокруг дипфейков. В новом законе термин «дипфейки» не используется, эта технология называется «синтетические результаты деятельности систем искусственного интеллекта», однако, большое внимание уделяется именно этому виду контента.

«Искусственный интеллект заходит в нашу жизнь, и, конечно, людям не дают покоя дипфейки. Многие считают, что с появлением и принятием закона об искусственном интеллекте мы наконец начнём их регулировать. Хотя это большое заблуждение: дипфейки и раньше регулировались. Не нужно было под них создавать отдельные законы или вводить новую административную ответственность — всё это уже было предусмотрено казахстанским законодательством», — полагает Биржанова.

Она напомнила, что дипфейки в Казахстане используются в мошеннических схемах, когда голосами известных людей — от президента до артистов — убеждают вложиться в финансовые пирамиды. Впрочем, пока такие случаи в Казахстане не носят массовый характер, и многие пользователи способны отличить подделку от оригинала. Однако технологии стремительно развиваются, и мировая практика показывает: дипфейки применяют не только в мошенничестве, но и в политических кампаниях, включая попытки дискредитировать или устранять оппонентов и с каждым днём их качество становится всё лучше. Это создаёт риски, которые затрагивают уже не отдельные случаи, а вопросы общественной и национальной безопасности.

Примеры дипфейков из Казахстана

Биржанова считает, что вне зависимости от законов, обществу важно научиться распознавать контент, созданный ИИ, и понимать, как правильно реагировать на такие материалы. При этом практика использования этих технологий постоянно меняется.

Она приводит в пример один из недавних дипфейков с участием известного журналиста Лукпана Ахмедьярова. Его образ был использован в видео, созданном ИИ, которое призывало аудиторию вкладываться в мошенническую схему. Столкнувшись с такой ситуацией, Ахмедьяров обратился в правоохранительные органы и потребовал удалить поддельное видео через механизмы, предусмотренные законом об онлайн-платформах и онлайн-рекламе. Кроме того, он и его команда сделали публичное опровержение, сообщив аудитории, что ролик является дипфейком.

«Говорить, что дипфейки не регулируются законом, неправильно. И раньше, и сейчас можно привлекать к ответственности не только за их создание, но и за распространение. В казахстанской практике чаще всего отвечают именно те, кто распространяет такой контент, вне зависимости от того, каким приложением он был сделан», — считает Биржанова.

Другой пример — дипфейк с образом Иисуса Христа, который якобы пришёл в Каспи Банк и призывал клиентов не брать кредиты. Администрация банка сначала попыталась заблокировать счёт автора ролика и даже рассматривала возможность административного дела, однако позже счёт разблокировали. В обществе к этому дипфейку отнеслись скорее с юмором, хотя представители религиозных организаций высказали недовольство использованием сакрального образа.

Также Биржанова привела в пример дипфейк, который был создан с использованием президента Казахстана. Это был ролик с анонсом программы выплат, которую якобы финансирует национальная компания.

«Люди, хорошо знакомые с технологией, могли распознать подделку по характерным признакам — несинхронной мимике, движениям глаз и рта. Однако для неподготовленной аудитории, особенно пожилых людей, такие видео могут выглядеть достоверно, что создаёт риск серьёзных последствий, если дипфейк призывает к вложениям или другим действиям», — поясняет Биржанова.

Рассказывая об этом кейсе, она подчеркнула, что не борьба с дипфейками, а скорее развитие медиаграмотности среди население становится ключевым фактором: людям важно учиться распознавать дипфейки, потому что их невозможно остановить даже с помощью нового законов. Особую опасность представляют дипфейки с призывами к участию в митингах или другим противоправным действиям. В таких случаях ответственность может наступать и для тех, кто распространяет подобный контент, потому что оправдание из серии «я просто поделился», не работают.

Другой пример – использование дипфейка в рекламных целях с участием акима Экибастуза небольшого казахстанского города. Его показали в магазине, где он якобы выбирал куртку. Этот ролик использовали в рекламных целях, что сразу поставило вопрос о законности подобных действий. По закону изображение любого человека — будь то президент или аким — нельзя использовать в рекламе без его согласия. Однако многое зависит от реакции самого публичного лица: если он не считает свои права нарушенными, использование его образа остаётся на его личное усмотрение, поскольку речь идёт о личных неимущественных правах.

Deepfake Nostalgie

Отдельный и особенно чувствительный пласт — дипфейки, связанные с так называемым «цифровым воскрешением». Речь идёт о технологиях, которые с помощью искусственного интеллекта воспроизводят образы умерших людей, создавая видео, где они оживают, улыбаются и говорят. В Казахстане уже появились резонансные случаи, когда такие ролики создавались без согласия родственников погибших, что поставило вопрос не только о правовом регулировании подобных дипфейков, но и об этических границах использования образов умерших людей.

 «Эта программа не запрещена в Казахстане: у нас нет запрещённых ИИ-приложений, системы лишь делятся по уровням риска. При этом важно понимать, что права человека не прекращаются с его смертью — близкие могут защищать право на изображение и частную жизнь. Использование образа умершего требует согласия родственников. Государство не запрещает цифровое воскрешение как таковое, но конкретные сервисы или услуги могут быть признаны незаконными, если нарушают эти права. Пока практика складывается именно так», — объясняет Биржанова.

Какая ответственность наступает за создание дипфейков?

Биржанова напоминает, что производители должны предупреждать аудиторию о том, что контент сгенерирован искусственным интеллектом.

 «Это новая статья, которая появилась в Административном кодексе. С одной стороны, у нас есть закон “Об искусственном интеллекте” — он устанавливает обязанность маркировать продукты и объекты, созданные с использованием ИИ. С другой — норма Административного кодекса уточняет: при такой маркировке пользователю должно быть понятно, что перед ним именно сгенерированный контент. Но есть и вторая часть этой статьи. Она касается ситуаций, когда ИИ-контент используется уже с нарушением прав — для манипуляций, призывов, причинения вреда здоровью. Например, когда с помощью ИИ распространяют ложную информацию о лечении, лекарствах или “чудесном выздоровлении” конкретного человека. В таких случаях предусмотрена более серьёзная ответственность и более высокий штраф», — добавляет Биржанова.

Она говорит, что если человек сталкивается с дипфейком, который нарушает его права, у него есть два механизма защиты. Во-первых, если нарушение касается лично его — например, используется его образ, — он может обратиться за защитой прав в гражданском порядке. Во-вторых, предусмотрен административный механизм: можно подать обращение в уполномоченный орган, который рассматривает такие дела и составляет протоколы об административных правонарушениях. Предполагается, что обращаться нужно будет в Министерство искусственного интеллекта и цифрового развития — либо в целом, либо в специализированное подразделение, указав, что на конкретном сайте используется ИИ с нарушением закона.

Этот вебинар состоялся в рамках регионального проекта «Повышение устойчивости аудитории через достоверные истории (CARAVAN)», финансируемого Европейским Союзом и реализуемого Internews.

 

Источник: Newreporter.org