Дата публикации: 24.11.2025 15:21
Закон об искусственном интеллекте в Казахстане: основные положения и ответственность
С 18 января 2026 года в Казахстане вступает в силу первый в стране закон об искусственном интеллекте (ИИ). Документ подписали 17 ноября 2025 года. Закон регулирует использование ИИ наравне с отдельными поправками к другим нормативным актам в области цифровизации и административной ответственности.
Что важно знать: Казахстан стал второй после Европейского союза страной, принявшей отдельный закон об искусственном интеллекте. Новый пакет регулирования вводит термины, нормы по авторскому праву, уровни риска и административную ответственность для владельцев ИИ-систем.
Основные термины
В законе закреплены базовые определения:
- Искусственный интеллект — способность программ имитировать когнитивные функции человека и добиваться результатов, сопоставимых или превосходящих человеческую интеллектуальную деятельность.
- Модель искусственного интеллекта — программный продукт, который учится на накопленном опыте, адаптируется и оптимизирует процесс своей деятельности.
- Обучение модели — обработка данных для совершенствования способностей ИИ выполнять интеллектуальные задачи.
- Библиотека данных — структурированные или сгруппированные данные, пригодные для обучения моделей.
- Система ИИ — объект информатизации на базе одной или нескольких моделей ИИ, а также пользователи, работающие с ней.
- Синтетические результаты — изображения, видео, аудио, тексты, полностью или частично сгенерированные ИИ.
Авторское право: когда оно возникает
Казахстанский закон об искусственном интеллекте (статья 23) определяет, что:
- Авторское право на произведения, созданные с использованием ИИ, охраняется, только если в процессе был творческий вклад человека.
- Текстовые запросы (промпты) пользователя, если они результат интеллектуальной деятельности, считаются объектами авторского права.
- Использование произведений для обучения моделей не считается свободным использованием для науки или образования. Такое обучение возможно лишь при отсутствии машиночитаемого запрета со стороны автора или правообладателя.
Таким образом, конечные права зависят от характера участия человека — пользователь считается автором промпта и полученного результата при наличии собственного творческого вклада, а разработчики ИИ — правообладателями системы и обучающего контента, если запрет не установлен.
Классификация систем ИИ по рискам
Системы искусственного интеллекта делятся по степени риска:
- Минимальный риск — сбои малозначимы для пользователей.
- Средний риск — сбои могут причинить моральный или материальный вред.
- Высокий риск — остановка или ошибочная работа такого ИИ потенциально вызывает угрозы для общества, экономики или безопасности страны. Эти системы приравниваются к государственным по требованиям информационной безопасности.
Прямые запреты для ИИ-систем
Запрещается создание и эксплуатация ИИ-систем, которые:
- Манипулируют поведением людей против их воли;
- Используют уязвимость из-за возраста, инвалидности или социального положения для причинения вреда;
- Оценивают или классифицируют людей на основании личных характеристик в целях дискриминации;
- Нарушают законодательство о персональных данных;
- Определяют эмоции без согласия;
- Создают или распространяют запрещённые законом результаты ИИ-деятельности.
В отличие от Евросоюза, где удалённая биометрическая идентификация в общественных местах запрещена, в Казахстане она разрешена для ИИ-систем высокого риска, которые приравниваются к государственным.
Использование полностью автономных ИИ-систем
В окончательной редакции закона запрещение полностью автономных систем ИИ исключили. Теперь их разрешено использовать для производственных, медицинских и иных задач без необходимости постоянного подключения к интернету. Это снижает зависимость от внешних факторов и позволяет укрепить технологическую независимость.
Обязанность маркировки и ответственность за дипфейки
С 2026 года владельцы систем ИИ обязаны информировать пользователей и маркировать созданный ИИ-контент. За отсутствие маркировки или распространение синтетических результатов, способных ввести в заблуждение, предусмотрены штрафы:
- Физические лица — 15 МРП (месячных расчётных показателей);
- Малый бизнес/НКО — 20 МРП;
- Средний бизнес — 30 МРП;
- Крупный бизнес — 100 МРП.
Ответственность наступает для собственников/владельцев ИИ-систем по статье 641-1 КоАП (Кодекса об административных правонарушениях). Для масс-медиа и интернет-ресурсов, не соблюдающих правила маркировки, предусмотрены отдельные штрафы вплоть до 100 МРП, а в случае заведомо ложной информации — уголовная ответственность.
Проблемы правоприменения
Обязанность предотвращать распространение фейкового контента возлагается на собственников систем ИИ, но в случаях, когда владелец ИИ находится за рубежом, исполнение требований может быть затруднено.
Контекст
Регулирование ИИ нацелено на развитие технологий и укрепление технологического суверенитета, а не на ограничение высокотехнологического сектора. Ожидается, что закон будут дорабатывать, чтобы учитывать быстро меняющиеся реалии цифрового мира.
Больше о защите интеллектуальной собственности читайте в нашем материале: Токаев подписал закон о реформе системы интеллектуальных прав в Казахстане.