В марте 2025 года Конституционный суд Республики Беларусь поддержал инициативу урегулировать сферу искусственного интеллекта, подчеркнув необходимость комплексного и системного подхода.
К ключевым обозначенным проблемам относят рост фейков и дезинформации, развитие дипфейков, избыточный сбор и незаконный оборот персональных данных.
При этом ИИ помогает в работе – он ускоряет создание рекламных креативов, автоматизирует обработку документов, облегчает аналитические задачи, улучшает сервисы поддержки клиентов, помогает в обучении и как инструмент может быть полезен во многих других направлениях.
На сегодняшний день в Беларуси нет полноценного регулирования технологии ИИ. Упоминание об ИИ мы можем найти в Декрете № 8 «О развитии цифровой экономики», который разрешает резидентам Парка высоких технологий заниматься разработкой и внедрением ИИ. Также Межпарламентской Ассамблеей СНГ был принят модельный закон «О технологиях искусственного интеллекта», направленный на формирование общей терминологии и единых принципов использования ИИ в странах Содружества.
Полагаем, что этот модельный закон может стать основой для разработки национального регулирования технологии ИИ в странах-участницах СНГ.
Рассмотрим основные возможные тенденции в регулировании ИИ в Беларуси.
Маркировка контента, созданного ИИ
Международная практика уже движется в сторону обязательной маркировки материалов, созданных с использованием искусственного интеллекта: в ряде стран внедряются машиночитаемые метаданные, специальные водяные знаки и человекочитаемые пометки о применении ИИ.
Полагаем, что в будущем аналогичный подход может быть реализован и в Беларуси, где такие требования помогут повысить прозрачность цифрового контента и упростить его идентификацию.
Разработчикам, создающим генеративные модели или использующим их в коммерческих сервисах, потребуется внедрение систем отслеживания и пометки контента. Это может создать дополнительные затраты и усложнить процессы, но одновременно укрепит доверие пользователей и повысит соответствие продуктов международным стандартам.
Классификация систем ИИ по уровням риска
Такой подход позволяет разделять системы на группы в зависимости от того, какой потенциальный вред они могут нанести.
Согласно мировым стандартам, категория недопустимого риска может относиться к решениям, которые нарушают права граждан или угрожают безопасности, например системы массового распознавания лиц в общественных местах или алгоритмы, предназначенные для вредоносной киберактивности. Системы высокого риска будут относиться к тому, что используются в критически важных сферах (медицина, энергетика, транспорт и другое). А решения низкого риска (такие как бытовые чат-боты и голосовые ассистенты), вероятно, будут регулироваться минимально, чтобы не препятствовать развитию и внедрению технологии.
Для компаний такая классификация будет означать необходимость заранее оценивать собственные решения и прогнозировать, какие требования к ним могут предъявляться. Разработчикам медицинских продуктов на основе ИИ, например, придется учитывать дополнительные проверки, требования к качеству данных и ответственность за ошибки.
Обязательные оценки воздействия
Еще одно вероятное направление регулирования – введение обязательной оценки воздействия ИИ до его запуска.
Такой подход уже используется в ЕС и других странах, где важно учитывать, как алгоритмы влияют на людей, безопасность и общественные процессы.
В рамках оценки будут проверяться возможная предвзятость моделей, риски конфиденциальности, уязвимости безопасности и другие потенциальные последствия для пользователей. После внедрения системы может понадобиться регулярный мониторинг и отчетность, чтобы вовремя выявлять проблемы и контролировать работу алгоритмов.
Для IT-бизнеса это означает появление новых процедур комплаенса. Компании должны будут развивать компетенции в области аудита ИИ, документирования процессов разработки, оценки качества данных. Параллельно может сформироваться спрос на услуги внешнего аудита и консалтинга, что создаст новые ниши на рынке.
Гарантии при автоматизированном принятии решений
Будущее регулирование наверняка уделит особое внимание вопросам автоматизированного принятия решений. В банковском, страховом и e-commerce секторах такие решения уже играют значительную роль, и государство, скорее всего, потребует обеспечения прав граждан на информирование, объяснение и оспаривание результатов обработки.
Пользователь должен будет знать, что решение принималось не человеком, а алгоритмом.
При необходимости у пользователя должна быть возможность запросить разъяснение логики работы модели и добиться пересмотра результата с участием специалиста.
Прозрачность и раскрытие данных обучения
Во всем мире остается важным вопрос о том, на каких данных обучаются модели ИИ. Беларусь, скорее всего, также будет двигаться в сторону большей прозрачности в этой сфере.
Разработчиков могут обязать указывать, какие типы данных они использовали, как эти данные собирались и какие меры принимались для исключения незаконного или защищенного контента.
Такие требования помогут сделать работу разработчиков более понятной и снизить риск нарушений в том числе, связанных с авторскими правами.
Бизнесу необходимо будет более тщательного вести внутреннюю документацию. Это предполагает также стремление к балансу между сохранением коммерческой тайны и выполнением требований регуляторов. Однако в долгосрочной перспективе повышение прозрачности может укрепить доверие к белорусским продуктам и упростить сотрудничество с зарубежными партнерами.
Дополнительные меры регулирования
Большой потенциал имеет просветительская деятельность: государство может стимулировать обучающие программы для граждан и компаний, чтобы повысить цифровую грамотность и обеспечить ответственное использование ИИ.
Наконец, Беларусь, скорее всего, будет стремиться к сближению с международными стандартами. Стремление к гармонизации уже видно в участии страны в разработке модельного закона СНГ.
В ближайшем будущем, скорее всего, мы будем наблюдать поступательное регулирование использования технологии ИИ, как это происходило, например, с технологией блокчейн, защитой персональных данных.
Можно предположить, что новые правила будут сочетать защиту прав граждан, прозрачность работы технологий и ответственность разработчиков. Регулирование сферы применения технологии ИИ будет тесно связано с защитой персональных данных, авторским правом, с целью обеспечить этичное использование ИИ и повысить доверие к создаваемым с использованием этой технологии цифровым сервисам.
Авторы: Людмила Епихова (юрист REVERA), Артем Хандрико (Ассоциированный партнер, исполнительный директор REVERA Belarus, руководитель практики IT | IP)