22 января Южная Корея начнет применять новый закон об искусственном интеллекте, став первой страной в мире, которая на законодательном уровне закрепила требования безопасности для высокопроизводительных – так называемых фронтирных – ИИ-систем. Этот шаг заметно выделяет Сеул на фоне других мировых регуляторов, пишет Джи Е Ын в своей статье для Korea Herald.
Как сообщили в Министерстве науки и информационно-коммуникационных технологий, новый закон задуман прежде всего как инструмент поддержки роста национального ИИ-сектора, но при этом он вводит базовые механизмы защиты от рисков, связанных с развитием все более мощных технологий. В ведомстве называют включение обязательных норм безопасности при разработке AI мировым прецедентом.
«Мы не собираемся хвастаться тем, что мы первые в мире, – сказал Ким Гён Ман, заместитель министра по вопросам политики в области искусственного интеллекта в министерстве информационно-коммуникационных технологий, во время встречи с журналистами в Сеуле 20 января. –
Мы подходим к этому с точки зрения глобального консенсуса».
Закон формирует основу для национальной ИИ-политики. Он предусматривает создание центрального координационного органа – Президентского совета по национальной стратегии в области искусственного интеллекта, – а также закладывает правовую базу для Института безопасности ИИ, который будет отвечать за оценку рисков и вопросы доверия к технологиям. Документ также включает широкий пакет мер поддержки: финансирование исследований и разработок, развитие дата-инфраструктуры, подготовку кадров, помощь стартапам и содействие выходу компаний на зарубежные рынки.
Чтобы снизить нагрузку на бизнес на старте, власти намерены ввести переходный период сроком не менее одного года. В это время государство не будет проводить проверки и применять административные санкции, сосредоточившись на консультациях и разъяснительной работе. Для компаний заработает специальный консультационный центр, который поможет определить, подпадают ли их системы под действие закона и какие требования необходимо выполнить. В правительстве не исключают, что этот период может быть продлен в зависимости от развития международных стандартов и рыночной конъюнктуры.
Действие закона распространяется только на три категории: высокорисковые ИИ-системы, требования безопасности для высокопроизводительного ИИ и нормы прозрачности для генеративных моделей.
Под «высокорисковыми» понимаются полностью автономные системы, применяемые в критически важных секторах – энергетике, транспорте и финансах, где решения без участия человека могут напрямую влиять на безопасность и права граждан. Сейчас, по оценке властей, таких сервисов внутри страны нет, однако в будущем под эти критерии могут попасть, например, беспилотные автомобили четвертого уровня автономности и выше.
Ключевое отличие корейского подхода от европейского заключается в определении «высокопроизводительного ИИ». В ЕС акцент сделан на сферы применения – здравоохранение, подбор персонала, правоохранительную деятельность. В Южной Корее же используют технические параметры, включая объем вычислений при обучении моделей. В результате под требования безопасности попадает крайне ограниченный круг наиболее продвинутых систем.
На данный момент правительство считает, что ни одна существующая модель – ни в самой Корее, ни за рубежом – пока не соответствует этим пороговым значениям. Для сравнения, Евросоюз внедряет собственное регулирование поэтапно, с длительными переходными периодами по отдельным положениям.
Сам механизм принуждения в корейском законе выстроен максимально мягко. Уголовной ответственности он не предусматривает. Власти делают ставку на предписания об устранении нарушений, а штрафы – до 30 млн вон (около 20,3 тыс. долларов) – применяются только в случае игнорирования этих требований. Такой подход, подчеркивают в правительстве, ориентирован не на наказание, а на соблюдение правил.
Требования прозрачности для генеративного ИИ во многом перекликаются с европейскими, но сформулированы более узко. Контент, который может быть принят за реальный (например, дипфейк-видео, изображения или аудиозаписи), должен сопровождаться явной маркировкой. Для остальных типов материалов допускается «невидимая» маркировка через метаданные. При этом личное и некоммерческое использование генеративных моделей выводится из-под регулирования.
Ким подчеркнул, что цель закона – не сдерживать развитие технологий, а создать базовый регуляторный каркас с учетом общественных опасений.
«Задача не в том, чтобы остановить развитие ИИ через регулирование. Мы хотим, чтобы люди могли пользоваться этими технологиями с доверием», – отметил он.
По его словам, закон следует воспринимать как отправную точку, а не как завершенную конструкцию.
«Он был принят не потому, что идеален, а потому, что нам нужна основа для дальнейшей работы», – сказал замминистра.
Отдельное внимание власти обещают уделить малому бизнесу и стартапам.
«Мы понимаем, что у небольших компаний есть свои опасения. По мере возникновения проблем мы будем решать их совместно через центр поддержки», – заверил Ким.
Перевод Максима Крылова
Иллюстрация: «Евразия сегодня», Leonardo.ai