Закон для нейросетей

Минцифры РФ разместило на общественное обсуждение законопроект о регулировании искусственного интеллекта в России. Сообщается, что документ планируется ввести в действие с 1 сентября 2027 года. Текст документа сразу вызвал неоднозначную реакцию, прежде всего, в ИТ-сообществе. «Континент Сибирь» обсудил вместе с экспертами, какие положения законопроекта действительно полезны, а что требует доработки с привлечением не только юристов, но и специалистов в области информационных технологий, а также гуманитариев.

Проект федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в РФ» планируется ввести в действие с 1 сентября 2027 года. По информации Минцифры, законопроект вводит рискориентированный подход к регулированию ИИ. Требования к таким системам будут зависеть от степени их влияния на жизнь человека и общество. Документ также предусматривает введение понятий суверенной, национальной и доверенной моделей ИИ.

Согласно проекту, разработчики моделей ИИ должны будут «исключать дискриминационные алгоритмы и блокировать создание противоправного контента». Операторы систем ИИ должны тестировать такие системы на безопасность и информировать пользователей об ограничениях.

Отдельное положение касается маркировки контента. Согласно проекту закона, «все созданные с помощью ИИ аудиовизуальные материалы должны содержать специальную маркировку — предупреждение». Крупные соцсети, как сообщили в министерстве, будут обязаны проверять наличие такой маркировки, а при ее отсутствии самостоятельно маркировать или удалять контент.

Обсуждение проекта на портале нормативных правовых актов продлится до 15 апреля.

Ирина Травина, президент новосибирской ассоциации «Сибакадемсофт»:

— Очевидно, что нейросети и другие решения в области искусственного интеллекта сегодня оказывают существенное влияние на экономику и социум, поэтому само желание государства установить для них определенные нормативные рамки является вполне логичным. Вопрос в том, насколько жесткими должны быть эти границы, и, как мне кажется, тут не может быть единого универсального ответа.

Если мы говорим о таких областях, как работа органов государственного управления или школьное образование, то я полностью согласна с тем, что применение искусственного интеллекта там должно быть строго регламентировано. И кстати, в этом случае применение норм, вокруг которых сегодня разворачивается дискуссия, тоже является вполне достижимым. Пусть знания и возможности ИИ для школьников будут ограничены рамками утвержденной образовательной программы, в которую изначально заложены те самые традиционные духовно-нравственные ценности, которым должна соответствовать обучающая модель. А в случае с работой госорганов сертификация софта в ФСБ и ФСТЭК может быть оправданной.

Но если мы говорим об использовании искусственного интеллекта в исследовательских целях или в создании коммерческих решений для бизнеса — такое жесткое регламентирование выглядит совсем не так оправданно и полезно. Говоря проще, мы не сможем создавать конкурентный на глобальных рынках продукт и вести передовые исследования, если сами запретим себе использование передовых достижений в этой области. А все эти жесткие ограничения ведут именно к этому.

Вячеслав Ананьев, руководитель компании «Дата Ист»:

— Я бы к этому законопроекту очень серьезно не относился. Мне кажется, что в лучшем случае это можно считать проверкой общественного мнения. А в худшем случае это очередной закон, который непонятно что регулирует и непонятно какую цель преследует.

Один такой уже есть — это закон о защите персональных данных, который в своих формулировках настолько не конкретен, что открывает дорогу массе злоупотреблений, причем как умышленных, так и совершенно случайных. Именно потому, что в нем такие формулировки.

Единственный плюс, который я увидел в нынешнем законопроекте, — это то, что появились наконец-то достаточно аргументированные определения некоторых терминов. Кто такой разработчик, кто оператор, что из себя представляет искусственный интеллект вообще? То есть мы сделали первый шаг к юридической субъектности искусственного интеллекта.

Но шаг пока получился несколько неуверенный, так скажем. С некоторыми определениями можно спорить. Тут требуется, наверное, больше работа гуманитариев, филологов, философов, в том плане, чтобы эти определения получили четкий, однозначный смысл для всех участников рынка, разработчиков и пользователей.

Что касается положений, ограничивающих деятельность в этой области, — на мой взгляд, ничего нельзя ограничивать ровно до тех пор, пока не доказано, что это нечто может принести какой-то вред конкретному человеку, предприятию, оборудованию или еще чему-то.

Пока вообще все системы сделаны так, что это ассистент человеку, принимающему решение. То есть субъектность человека гарантирована. Он может нажать на кнопку сам, может сказать программе: «Замкни цепь», но это все равно его решение. Нельзя перекладывать на виртуальную сущность ответственность за принятие решения, оно изначально принимается самим человеком.

И у нас уже существуют регламенты, которые эту ответственность определяют, как, например, в медицине решение всегда остается за врачом. И даже если он автоматически поставит диагноз на основе заключения программы, никак не анализируя это заключение, — это его зона ответственности, а не оборудования, которое он использует в своей работе. И так везде.

Поэтому вводить ограничения на применение какого-то вычислительного метода — это не очень разумно и антипрогрессивно вообще. Закон должен вводить юридические понятия всех участников процесса создания и использования технологии, а не рамки для технического прогресса устанавливать. Нам нужно развиваться, стремительно находить безопасные варианты использования искусственного интеллекта, повышать качество управления многими процессами, увеличивать скорость принятия решения. И всему этому может помочь этот новый метод, который сейчас широко используется. Особенно если не мешать работе тех, кто его использует, дополнительными и не очень осмысленными ограничениями.

Евгений Павловский, ведущий научный сотрудник Центра искусственного интеллекта Новосибирского государственного университета:

— Надо рассматривать законопроект с точки зрения долгосрочного развития человека и связанных с этим рисков. В целом видим в нем важное положение: в документе прямо закреплена необходимость оценки применения технологий искусственного интеллекта. Это создает основу для контроля со стороны граждан и экспертного сообщества — за тем, как именно используются такие технологии.

Мы в Центре искусственного интеллекта НГУ также обсудили возможность внесения поправок в текст законопроекта. В частности, предлагается расширить перечень базовых ценностей: наряду с ценностью жизни отдельно закрепить ценность здоровья. Кроме того, важно добавить такие принципы, как справедливость, человекоориентированный подход и ответственность.

Есть предложения и по уточнению круга субъектов, на которых распространяется закон. Речь надо вести не только про федеральные органы исполнительной власти, но и о муниципальном уровне, который также вовлечен в применение технологий искусственного интеллекта. Отдельно предлагается прямо указать граждан — даже в тех случаях, когда они не являются пользователями системы, но получают услуги с ее применением и, соответственно, подпадают под влияние таких решений.

Ключевой, на наш взгляд, является необходимость учитывать не только материальный ущерб, но и гуманитарные, долгосрочные последствия для развития человека и общества. Именно этот аспект требует дополнительного внимания при доработке закона.

Что касается звучащей в интернете критики отдельных положений законопроекта, мы с коллегами не увидели в законе прямых формулировок, обязывающих «заглядывать внутрь черного ящика» нейросети или ограничивать обучение исключительно российскими данными. Однако в нем действительно заложена идея суверенных моделей, которые должны разрабатываться и функционировать в российской юрисдикции.

При этом вопрос контроля за используемыми данными сформулирован достаточно обобщенно. Очевидно, что полный отказ от зарубежных данных может существенно ограничить возможности моделей. В то же время для систем, применяемых в критической инфраструктуре, такие жесткие требования и контроль оправданны.

Важно понимать, что основные риски связаны не столько с самими алгоритмами, сколько с качеством и содержанием данных. Именно в них могут быть заложены искажения, предвзятость или дискриминационные паттерны. Поэтому ключевая задача — обеспечить контроль именно над данными, а не только над моделями.

Иван Бондаренко,  доцент Новосибирского государственного университета:

— Законопроект представляет собой первую серьезную попытку создать комплексную правовую базу для регулирования искусственного интеллекта в нашей стране. И заслуживает внимательного анализа, с точки зрения как его достоинств, так и существенных недостатков, способных затормозить развитие отрасли.

В числе того, что сделано правильно, — документ устанавливает, что извлечение информации из охраняемых авторским правом объектов для формирования наборов данных и обучения моделей ИИ не является нарушением авторских и патентных прав, при условии правомерного получения исходного материала. Без этой нормы разработка любой крупной языковой модели на русскоязычном корпусе текстов была бы юридически невозможна или сопряжена с неприемлемыми правовыми рисками. Аналогичные нормы уже действуют в праве ЕС и Японии.

Заслуживает одобрения и рискориентированный подход, который предполагает дифференцированное регулирование в зависимости от степени автономности системы, характера обрабатываемых данных и масштаба потенциального ущерба. Это позволит избежать избыточного регулирования низкорисковых применений ИИ. А также — право граждан на информирование о применении ИИ при принятии решений, затрагивающих их права и интересы.

Но есть в законопроекте нормы, которые можно отнести к его недостаткам, требующим доработки. Так, статья 7 вводит понятия «суверенной» и «национальной» больших фундаментальных моделей и декларирует их приоритетную поддержку. Критерии суверенности сводятся к территориальному и гражданскому признаку: разработка на территории России, гражданами России, на российских данных. При этом в законопроекте полностью отсутствует правовой режим для открытых моделей и открытых датасетов — несмотря на то, что именно открытая наука сегодня является главным двигателем прогресса в области ИИ.

Это серьезное упущение. Россия — страна с ограниченным парком специализированного вычислительного оборудования (GPU-кластеров), и в этих условиях создание конкурентоспособных фундаментальных моделей силами одной корпорации (даже такой большой, как Сбер или «Яндекс») затруднено и грозит технологическим отставанием. Мировой опыт показывает: наиболее значимые результаты достигаются через консорциумное сотрудничество в рамках открытых проектов.

Открытые модели благодаря прозрачности архитектуры, весов и данных обучения еще и позволяют лучше обеспечить их безопасность. Парадоксально, но именно открытость — а не закрытость — является наиболее надежным инструментом обеспечения доверия к модели. Законопроект же, судя по всему, ориентирован на закрытые корпоративные разработки, что противоречит как интересам безопасности, так и интересам технологического развития страны.

Другие статьи обязывают разработчика модели ИИ «обеспечить безопасность созданной модели, включая исключение функциональных особенностей, способных привести к дискриминации» и накладывают на него ответственность за результат, полученный с использованием ИИ, если он «заведомо знал или должен был знать» о возможности получения такого результата.

Но это фундаментально противоречит самой природе современных генеративных систем. Модель, обученная на корпусе текстов, отражающих все многообразие человеческого опыта — включая его темные стороны, — в принципе не может быть «безопасной» в абсолютном смысле при произвольном использовании.

Уместна следующая аналогия: производитель кухонного ножа не несет уголовной ответственности за то, что его изделие было использовано в качестве орудия преступления. Ответственность несет тот, кто совершил преступление. Применительно к ИИ-системам это означает, что ответственность за противоправное использование модели должна лежать прежде всего на пользователе, а не на разработчике — за исключением случаев, когда разработчик намеренно создавал систему для противоправных целей.

Законопроект обязывает крупные платформы (с суточной аудиторией свыше 100 тысяч пользователей) проверять наличие маркировки в составе распространяемого синтезированного контента и при ее отсутствии либо размещать маркировку, либо удалять материал. Но это требование технически невыполнимо при нынешнем уровне развития технологий детекции. А поскольку это сделать невозможно, то будет либо массовое неправомерное удаление легитимного контента, либо невыполнение норм закона. Мы видим, что происходит в книгоиздании с маркировкой наркотических веществ, если они упомянуты в литературном произведении. А если указанную мной норму законопроекта об ИИ примут, то последствия будут еще масштабнее.

Более реалистичным подходом было бы обязать разработчиков и владельцев сервисов встраивать такие метки в момент создания контента, а не обязанность платформ их детектировать постфактум. Именно в этом направлении движется мировая практика.

Подводя итог, отмечу, что законопроект представляет собой важный шаг к формированию правовой среды для развития ИИ в России. Ряд его положений, прежде всего в части регулирования использования данных для обучения моделей и защиты прав граждан, заслуживает положительной оценки. Однако в нынешнем виде он содержит нормы, способные нанести серьезный ущерб отечественной ИИ-индустрии: неоправданную ответственность разработчиков, игнорирование открытой науки как ключевого инструмента технологического развития, технически неисполнимые требования к платформам. Нужна доработка с привлечением широкого круга экспертов, тогда он действительно сможет создать условия для ускоренного развития искусственного интеллекта в нашей стране.