Рейтинг@Mail.ru
Закон об ИИ должен защитить права граждан и установить ответственность разработчиков - эксперт - Радио Спутник в Крыму, 07.04.2026
Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на
Закон об ИИ должен защитить права граждан и установить ответственность разработчиков - эксперт

Закон должен защитить права граждан и определить ответственность разработчиков

© РИА Новости Крым . © РИА Новости Крым/Сгенерировано ИИ Искусственный интеллектИскусственный интеллект
Искусственный интеллект - РИА Новости, 1920, 07.04.2026
Читать в
TelegramВКонтактеMax
СИМФЕРОПОЛЬ, 7 апр – Радио Спутник в Крыму. Закон об использовании ИИ в России должен не только защитить права граждан и бизнеса, но и определить ответственность как разработчиков, так и пользователей технологий для обеспечения безопасности общества и государства. Об этом в эфире заявил президент национальной Ассоциации цифровой экономики Андрей Неукрытый, отметив, что первый закон в этой области будет рамочным.
На днях стало известно, что в Совете Федерации подготовили законопроект о безопасном использовании искусственного интеллекта. Ранее президент РФ Владимир Путин призвал активнее внедрять ИИ в России.
По словам Неукрытого, отсутствие законопроекта в области искусственного интеллекта позволяет сегодня как разработчикам моделей ИИ, так и пользователям уходить от ответственности, если результат работы машинного разума окажется случайно ошибочным либо будет намеренно использован для обмана людей.
Модели искусственного интеллекта – это технологии, которые для поиска ответа на тот или запрос пользователя обрабатывают огромный массив информации в интернете, не проверяя ее, отметил эксперт.
«

"Нет структуры на проверку достоверности этих данных, именно в самой технологии не заложено. Она просто выдает релевантные данные, которые, по мнению искусственного интеллекта, отвечают этому запросу", – пояснил Неукрытый.

При этом технологически такие процессы вполне поддаются регулированию на этапе создания модели ИИ, а значит должны контролироваться, подчеркнул он.
"В саму модель загружаются определенные данные, и они должны быть сформированы и достоверны", – заметил Неукрытый.
В частности, должна быть предусмотрена определенная фильтрация данных.
«
Например, если мы говорим о медицинской сфере, то выдача ответа на запрос врача к ИИ должна быть сгенерирована на основе той информации, которая собрана исключительно профессиональным медицинским сообществом, а не просто разбросана по сети интернет на различных сайтах частных клиник, сетей аптек и так далее, сказал Неукрытый.
Но нести ответ должен и пользователь, отметил он. То есть результат любых обращений к технологии ИИ, независимо от того, делают его граждане, бизнес или государство, должен проверяться, а если проверки не было, должна наступать ответственность за пагубный результат, добавил Неукрытый.
Это позволит избежать серьезных ошибок в самых разных областях, в том числе уже упомянутой медицине, а также в военной сфере, где искусственный интеллект сегодня используется все больше, подчеркнул эксперт.
«
"Весь спектр решений должен перейти в законодательную плоскость, в юридическую. То есть, мы говорим о риск-ориентированном подходе, чтобы искусственный интеллект не наносил вред гражданам, бизнесу, государству при взаимодействии с ними. А на сегодняшний день ряд чиновников, компаний и бизнесов... перекладывают ошибки, допущенные ими, на искусственный интеллект", – прокомментировал Неукрытый.
Законодательно следует регламентировать и взаимодействие искусственного интеллекта с несовершеннолетними, которые должны быть защищены, а значит, нужны определенные ограничения, отметил эксперт.
Также должна быть регламентирована работа ИИ с учетом прав граждан и обеспечения их безопасности, в том числе защиты персональных данных и информации из сферы личной жизни, имеющихся как на официальных сайтах, так и в соцсетях, добавил он.
«
"Если мы заходим в поисковую систему и делаем запрос о том или ином человеке, нам выдаются результаты выдачи со ссылками на конкретные источники. Это могут быть как социальные сети, так и сайты, и информационные ресурсы. Для искусственного интеллекта аналогичная ситуация: результат должен быть с конкретными ссылками с указанием на первоисточники. И ни в коем случае не подвергать дополнительной синтетической обработке эти данные. И опять же должна быть ответственность социальных сетей", – сказал Неукрытый.
Он указал на важность маркировки контента искусственным интеллектом, что является пока вопросом для обсуждения с точки зрения способов реализации.
Эксперт подчеркнул также, что на сегодняшний день 95% компаний в России, в том числе государственных, используют зарубежные модели искусственного интеллекта, а не отечественные, поскольку последние существенно уступают технологически и не позволяют решать необходимые задачи, так что и в этой части "законодательная база очень сильно отстает от нашей действительности".
Таким образом, по словам Неукрытого, необходимость появления закона, регулирующего работу ИИ в России, давно назрел, как когда-то это стало необходимым в связи с развитием интернета, проникшего во все сферы жизни общества, а потом с цифровизацией, изменившей систему управления, документооборот и многое другое.
Но сразу все необходимое регламентировать не получится – работа будет вестись поступательно, отметил эксперт.
«
"Говорить, что с принятием данного законопроекта у нас решатся все проблемы, будет неверно... Этот законопроект будет рамочным, то есть будет иметь общие черты. А вот в последующие годы после его принятия все будет нормативно регулироваться", – резюмировал он.
Слушайте нас в MAX, Telegram, во Вконтакте и на Rutube. С нами интересно!
 
 
Лента новостей
0
Сначала новыеСначала старые
loader
Онлайн
Заголовок открываемого материала