Создано сегодня в 18:58
В СФ рассказали, нужна ли в России этическая экспертиза для ИИ
Фото: Василий Кузьмичёнок/ Агентство городских новостей «Москва»
В Китае выпустили руководство по проведению этической экспертизы и обслуживанию технологий искусственного интеллекта (ИИ). Согласно документу, при экспертизе нейросетей уделят внимание благополучию человека, обеспечению беспристрастности, контролируемости и надёжности.
Новые нормы разработаны Министерством промышленности и информатизации КНР и ещё девятью ведомствами. Эксперты будут оценивать критерии отбора обучающих данных для ИИ, обоснованность алгоритма, модели и системного дизайна, меры по предотвращению предвзятости и дискриминации, пишет «Коммерсант». Отмечается необходимость открытого доступа к наборам данных для проведения этической экспертизы ИИ и усиления управления рисками. Также говорится о необходимости продвижения продуктов и услуг ИИ, соответствующих научно-технической этике.
Появление таких документов — закономерный этап развития подхода к регулированию новых технологий, сказал «СенатИнформ» замглавы Совета по развитию цифровой экономики при СФ, первый зампред Комитета верхней палаты по конституционному законодательству и госстроительству Артём Шейкин. Искусственный интеллект уже широко используется в самых разных сферах — от финансов и медицины до образования и государственных услуг. При таком масштабе без понятных правил возникает множество рисков. По словам сенатора, идея внедрения аналогичного подхода в России выглядит обоснованной.
Артём Шейкин. Фото: Парламентский фотоархив/ Пресс-служба СФ
При этом важно отметить, что у нас уже заложена определённая основа: действует Кодекс этики в сфере искусственного интеллекта, а также ведётся работа над законопроектом о регулировании ИИ, который должен сформировать рамочный каркас для всей отрасли
Артём Шейкин, первый зампред Комитета СФ по конституционному законодательству и госстроительству
Именно на этой базе логично выстраивать дальнейшее регулирование — последовательно, без избыточных ограничений, но с акцентом на безопасность, прозрачность и доверие к технологиям, подчеркнул сенатор. Он обратил внимание, что при регулировании нужно учитывать качество и происхождение данных, на которых обучаются модели. Второй ключевой момент — прозрачность алгоритмов: пользователь и регулятор должны понимать, как принимаются решения, особенно если они затрагивают права человека. Третье — это управляемость систем, то есть возможность контроля и вмешательства человека в критических ситуациях.
При этом важно соблюсти баланс. Нужны базовые требования и стандарты, которые обеспечат безопасность и доверие, но избыточное регулирование может затормозить развитие отрасли. Поэтому оптимальным решением могла бы стать поэтапная модель создания такого руководства. Сначала надо сформировать рекомендации и стандарты для ключевых отраслей, затем — более точечно закрепить требования для систем повышенного риска. «Фактически речь идёт о формировании «правил игры» для ИИ, — сказал Артём Шейкин. — И чем раньше они будут выстроены, тем проще будет избежать системных проблем в будущем и обеспечить доверие к технологиям со стороны общества».
Ранее в СФ назвали развитие ИИ ключевым направлением научно-технического прогресса. По прогнозам, мировые расходы на ИИ в 2026 году вырастут на 44% по сравнению с 2025-м, а к 2027 году превысят 3,3 трлн долларов США.
Председатель Совета Федерации Валентина Матвиенко подчёркивала, что России нужны законы для борьбы с использованием ИИ в противоправных целях. Она обратила внимание, что появляются новые виды мошенничества, в которых используется искусственный интеллект.
По словам сенатора Владимира Кожина, сейчас в нашей стране нет официального определения ИИ в законе, что затрудняет поддержку стартапов, регулирование отрасли и контроль за безопасностью технологий.





