Создано сегодня в 10:25
Западные эксперты предложили поставить на паузу разработку сверхразума
 
			Фото: Roman Naumov/ URA.RU/ Global Look Press
Ряд западных знаменитостей и экспертов призывают ввести мораторий на создание суперинтеллекта. Соответствующая петиция, под которой собирают подписи, создана по инициативе некоммерческой организации, которая с 2023 года призывает ограничить развитие мощных систем искусственного интеллекта (ИИ). Там бьют тревогу, утверждая, что сверхразум может представлять угрозу человечеству. Замглавы Совета по развитию цифровой экономики при СФ, первый зампред Комитета верхней палаты по конституционному законодательству и госстроительству Артём Шейкин в беседе с «СенатИнформ» отметил, что идея о введении моратория, скорее всего, связана с необходимостью выработки согласованных международных правил в этой сфере.
Как заявляют присоединившиеся к петиции, крайне рискованно разрабатывать механизм, который люди не смогут контролировать и понимать, пишет «Weekend». А истинный прогресс, по их словам, определяется не скоростью, а мудростью управления технологиями, которые должны служить человечеству.
Сенатор Шейкин подчеркнул, что исследования в области сверхразумных систем теоретически могут принести значимую пользу: ускорить открытие новых лекарств, оптимизировать сложные научно-технические задачи, помочь в исследовании космоса и океана.
 
			Артём Шейкин. Фото: Парламентский фотоархив/ Пресс-служба СФ
Но без чётких этических и правовых рамок растёт риск утраты предсказуемости и управляемости таких систем. Уже сейчас наблюдаются случаи, когда сложные модели ведут себя непредсказуемо, и это указывает на необходимость более строгого контроля и верификации прежде, чем двигаться к системам, превосходящим человеческие возможности
Артём Шейкин, первый зампред Комитета СФ по конституционному законодательству и госстроительству
Идея временной паузы рассматривается как возможная мера предосторожности для выработки согласованных международных правил, отметил парламентарий. Речь может идти о стандартах безопасности, независимой оценке и аудите моделей, процедурах верификации и ограничениях на создание систем, способных принимать решения вне заданных рамок. Шейкин отметил, что некоторые государства, включая Россию, заявляют о поддержке ответственного развития ИИ с приоритетом человеческих ценностей и общественной безопасности. «В этом подходе предполагается, что сверхразумные системы, если они будут разрабатываться, должны оставаться под прозрачным и подотчётным контролем, включающим не только технические, но этические и политические механизмы», — сказал сенатор.
Как писал «СенатИнформ», в России создадут ассоциацию для производства гуманоидных роботов. Планируют привлечь финансирование в размере от 2,4 млрд до 4 млрд рублей, а поступать оно будет от частных инвесторов и фондов.
В СФ считают, что факультеты искусственного интеллекта (ИИ) можно открыть в ведущих российских вузах, и они будут пользоваться популярностью, поскольку специалисты в сфере ИИ всё более востребованы на рынке труда.
Председатель Совета Федерации Валентина Матвиенко говорила о том, что сенаторы работают над совершенствованием законодательства в сфере искусственного интеллекта.





