Создано сегодня в 10:26
В СФ объяснили, как нужно контролировать применение искусственного интеллекта
Фото: Pogiba Alexandra/ news.ru/ Global Look Press
В условиях, когда искусственный интеллект уже применяется в образовании, медицине, финансах и государственных сервисах, важно продумать стратегию, как минимизировать риски при использовании таких технологий, заявил «СенатИнформ» замглавы Совета по развитию цифровой экономики при СФ, первый зампред Комитета верхней палаты по конституционному законодательству и госстроительству Артём Шейкин.
Ранее замглавы Минцифры Александр Шойтов на форуме «ИИ: режим доверия» заявил, что искусственный интеллект в России должен быть подвержен цензуре. Ограничения должны касаться как вводимых пользователями данных, так и ответов системы. «У искусственного интеллекта на входе и на выходе должны стоять цензуры, которые запрещают определенные запросы, вопросы», - сказал Шойтов.
Комментируя эту идею, сенатор Шейкин отметил, что среди проблем, которые могут возникать при использовании ИИ, - генерация противоправного контента, вредные или опасные инструкции, манипулятивные ответы, создание дипфейков и другие сценарии, которые могут причинить вред пользователям. Поэтому, безусловно, ИИ следует контролировать.
Артём Шейкин. Фото: Парламентский фотоархив/ Пресс-служба СФ
Но контроль должен быть точным и соразмерным. Более правильный подход — это фильтрация заведомо опасных запросов, маркировка синтетического контента, ограничение генерации явно противоправных материалов
Артём Шейкин, первый зампред Комитета СФ по конституционному законодательству и госстроительству
Если речь идёт, например, о чат-ботах, необходимо предусматривать возможность переключения на живого специалиста, считает парламентарий. Контроль содержания запросов и ответов должен строиться на нескольких уровнях: техническом, организационном и правовом. Это встроенные фильтры для заведомо опасных тем и сценариев, правила для платформ и разработчиков, которые обязаны отслеживать злоупотребления и быстро реагировать на инциденты, чёткие правовые ограничения для использования ИИ в противоправных целях, что особенно актуально в контексте борьбы с мошенничеством, дискриминацией, распространением незаконного контента и манипуляций.
При этом важно не забывать о балансе, подчеркнул Артём Шейкин. Он напомнил, что Президент уже поручил сформировать национальный план внедрения ИИ к 2030 году. Задача государства состоит не в том, чтобы затормозить технологию, а в том, чтобы обеспечить её безопасное и доверенное внедрение во всех ключевых сферах.
В НИУ «Высшая школа экономики» прогнозируют, что к 2027 году россияне смогут передать искусственному интеллекту больше трети своих рабочих задач. При этом речь идёт не о полной замене сотрудников, а о перераспределении функций.
Председатель Совета Федерации Валентина Матвиенко отмечала, что нужно совершенствовать законодательство для борьбы с использованием ИИ в противоправных целях.





