В США разработали 10 принципов, чтобы сделать ИИ безопаснее
Департамент политики в сфере науки и технологий Белого дома (OSTP) разработал десять принципов, которых должны придерживаться правительственные учреждения относительно решений в сфере искусственного интеллекта.
Как новые правила регулируют ИИ
Фактически государственные ведомства обязывают в каждом решении, связанном с ИИ, объяснять, как они следуют указанным принципам, и составлять специальный меморандум для OSTP.
Нововведение преследует три основные цели:
- обеспечить участие общественности;
- ограничить чрезмерную регулятивную деятельность;
- содействовать созданию надежного ИИ, который будет честным, прозрачным и безопасным.
OSTP не имеет полномочий отменять решения госорганов, однако, процедура может обеспечить необходимое давление и координацию для соблюдения стандартов.
10 принципов регулирования развития ИИ
- Общественное доверие ИИ. Правительство должно продвигать надежные и заслуживающие доверия решения искусственного интеллекта. Так должен быть сформирован положительный публичный образ ИИ.
- Общественное участие. Общественность должна иметь возможность обеспечить обратную связь на всех этапах процесса создания правил и норм, касающихся ИИ.
- Научная целостность и качество информации. Политические решения должны основываться на науке, учитывать научные достижения и подходы, в том числе по качеству исходных данных.
- Оценка и управление рисками. При вынесении решений нужно хорошо понимать, какие риски снижаются или убираются, а какие создаются.
- Преимущества и затраты. Нужно взвешивать социальное воздействие всех предложенных нормативных актов и последствия от их внедрения.
- Гибкость. Любой подход должен быть в состоянии адаптироваться к быстро изменяющимся условиям и развитию технологий.
- Справедливость и недискриминация. Каждое применение ИИ должно быть оценено с точки зрения прозрачности принимаемых решений и наличия возможностей для дискриминации.
- Раскрытие и прозрачность. Общественность будет доверять ИИ, только если она знает, когда и как он применяется. Значит, нужно явно озвучивать, когда при принятии решений использовался искусственный интеллект, и как именно он работает.
- Безопасность и охрана. На всех этапах разработки и применения ИИ должны использоваться надежные инструменты и техники защиты с фокусом на безопасность данных.
- Межведомственная координация. Разные ведомства должны работать совместно, чтобы быть последовательными и предсказуемыми в политике, связанной с ИИ, и обмениваться лучшими практиками.
С чем связаны изменения?
Еще два года назад в Белом доме утверждали, что минимизация государственного вмешательства — лучший способ помочь технологии процветать. Но поскольку все больше и больше правительств по всему миру, в том числе в Китае, вкладывают значительные средства в ИИ, США почувствовали давление и последовали их примеру.
Если все сделано правильно, изменения будут стимулировать госорганы нанимать больше персонала с техническими знаниями, создавать определения и стандарты для надежного ИИ и вести к более продуманному регулированию в целом. В худшем случае стандарты станут бюрократической препоной для развития искусственного интеллекта.