Журнал об IT-бизнесе, технологиях и цифровой трансформации

В США разработали 10 принципов, чтобы сделать ИИ безопаснее Mail.ru Cloud Solutions
Mail.ru Cloud Solutions
  • 13 января
  • Новости

В США разработали 10 принципов, чтобы сделать ИИ безопаснее

Популярное
Ликбез
Что такое озера данных и зачем там хранят big data
Тренды
Эволюция квантовых вычислений: от гипотез до реальных компьютеров
Бизнес
Защита персональных данных в облаке: как сделать все по закону 152-ФЗ

Департамент политики в сфере науки и технологий Белого дома (OSTP) разработал десять принципов, которых должны придерживаться правительственные учреждения относительно решений в сфере искусственного интеллекта.

Как новые правила регулируют ИИ

Фактически государственные ведомства обязывают в каждом решении, связанном с ИИ, объяснять, как они следуют указанным принципам, и составлять специальный меморандум для OSTP.

Нововведение преследует три основные цели:

  • обеспечить участие общественности;
  • ограничить чрезмерную регулятивную деятельность;
  • содействовать созданию надежного ИИ, который будет честным, прозрачным и безопасным.

OSTP не имеет полномочий отменять решения госорганов, однако, процедура может обеспечить необходимое давление и координацию для соблюдения стандартов.

10 принципов регулирования развития ИИ

  1. Общественное доверие ИИ. Правительство должно продвигать надежные и заслуживающие доверия решения искусственного интеллекта. Так должен быть сформирован положительный публичный образ ИИ.
  2. Общественное участие. Общественность должна иметь возможность обеспечить обратную связь на всех этапах процесса создания правил и норм, касающихся ИИ.
  3. Научная целостность и качество информации. Политические решения должны основываться на науке, учитывать научные достижения и подходы, в том числе по качеству исходных данных.
  4. Оценка и управление рисками. При вынесении решений нужно хорошо понимать, какие риски снижаются или убираются, а какие создаются.
  5. Преимущества и затраты. Нужно взвешивать социальное воздействие всех предложенных нормативных актов и последствия от их внедрения.
  6. Гибкость. Любой подход должен быть в состоянии адаптироваться к быстро изменяющимся условиям и развитию технологий.
  7. Справедливость и недискриминация. Каждое применение ИИ должно быть оценено с точки зрения прозрачности принимаемых решений и наличия возможностей для дискриминации.
  8. Раскрытие и прозрачность. Общественность будет доверять ИИ, только если она знает, когда и как он применяется. Значит, нужно явно озвучивать, когда при принятии решений использовался искусственный интеллект, и как именно он работает.
  9. Безопасность и охрана. На всех этапах разработки и применения ИИ должны использоваться надежные инструменты и техники защиты с фокусом на безопасность данных.
  10. Межведомственная координация. Разные ведомства должны работать совместно, чтобы быть последовательными и предсказуемыми в политике, связанной с ИИ, и обмениваться лучшими практиками.

С чем связаны изменения?

Еще два года назад в Белом доме утверждали, что минимизация государственного вмешательства — лучший способ помочь технологии процветать. Но поскольку все больше и больше правительств по всему миру, в том числе в Китае, вкладывают значительные средства в ИИ, США почувствовали давление и последовали их примеру.

Если все сделано правильно, изменения будут стимулировать госорганы нанимать больше персонала с техническими знаниями, создавать определения и стандарты для надежного ИИ и вести к более продуманному регулированию в целом. В худшем случае стандарты станут бюрократической препоной для развития искусственного интеллекта.

Ссылка скопирована!

Что еще почитать про ИТ-бизнес