Kaspersky разработал кодекс этики ИИ в сфере кибербезопасности

В Kaspersky разработали 6 принципов по этичному использованию искусственного интеллекта в индустрии безопасности.

Искусственный интеллект стремительно развивается и постепенно внедряется во все сферы нашей жизни. Конечно, ИИ-системы не обошли стороной и индустрию кибербезопасности. Многие международные организации, как, например, ЮНЕСКО, уже разработали общие принципы этики ИИ. Но более конкретные руководства для области кибербезопасности пока не стали общепринятыми.

Чтобы применять искусственный интеллект в кибербезопасности без негативных последствий, «Лаборатория Касперского» предлагает принять Этические принципы ИИ (AI ethical principles). Они пока еще требуют обсуждений и уточнений, но тем не менее компания уже работает по ним. Давайте рассмотрим краткую версию данного кодекса.

Доступность и объяснимость

Пользователь имеет право знать, что компания, с которой он взаимодействует, использует ИИ, а также быть в курсе, каким образом искусственный интеллект принимает те или иные решения. В связи с этим необходимо разрабатывать системы ИИ, работу которых можно интерпретировать и развернуто объяснить, а также внедрять необходимые предосторожности и защитные меры, чтобы искусственный интеллект генерировал корректные результаты.

Безопасность использования

Хакеры могут спровоцировать ИИ на неверное решение и завладеть входными данными. Поэтому разработчики должны в первую очередь обеспечить его устойчивость и безопасность.

Поможет в этом ряд мер, таких как: аудиты безопасности с фокусом на специфику ИИ и red-teaming, минимизацию использования сторонних наборов данных в обучении и многое другое. Рекомендуется также отдавать предпочтение ИИ, основанному на облачных технологиях вместо локально установленных моделей.

Человеческий контроль

Комбинация машинного обучения и человеческого опыта — наиболее подходящий вариант при работе с ИИ. Специалисты могут адаптировать и модифицировать автоматические системы, корректировать их вердикты, чтобы эффективно противостоять новым или сложным киберугрозам.

Конфиденциальность информации

Права человека на защиту личных данных должны строго соблюдаться. На практике в ИБ это может выражаться в целом ряде мер: ограничении типов и количества обрабатываемых данных, использовании псевдонимизации и анонимизации, обеспечении целостности данных, применении технических и организационных мер для защиты данных.

Применение в целях защиты

Технологии ИИ в области кибербезопасности должны применяться исключительно в защитных целях.

Открытость к коммуникации

Справляться с препятствиями, которые возникают при использовании ИИ в целях безопасности, куда продуктивнее сообща. Настроив диалог, компании смогут поделиться друг с другом передовым опытом.

Secute.ru - информационная безопасность