Для регулирования искусственного интеллекта (ИИ) можно предпринять следующие меры:
- Предоставлять регуляторам или экспертам код модели и обучающий набор данных для проверки. www.kaspersky.ru
- Доказывать корректность обучающего набора данных, в том числе отсутствие предвзятости, чистоту авторских прав. www.kaspersky.ru
- Маркировать работу ИИ и её результаты. www.kaspersky.ru Например, помечать фото и видео, которые создаются с помощью генеративных моделей, чтобы не вводить в заблуждение людей. trends.rbc.ru
- Корректировать модель и обучающий набор данных. www.kaspersky.ru Например, удалять из исходных данных людей с определённым цветом кожи или подавлять рецепты взрывчатки на выходе модели. www.kaspersky.ru
- Тестировать ИИ на «враждебных» данных и корректировать его поведение при необходимости. www.kaspersky.ru
- Контролировать, кто и зачем использует конкретный ИИ. www.kaspersky.ru
- Тренировать ИИ большого размера или в определённой сфере, только получив разрешение от регулятора. www.kaspersky.ru
- Доказывать, что ИИ безопасно применять для решения конкретной задачи. www.kaspersky.ru Например, проводить обширные испытания, получать разрешение регулятора и только потом выпускать продукт в использование. www.kaspersky.ru
Меры принуждения могут варьироваться от штрафа за нарушение ИИ-норм до получения лицензий на ведение деятельности в сфере ИИ и уголовной ответственности за нарушения законодательства. www.kaspersky.ru
В России на данный момент нет единого документа, который бы полноценно регулировал сферу ИИ, но есть несколько отдельных норм и рекомендаций. trends.rbc.ru Например, закон №408-ФЗ о регулировании рекомендательных технологий обязывает владельцев сайтов и приложений раскрывать, какие данные используются для работы рекомендательных систем, откуда их взяли, а также уведомлять пользователей о работе таких систем. trends.rbc.ru