Некоторые риски, которые возникают при использовании генеративного ИИ в организациях:
- Разглашение конфиденциальной информации. 5 Генеративные инструменты ИИ могут сохранять запросы пользователей и обучаться на их основе. 3 Если пользователи используют конфиденциальную информацию при формулировании запроса, конфиденциальность может быть утрачена. 3
- Неясное владение. 5 При использовании ИИ для создания различных произведений остаётся спорным вопрос о том, кому такие произведения принадлежат. 5
- Несоблюдение обязательных требований законодательства. 5 Системы генеративного искусственного интеллекта могут выдавать некорректные суждения, основываясь, например, на расовой принадлежности граждан. 5 Также инновационные технологии ИИ могут нарушать закон о защите персональных данных и других законов, за что компания может быть привлечена к ответственности. 5
- Кибербезопасность. 15 Злоумышленники могут задействовать ИИ с целью создания ложной информации, проведения фишинговых атак и разработки вредоносного программного кода. 5
- Неточные ответы. 5 Одним из наиболее значимых рисков при использовании генеративного ИИ является тенденция предоставлять неверную, хотя на первый взгляд правдоподобную, информацию. 5
- Проблемы с точностью. 2 Системы ИИ могут давать сфабрикованные ответы, что способствует появлению исков против компаний, чьи чат-боты генерируют клевету. 2
- Устойчивость. 2 Риски связаны в том числе со значительным потреблением электроэнергии системами ИИ. 2
Чтобы минимизировать риски, организациям рекомендуется изучать пользовательское соглашение нейросети, обучать сотрудников, вносить изменения в локальные акты, договоры, разрабатывать политику приемлемого использования и т. д.. 5