Мы развиваем искусственный интеллект (ИИ) и внедряем его в наши продукты, чтобы делать жизнь людей более удобной и давать им новые возможности. При этом мы следуем этическим принципам, которые сформулировали исходя из своего опыта создания и применения технологий. Эти принципы задают рамки безопасного развития ИИ, который будет служить во благо людям.
Мы публикуем эти принципы, поскольку они объясняют, почему наши сервисы с ИИ работают так, а не иначе. При этом наше понимание возможностей и рисков, связанных с распространением ИИ, постоянно углубляется, поэтому принципы могут уточняться.
В одном документе невозможно отразить все случаи применения искусственного интеллекта. Наши сервисы, которые используют ИИ, могут иметь свои этические принципы, которые не будут противоречить этим.
ИИ даёт нам новый опыт взаимодействия с технологиями. В некоторых сферах его применение уже сейчас открывает новые возможности — а вместе с ними возникают новые вопросы и риски.
Разграничение оригинального и сгенерированного — один из главных вызовов, появившихся вместе с распространением ИИ.
Объём созданного нейросетями контента постоянно растёт, а с ИИ можно общаться как с реальным собеседником. В результате пользователи могут ошибочно воспринимать генеративные ответы как истину, позицию компании-разработчика или «мнение» самого ИИ.
А ещё ИИ, как и многие технологии, даёт злоумышленникам в интернете новые возможности для мошенничества: например, фишинга или распространения ложной информации («фейков»).
Мы явно информируем пользователя, когда он взаимодействует с сервисами на базе ИИ. В частности мы:
— Внедряем в продукты дисклеймеры и вотермарки.
— Прямо сообщаем, что ответы ИИ могут быть неточны, и что решение о том, как использовать результаты его работы, остаётся за пользователем.
ИИ формирует новое будущее в сфере образования. Он помогает:
— Учиться: за секунды находит информацию и рассказывает о найденном просто и понятно. Например, помогает готовиться к ЕГЭ по информатике и разбираться с математическими задачами.Подробнее о развитии ИИ в образовательной сфере — на сайте Яндекс Образования.
Разрабатывая образовательные сервисы, мы учитываем, что генеративные нейросети могут выдумывать факты («галлюцинировать»). Генерацию контента в таких сервисах мы контролируем с помощью экспертов либо алгоритмически ограничиваем источники — например, с помощью технологии RAG (Retrieval-augmented generation).