Ответственный ИИ

Мы развиваем искусственный интеллект (ИИ) и внедряем его в наши продукты, чтобы делать жизнь людей более удобной и давать им новые возможности. При этом мы следуем этическим принципам, которые сформулировали исходя из своего опыта создания и применения технологий. Эти принципы задают рамки безопасного развития ИИ, который будет служить во благо людям.

Мы публикуем эти принципы, поскольку они объясняют, почему наши сервисы с ИИ работают так, а не иначе. При этом наше понимание возможностей и рисков, связанных с распространением ИИ, постоянно углубляется, поэтому принципы могут уточняться.

В одном документе невозможно отразить все случаи применения искусственного интеллекта. Наши сервисы, которые используют ИИ, могут иметь свои этические принципы, которые не будут противоречить этим.

Принципы ИИ Яндекса

Польза
и ответственность
Мы применяем искусственный интеллект только тогда, когда это приносит явную пользу. Перед внедрением ИИ мы оцениваем потенциальные риски и минимизируем возможные негативные последствия.
Объективность и непредвзятость
Наши ИИ-сервисы не выражают чьё-либо мнение. Мы стремимся, чтобы их ответы были объективными и свободными от предвзятости.
Предотвращение манипуляций
Мы разрабатываем и настраиваем ИИ-сервисы таким образом, чтобы исключить возможность их использования для манипуляции мнением пользователей.
Данные для
обучения
Для обучения искусственного интеллекта можно и нужно использовать все общедоступные данные. При этом для отдельных сервисов мы донастраиваем алгоритмы на данных, наиболее подходящих для этих сервисов.
Прозрачность использования
Мы открыто сообщаем пользователям, когда они взаимодействуют с искусственным интеллектом. Мы разъясняем возможности и ограничения наших сервисов и маркируем созданный ИИ-контент, если это необходимо.
Обучение
на ошибках
Мы постоянно совершенствуем ИИ, анализируя ошибки алгоритмов и обратную связь пользователей. Выявленные ошибки помогают улучшать качество наших сервисов.
Чувствительные темы и независимая оценка
Принимая решения об использовании ИИ в сервисах, которые затрагивают чувствительные для людей темы, мы опираемся на мнение независимых экспертов и организаций, чтобы наши решения были максимально взвешенными.
Постоянное развитие и инновации
Мы не удовлетворяемся достигнутым и будем продолжать развивать наши технологии, создавать новые продукты с ИИ и улучшать существующие.

Как ИИ влияет на общество

ИИ даёт нам новый опыт взаимодействия с технологиями. В некоторых сферах его применение уже сейчас открывает новые возможности — а вместе с ними возникают новые вопросы и риски.

Безопасность в интернете

Разграничение оригинального и сгенерированного — один из главных вызовов, появившихся вместе с распространением ИИ.

Объём созданного нейросетями контента постоянно растёт, а с ИИ можно общаться как с реальным собеседником. В результате пользователи могут ошибочно воспринимать генеративные ответы как истину, позицию компании-разработчика или «мнение» самого ИИ.

А ещё ИИ, как и многие технологии, даёт злоумышленникам в интернете новые возможности для мошенничества: например, фишинга или распространения ложной информации («фейков»).

Мы явно информируем пользователя, когда он взаимодействует с сервисами на базе ИИ. В частности мы:
— Внедряем в продукты дисклеймеры и вотермарки.
— Прямо сообщаем, что ответы ИИ могут быть неточны, и что решение о том, как использовать результаты его работы, остаётся за пользователем.

Образование

ИИ формирует новое будущее в сфере образования. Он помогает:

— Учиться: за секунды находит информацию и рассказывает о найденном просто и понятно. Например, помогает готовиться к ЕГЭ по информатике и разбираться с математическими задачами.

Учить: берет на себя рутину и помогает разнообразить учебный процесс индивидуальными заданиями.

Подробнее о развитии ИИ в образовательной сфере — на сайте Яндекс Образования.

Разрабатывая образовательные сервисы, мы учитываем, что генеративные нейросети могут выдумывать факты («галлюцинировать»). Генерацию контента в таких сервисах мы контролируем с помощью экспертов либо алгоритмически ограничиваем источники — например, с помощью технологии RAG (Retrieval-augmented generation).

Mon Jun 09 2025 22:27:39 GMT+0300 (Moscow Standard Time)