Чтобы защитить персональные данные при взаимодействии с AI-помощниками, рекомендуется:
- Не передавать критическую информацию. 1 К ней относятся пароли, номера кредитных карт, коммерческие секреты. 1
- Изучить политику конфиденциальности сервиса. 1 Многие компании сохраняют и анализируют данные для обучения своих моделей. 1 Нужно проверить настройки приватности и запретить такую возможность. 1
- Регулярно проверять обновления. 1 В новых редакциях правил сервиса могут изменить порядок работы с данными пользователей. 1
- Маскироваться. 1 Для работы с ИИ-сервисами стоит выбирать альтернативные ники или учётные записи, отличные от основных. 1
- Не передавать больше информации, чем необходимо. 1 Если нейросеть используется для написания кода или анализа документа, стоит отправлять только отдельные фрагменты. 1
- По возможности шифровать личную информацию. 1 Например, заменять имена и другие идентификационные данные на псевдонимы. 1
- Чистить историю. 1 Многие сервисы хранят архив запросов. 1 Периодически нужно проверять и удалять ненужные диалоги, чтобы минимизировать риск их утечки. 1
- Использовать локальные модели вместо интернет-сервисов. 1 Модели, работающие локально, на конкретном компьютере, свободны от риска утечек, так как в этом случае нейросеть ничего никуда не отправляет. 1
Если личные данные всё же оказались в открытом доступе, следует оповестить об этом Роскомнадзор и правоохранителей. 4