Некоторые способы локального использования AI-моделей:
- LLMChat. proglib.io Универсальный интерфейс для работы с различными языковыми моделями. proglib.io Поддерживает множество моделей, имеет систему плагинов, хранит данные локально. proglib.io
- Open WebUI. proglib.io Автономный пользовательский интерфейс для работы с ИИ без подключения к интернету. proglib.io Можно настроить работу с разными API, поддерживает множество языков, имеет голосовое управление и видеозвонки. proglib.io
- LibreChat. proglib.io Продвинутый клон ChatGPT с расширенными возможностями. proglib.io Поддерживает множество моделей, имеет многопоточные беседы, работает с файлами, доступен на нескольких языках. proglib.io
- GPT4All. proglib.io Инструмент для локального запуска языковых моделей. proglib.io Работает без подключения к API ИИ-провайдера, не нуждается в GPU, поддерживает работу с локальными файлами. proglib.io
- NextChat. proglib.io Кроссплатформенный интерфейс для работы с ChatGPT и Gemini, все данные хранятся локально. proglib.io
- LM Studio. www.kaspersky.ru dev.to Бесплатное приложение для личного использования, доступно в версиях для Linux, Mac и Windows. dev.to Позволяет прямо из приложения выбрать нужную модель, скачать её и запустить в диалоговом окне. www.kaspersky.ru
- PageAssist. www.tomsguide.com Расширение для веб-браузера, которое упрощает доступ к любым моделям Ollama AI на компьютере. www.tomsguide.com
Для локального запуска AI-моделей важно учитывать, что разные модели в зависимости от специфики могут быть требовательны к таким компонентам компьютера, как память, видеопамять, диск, процессор. www.kaspersky.ru