Как запустить DeepSeek AI локально для защиты вашей конфиденциальности - 2 простых способа
Если вам интересно узнать о DeepSeek, но вы не хотите пробовать его из-за проблем с конфиденциальностью, это решение для вас.
DeepSeek — это последнее модное слово в мире искусственного интеллекта. DeepSeek — китайский стартап в области искусственного интеллекта, основанный в мае 2023 года, который функционирует как независимая исследовательская лаборатория искусственного интеллекта и привлек значительное внимание по всему миру за разработку очень мощных больших языковых моделей (LLM) по цене, за которую его коллеги из США не могут конкурировать.
Одна из причин такой низкой стоимости заключается в том, что DeepSeek имеет открытый исходный код. Компания также заявила, что создала способ разработки LLM по гораздо более низкой цене, чем американские компании, занимающиеся искусственным интеллектом. Модели DeepSeek также работают так же хорошо (если не лучше), чем другие модели, и компания выпустила разные модели для разных целей (таких как программирование, общего назначения и зрения).
Мой опыт работы с DeepSeek до сих пор был интересным. Я обнаружил, что DeepSeek всегда ведет диалог сам с собой, в процессе передачи информации пользователю. Ответы, как правило, многословны и могут отправить меня в несколько разных кроличьих нор, каждая из которых привела меня к тому, что я узнал что-то новое.
Я люблю узнавать что-то новое.
Если вы заинтересованы в DeepSeek, вам не нужно полагаться на третью сторону для его использования. Все верно - вы можете установить DeepSeek локально и использовать его по своему усмотрению.
Есть два простых способа сделать это, и я покажу вам оба.
Как добавить DeepSeek в Msty
Что вам понадобится: Для этого вам понадобятся установленные Ollama и Msty - вот и все. Вы можете использовать его на Linux, MacOS или Windows, и это не будет стоить вам ни копейки.
1. Откройте Msty
Первым делом необходимо открыть графический интерфейс Msty. Как вы это сделаете, будет зависеть от используемой вами ОС.
2. Перейдите в раздел «Локальные модели ИИ»
На левой боковой панели нажмите на значок, похожий на монитор компьютера с молнией, после чего откроется раздел «Локальные модели ИИ».
Убедитесь, что обновление Msty выполнено, щелкнув значок облака.
3. Установите DeepSeek
В разделе «Локальные модели искусственного интеллекта» вы увидите DeepSeek R1. Нажмите кнопку загрузки (стрелка вниз), чтобы добавить модель DeepSeek в Msty. После завершения загрузки закройте окно «Локальные модели ИИ».
Обязательно выберите DeepSeek R1.
4. Выберите и используйте DeepSeek
Вернитесь в главное окно, щелкните раскрывающийся список выбора модели, нажмите DeepSeek R1 (в разделе «Локальный AL») и введите свой запрос.
Вы можете установить столько локальных моделей, сколько вам нужно.
Как установить DeepSeek локально из командной строки Linux
Другой вариант — выполнить полную установку DeepSeek на Linux. Прежде чем вы это сделаете, знайте, что системные требования для этого довольно высоки. Вам понадобится как минимум:
- Процессор: Рекомендуется мощный многоядерный процессор с минимум 12 ядрами.
- Графический процессор: графический процессор NVIDIA с поддержкой CUDA для повышения производительности. Если Ollama не обнаружит наличие графического процессора NVIDIA, он настроит себя для работы в режиме только CPU.
- Оперативная память: минимум 16 ГБ, желательно 32 ГБ или больше.
- Хранилище: Вам потребуется хранилище NVMe для более быстрых операций чтения и записи.
- Операционная система: Вам понадобится Ubuntu или дистрибутив на основе Ubuntu.
Если ваша система соответствует этим требованиям и у вас уже установлено приложение Ollama, вы можете запустить модель DeepSeek R1 с помощью:
оллама запустить deepseek-r1:8b
Если вы еще не установили Ollama, вы можете сделать это с помощью одной команды:
curl -fsSL https://ollama.com/install.sh | ш
Вам будет предложено ввести пароль пользователя.
Существуют и другие версии DeepSeek, которые вы можете запустить, а именно:
- ollama run deepseek-r1 - Версия 8B по умолчанию
- Ollama Run Deepseek-R1:1.5B - Самая маленькая модель
- ollama run deepseek-r1:7b - версия 7B
- ollama run deepseek-r1:14b - версия 14B
- ollama run deepseek-r1:32b - версия 32B
- Ollama Run Deepseek-R1:70B - Самая большая и умная из моделей.
После завершения команды вы окажетесь в командной строке Ollama, где сможете начать использовать выбранную вами модель.
Как бы то ни было, теперь у вас есть доступ к искусственному интеллекту DeepSeek и вы можете использовать его, сохраняя все свои запросы и информацию в безопасности на локальном компьютере.