一、使用Ollama工具部署(推薦新手)
- 安裝Ollama
- 訪問Ollama官網,下載與操作系統匹配的版本(Windows/macOS/Linux)。
- 安裝完成后,在終端輸入
ollama help
,確認無報錯即安裝成功。
- 選擇DeepSeek模型
- 在Ollama官網的Models板塊搜索
DeepSeek-R1
,根據電腦配置選擇模型版本(如1.5B、7B、8B等)。 - 參數建議:
- 1.5B:適合低配電腦(2GB顯存即可運行)。
- 7B/8B:適合中高端顯卡(如NVIDIA GTX 1060以上)。
- 32B:需32GB顯存,僅推薦高端設備。
- 在Ollama官網的Models板塊搜索
- 下載并運行模型
- 復制下載命令(如
ollama run deepseek-r1:8b
)。 - 以管理員身份打開終端(Windows用PowerShell,macOS/Linux用Terminal),粘貼命令并回車。
- 等待下載完成,出現
success
提示即部署成功。
- 復制下載命令(如
- 通過Chatbox實現網頁操作(可選)
- 下載安裝Chatbox,打開設置,選擇Ollama API。
- 從列表中選擇已部署的
deepseek-r1
模型,保存后即可通過網頁或客戶端與AI對話。
二、手動部署(適合開發者)
- 環境準備
- 下載代碼庫
- 打開終端,進入項目目錄(如桌面):
cd ~/Desktop - 使用Git克隆DeepSeek代碼庫:
git clone https://github.com/deepseek-ai/deepseek.git - 進入項目目錄:
cd deepseek
- 打開終端,進入項目目錄(如桌面):
- 安裝依賴并下載模型
- 安裝依賴庫:
pip install -r requirements.txt - 從Hugging Face下載預訓練模型文件(如
.bin
或.pt
格式),放入deepseek/models/
目錄。
- 安裝依賴庫:
- 配置并運行
- 打開
config.yaml
文件,修改以下參數:device: cuda # 若有GPU,否則改為cpu model_path: ./models/your_model_file.bin # 替換為實際模型文件名 - 啟動DeepSeek:
python run.py - 成功運行后,終端會顯示本地訪問地址(如
http://127.0.0.1:5000
),在瀏覽器中打開即可使用。
- 打開
三、使用國產工具部署(零基礎友好)
- 下載部署工具
- 訪問部署工具下載頁,下載支持DeepSeek的本地化部署工具(如
DS本地部署大師
或聰明靈犀
)。
- 訪問部署工具下載頁,下載支持DeepSeek的本地化部署工具(如
- 選擇模型并安裝
- 打開軟件,選擇下載模型,從列表中挑選DeepSeek模型(如7B、13B版本)。
- 自定義安裝路徑(建議選擇剩余空間較大的磁盤),點擊下載并等待完成。
- 啟動并使用
- 安裝完成后,點擊立即體驗,進入交互界面。
- 在底部輸入框中輸入問題,AI會快速響應。支持功能包括:
- 智能問答、文檔上傳、知識庫訓練。
- 離線使用(無需網絡)。
- 自動保存15天內的對話記錄。
域名頻道為客戶提供服務器代維服務,為客戶節約服務器維護成本,費用不到專職人員的十分之一。
服務器托管與單獨構建機房和租用專線上網相比、其整體運營成本有較大降低。
網站空間可隨意增減空間大小,空間升級可以按照對應的產品號升級到相對應的空間類型。隨時隨地能達到用戶的使用要求。
您有自己的獨立服務器,需要托管到國內機房,我們為你提供了上海電信五星級骨干機房,具體請查看http://www.sirendai.cn/server/ai-server.asp