一、使用Ollama工具部署(推薦新手)
- 安裝Ollama
- 訪問Ollama官網(wǎng),下載與操作系統(tǒng)匹配的版本(Windows/macOS/Linux)。
- 安裝完成后,在終端輸入
ollama help
,確認無報錯即安裝成功。
- 選擇DeepSeek模型
- 在Ollama官網(wǎng)的Models板塊搜索
DeepSeek-R1
,根據(jù)電腦配置選擇模型版本(如1.5B、7B、8B等)。 - 參數(shù)建議:
- 1.5B:適合低配電腦(2GB顯存即可運行)。
- 7B/8B:適合中高端顯卡(如NVIDIA GTX 1060以上)。
- 32B:需32GB顯存,僅推薦高端設備。
- 在Ollama官網(wǎng)的Models板塊搜索
- 下載并運行模型
- 復制下載命令(如
ollama run deepseek-r1:8b
)。 - 以管理員身份打開終端(Windows用PowerShell,macOS/Linux用Terminal),粘貼命令并回車。
- 等待下載完成,出現(xiàn)
success
提示即部署成功。
- 復制下載命令(如
- 通過Chatbox實現(xiàn)網(wǎng)頁操作(可選)
- 下載安裝Chatbox,打開設置,選擇Ollama API。
- 從列表中選擇已部署的
deepseek-r1
模型,保存后即可通過網(wǎng)頁或客戶端與AI對話。
二、手動部署(適合開發(fā)者)
- 環(huán)境準備
- 下載代碼庫
- 打開終端,進入項目目錄(如桌面):
cd ~/Desktop - 使用Git克隆DeepSeek代碼庫:
git clone https://github.com/deepseek-ai/deepseek.git - 進入項目目錄:
cd deepseek
- 打開終端,進入項目目錄(如桌面):
- 安裝依賴并下載模型
- 安裝依賴庫:
pip install -r requirements.txt - 從Hugging Face下載預訓練模型文件(如
.bin
或.pt
格式),放入deepseek/models/
目錄。
- 安裝依賴庫:
- 配置并運行
- 打開
config.yaml
文件,修改以下參數(shù):device: cuda # 若有GPU,否則改為cpu model_path: ./models/your_model_file.bin # 替換為實際模型文件名 - 啟動DeepSeek:
python run.py - 成功運行后,終端會顯示本地訪問地址(如
http://127.0.0.1:5000
),在瀏覽器中打開即可使用。
- 打開
三、使用國產(chǎn)工具部署(零基礎友好)
- 下載部署工具
- 訪問部署工具下載頁,下載支持DeepSeek的本地化部署工具(如
DS本地部署大師
或聰明靈犀
)。
- 訪問部署工具下載頁,下載支持DeepSeek的本地化部署工具(如
- 選擇模型并安裝
- 打開軟件,選擇下載模型,從列表中挑選DeepSeek模型(如7B、13B版本)。
- 自定義安裝路徑(建議選擇剩余空間較大的磁盤),點擊下載并等待完成。
- 啟動并使用
- 安裝完成后,點擊立即體驗,進入交互界面。
- 在底部輸入框中輸入問題,AI會快速響應。支持功能包括:
- 智能問答、文檔上傳、知識庫訓練。
- 離線使用(無需網(wǎng)絡)。
- 自動保存15天內(nèi)的對話記錄。
域名頻道為客戶提供服務器代維服務,為客戶節(jié)約服務器維護成本,費用不到專職人員的十分之一。
服務器托管與單獨構建機房和租用專線上網(wǎng)相比、其整體運營成本有較大降低。
網(wǎng)站空間可隨意增減空間大小,空間升級可以按照對應的產(chǎn)品號升級到相對應的空間類型。隨時隨地能達到用戶的使用要求。
您有自己的獨立服務器,需要托管到國內(nèi)機房,我們?yōu)槟闾峁┝松虾k娦盼逍羌壒歉蓹C房,具體請查看http://www.sirendai.cn/server/ai-server.asp