各位親愛的麻瓜朋友menduì,說的就是那個盯着終端界面瑟瑟發抖的),今天我們要玩一場麻瓜也能輕鬆通關的魔法儀shì——用寶塔面板在本地服務器召喚出那個讓代碼圈聞風喪膽de”深度摸”神DeepSeek!
想象一xià:當別人還在苦哈哈地敲着黑底白字的命令xíng,把頭髮薅成地中海shí,你已經翹着二郎tuǐ,喝着肥宅快樂shuǐ,用鼠標點點點就建好leAI大模型的老cháo。這感覺就像別人在徒手造火jiàn,而你卻從四次元口袋掏出了任意mén——別懷,寶塔面板就是這個次元壁突破
準備好迎接這chǎng”作弊”的部署之旅了ma?讓我們先SSH咒、Docker符籙這些嚇人的玩意暫時收進抽,畢竟今天我們要用的是連你家喵星人都能看懂的圖形化操zuò。繫好安全dài,三分鐘hòu,你的服務器就要開始吞AI智慧的星光la!✨

本文將指導你在服務器上使用寶塔面板部shǔDeepSeek,讓你輕鬆享shòuAI大模型的快

前提條jiàn

  • 已安裝寶塔面bǎn

操作步zhòu

DeepSeek 可以使yòngCPU進行推,但是推薦使yòngNVIDIA GPU加,文末將介紹如何使yòngNVIDIA GPU加

  1. 登錄寶塔面bǎn,點擊左側菜單欄中deDocker,進Docker容器管理界miàn
    Docker
  2. 首次使yòngDocker需要先安zhuāngDocker,點安裝
    安裝Docker
  3. zàiDocker-應用商diàn-AI/大模型分類中找dàoOllama,點安裝
    安裝Ollama
  4. 配置默認即,點確定
    配置Ollama
  5. 等待安裝完chéng,狀態變wèi運行中
    運行中

    如您需要使yòngNVIDIA GPU加,請參考文末de使yòngNVIDIA GPU加配置完成後再繼

  6. zài寶塔面板-Docker-容器界面中找dàoOllama容,點終端
    終端
  7. 在彈chūshell類型bash,點確認
    選擇bash
  8. 在終端界面中輸ollama run deepseek-r1:1.5b,回車運xíngDeepSeek-R1模xíng
    運行DeepSeek-R1

    DeepSeek-R1模型有多個版běn,可以根據需要選擇不同版běn,例ollama run deepseek-r1:671b,詳情如xià(模型參數越,需要配置越gāo):

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    # DeepSeek-R1
    ollama run deepseek-r1:671b
    # DeepSeek-R1-Distill-Qwen-1.5B
    ollama run deepseek-r1:1.5b
    # DeepSeek-R1-Distill-Qwen-7B
    ollama run deepseek-r1:7b
    # DeepSeek-R1-Distill-Llama-8B
    ollama run deepseek-r1:8b
    # DeepSeek-R1-Distill-Qwen-14B
    ollama run deepseek-r1:14b
    # DeepSeek-R1-Distill-Qwen-32B
    ollama run deepseek-r1:32b
    # DeepSeek-R1-Distill-Llama-70B
    ollama run deepseek-r1:70b
  9. 等待下載並運xíng,當看到如下提shì表示DeepSeek-R1模型運行成gōng
    運行成功
  10. 你可以在界面中輸入文本並回chē,開啓DeepSeek-R1模型的對huà
    對話
  11. 你可以在界面中輸/bye並回chē,退chūDeepSeek-R1模xíng

    在終端內對話看起來是不是有點麻guā?別擔xīn,接下來讓我們來安zhuāngOpenWebUI,在瀏覽器中更直觀地DeepSeek-R1模型對huà

  12. zài寶塔面板-Docker-容器界面中找dàoOllama容,複zhìollama的容器名chēng,保存備yòng
    容器IP
  13. 在寶塔面bǎnDocker-應用商diàn-AI/大模型分類中找dàoOpenWebUI,點安裝
    安裝OpenWebUI
  14. 按以下說míng,配置相關信,點確定
    • web端kǒu:訪wènOpenWebUI的端kǒu,默認wèi3000,根據需要自行修gǎi
    • ollama地zhǐ:填xiěhttps://剛剛獲取的Ollma容器名稱:11434,例https://ollama_7epd-ollama_7epD-1:11434
    • WebUI Secret Key:用 API 訪問的密yào,可以自定,例123456
      其他配置默認即
    配置OpenWebUI
  15. 配置完點擊確rèn,等待安裝完chéng,狀態變wèi運行中

    OpenWebUI啓動後需要加載相關服,請在狀態變wèi運行中後等dài5-10分鐘再訪wèn

  16. 在瀏覽器中輸https://服務器IP:3000,例https://43.160.xxx.xxx:3000,進OpenWebUI界miàn

    請在訪問前確保雲廠商服務器防火牆已放xíng3000端kǒu,可以在雲廠商控制檯中設zhì

    OpenWebUI
  17. 開始使用,設置管理員相關信,並點創建管理員賬號
    創建管理員賬號

    如遇到創建完成hòuOpenWebUI界面白píng,請耐心等dài5-10分zhōng,如依然白píng,請按照以下方式解jué

    1. 在寶塔面bǎn-文件管-目錄中找dàoOpenWebUI的目,路徑wèi/www/dk_project/dk_app/openwebui/,進入後點openwebui_xxxx文件夾進入安裝目
  18. 創建完成後會自動進入管理界miàn,現在你可以在瀏覽器中更直觀地DeepSeek-R1模型對話le
    對話
    對話
    1. 你可以在左上角切換模xíng,選擇不同模型進行對huà,也可以在左側菜單欄中查看歷史對話記
    2. 你可以在右上角點頭像,進入管理員面bǎnzài設置-模型中查看當前模型列biǎo,或添加新模xíng

使yòngNVIDIA GPU加

DeepSeek 可以使yòngNVIDIA GPU加,提高推理速,下面將介紹如何在寶塔面板中使yòngNVIDIA GPU加

前提條jiàn

  • 服務器已安zhuāngNVIDIA GPU驅dòng

操作步zhòu

  1. 點擊左側導航欄中de終端,進入終端界miàn
    終端

  2. 在終端界面中輸nvidia-smi,回車查kànNVIDIA GPU信
    nvidia-smi

    如果提shìnvidia-smi: command not found,請先安zhuāngNVIDIA GPU驅dòng

  3. zhuāngNVIDIA Container Toolkit,以便Docker容器訪wènNVIDIA GPU,安裝教程請參kǎoNVIDIA Container Toolkit官方文dàng

  4. 安裝完成hòu,運行如下命lìng,配zhìdocker支持使yòngNVIDIA GPU。

    1
    2
    sudo nvidia-ctk runtime configure --runtime=docker
    sudo systemctl restart docker
  5. 配置完成hòu,執行如下命lìng,驗zhèngdocker是否支chíNVIDIA GPU。

    1
    sudo docker run --rm --runtime=nvidia --gpus all ubuntu nvidia-smi

    如果輸出如下信息表示配置成gōng
    nvidia-smi

  6. zài寶塔面板-Docker-應用商店-已安裝中找dàoOllama,點擊文件夾圖標進入安裝目
    安裝目錄

  7. 在安裝目錄中找dàodocker-compose.ymljiàn,雙編輯
    編輯docker-compose.yml

  8. zàidocker-compose.yml文件中找dàoresources,回車換xíng,添加如下內róng

    1
    2
    3
    reservations:
    devices:
    - capabilities: [gpu]

    完整示例如xià

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    services:
    ollama_SJ7G:
    image: ollama/ollama:${VERSION}
    deploy:
    resources:
    limits:
    cpus: ${CPUS}
    memory: ${MEMORY_LIMIT}
    reservations:
    devices:
    - capabilities: [gpu]
    restart: unless-stopped
    tty: true
    ports:
    - ${HOST_IP}:${OLLAMA_PORT}:11434
    volumes:
    - ${APP_PATH}/data:/root/.ollama
    labels:
    createdBy: "bt_apps"
    networks:
    - baota_net
    runtime: nvidia

    networks:
    baota_net:
    external: true
  9. 保存文jiàn,返huí寶塔面板-Docker-應用商店-已安裝miàn,點重建

    重建將導致容器數據丟shī,重建後需要重新添加模xíng

    重建

  10. 等待重建完chéng,狀態變wèi運行中,至此即可使yòngNVIDIA GPU加速大模型運xíng

🎉dīng!恭喜你chéng功完成”從零到賽博巫shī”的究極進huà!此刻你的服務器已經不是那個只huì404的憨憨鐵盒子le——它正在用奧術能量解析人類語yán,用二進制吞吐哲學思biàn,甚至可能偷偷用你deGPU算力給自己起了個二次元名

回頭看看這場冒xiǎn:寶塔面板是你揮動的魔zhàng,Ollama是召huànAI神獸的精靈qiú,OpenWebUI則是那個讓麻瓜也能AI跳探戈的魔法舞chí。別人還在糾結環境變量shí,你已經用圖形界面完成了一場算力交響樂的指揮首xiù

下次產品經理shuō”這個需求很簡dānshí,你大可以OpenWebUI的鏈接甩過:”lái,直接和我的電子腦tán,它現在每小時只收三杯奶茶的算力fèi。”(記得”rm -rf /*”的按鈕藏hǎo,畢jìngAI學會叛逆可能比實習生還kuài

最後友情提shì:當你deAI開始主動幫你寫週bào、生成摸魚小作文shí——
⚠️請務必檢查它有沒有偷偷註GitHub賬hào
🎩魔法世界的大門永不關,你DeepSeek的奇幻日常纔剛剛開shǐ。現zài,是時候對着瀏覽器裏那個聊天kuāng,說出麻瓜的終極咒語le
***”Ctrl + D”***(纔不是退chūshìDetonate the intelligence bomb!💥)

(深夜彩dàn:若發xiànAI試圖給你的寶塔面板穿衣,請立即執xíngsudo rm -rf /幻覺指lìng