不久前Qwen3正式發(fā)布并開源了8款MoE模型和Dense模型,在代碼、數(shù)學(xué)、通用能力等基準(zhǔn)測試中表現(xiàn)出極具競爭力的結(jié)果,據(jù)說支持思考模式和非思考模式兩種思考模式,提供119種語言和方言,因此在全球范圍內(nèi)獲得了較高的關(guān)注和參與度。依托于阿里云函數(shù)計(jì)算FC算力,接下來將由站長百科詳細(xì)介紹通過Serverless+AI開發(fā)平臺(tái)FunctionAI的模型服務(wù)輔助部署Qwen3系列模型,無需任何代碼。
一、支持的模型列表
部署方式說明:
- vLLM:大模型加速推理框架,優(yōu)化內(nèi)存利用率和吞吐量,適合高并發(fā)場景。
- SGLang:支持復(fù)雜的 LLM Programs,如多輪對(duì)話、規(guī)劃、工具調(diào)用和結(jié)構(gòu)化輸出等,并通過協(xié)同設(shè)計(jì)前端語言和后端運(yùn)行時(shí),提升多 GPU 節(jié)點(diǎn)的靈活性和性能。
模型 | 部署方式 | 最低配置 |
通義千問3-0.6B | vLLM/SGLang/Ollama | GPU 進(jìn)階型 |
通義千問3-0.6B-FP8 | vLLM/SGLang/Ollama | GPU 進(jìn)階型 |
通義千問3-1.7B | vLLM/SGLang/Ollama | GPU 進(jìn)階型 |
通義千問3-1.7B-FP8 | vLLM/SGLang/Ollama | GPU 進(jìn)階型 |
通義千問3-4B | vLLM/SGLang/Ollama | GPU 進(jìn)階型 |
通義千問3-4B-FP8 | vLLM/SGLang/Ollama | GPU 進(jìn)階型 |
通義千問3-8B | vLLM/SGLang/Ollama | GPU 性能型 |
通義千問3-8B-FP8 | vLLM/SGLang/Ollama | GPU 性能型 |
通義千問3-14B | vLLM/SGLang/Ollama | GPU 性能型 |
通義千問3-14B-FP8 | vLLM/SGLang/Ollama | GPU 性能型 |
本篇文檔將以通義千問 3-8B 模型演示部署流程。
部署前準(zhǔn)備:
首次使用FunctionAI會(huì)自動(dòng)跳轉(zhuǎn)到訪問控制快速授權(quán)頁面,滾動(dòng)到瀏覽器底部單擊確認(rèn)授權(quán),等待授權(quán)結(jié)束后單擊返回控制臺(tái)。
函數(shù)計(jì)算FC提供的試用額度可用于資源消耗。額度消耗完后按量計(jì)費(fèi),對(duì)于本教程所涉及的Web服務(wù),只在有訪問的情況下才會(huì)產(chǎn)生費(fèi)用。
二、阿里云FunctionAI是什么
FunctionAI是阿里云推出的一站式應(yīng)用開發(fā)和生命周期管理平臺(tái),開發(fā)者可以通過Serverless架構(gòu)來構(gòu)建容器化、高彈性、免運(yùn)維的云上應(yīng)用,也可以通過AI大語言模型推動(dòng)云上應(yīng)用逐步升級(jí)為智能化應(yīng)用,而FunctionAI的應(yīng)用開發(fā)范式正是結(jié)合了Serverless和AI的兩者優(yōu)勢,提供了豐富的Serverless + AI應(yīng)用模板、先進(jìn)的開發(fā)工具和企業(yè)級(jí)應(yīng)用管理功能,幫助個(gè)人和企業(yè)開發(fā)者專注于業(yè)務(wù)場景。
1、極低成本模型托管服務(wù):基于Serverless GPU算力模型服務(wù),平均成本降低60%。
2、流程式開發(fā)先進(jìn)工具:基于云工作流AI Studio開發(fā)能力,最高效率提升90%。
3、一鍵極速創(chuàng)建AI應(yīng)用:海量高質(zhì)量應(yīng)用模板,面向不同客群,支持一鍵極速創(chuàng)建AI應(yīng)用,解決AI應(yīng)用開發(fā)者無從下手的困境
4、靈活組裝,二次開發(fā):基于豐富的云服務(wù)集成,原子化能力封裝,自定義插件擴(kuò)展,支持快速組裝,沉淀業(yè)務(wù)資產(chǎn),加速應(yīng)用二次開發(fā),滿足業(yè)務(wù)定制化需求。
三、一鍵部署教程Qwen3教程
接下來將通過通義千問3-8B模型 + OpenWebUI部署Qwen3。
1、創(chuàng)建項(xiàng)目
首先通過阿里云云原生應(yīng)用開發(fā)平臺(tái)CAP創(chuàng)建項(xiàng)目。
阿里云官網(wǎng):點(diǎn)擊直達(dá)
2、部署模板
在阿里云FunctionAI平臺(tái)內(nèi)搜索“Qwen3”,點(diǎn)擊“基于 Qwen3 構(gòu)建 AI 聊天助手”模版并部署。
3、選擇Region并部署應(yīng)用,整個(gè)過程大概10分鐘左右。
4、驗(yàn)證應(yīng)用
部署完畢后需要驗(yàn)證應(yīng)用,點(diǎn)擊Open-WebUI服務(wù),在訪問地址內(nèi)找到“公網(wǎng)訪問”。
在OpenWebUI界面驗(yàn)證Qwen模型對(duì)話。
以上就是基于阿里云一站式應(yīng)用開發(fā)和生命周期管理平臺(tái)一鍵部署Qwen3的全過程。
相關(guān)推薦:
《5分鐘快速部署DeepSeek個(gè)人站點(diǎn)》
《GPU實(shí)例上部署通義千問QwQ-32B推理模型教程》
-
廣告合作
-
QQ群號(hào):4114653