阿里云一键部署DeepSeek-V3、DeepSeek-R1模型
2025-02-05DeepSeek-V3是由DeepSeek推出的一款拥有6710亿参数的专家混合(MoE)大语言模型,DeepSeek-R1是基于DeepSeek-V3-Base训练的高性能推理模型。Model Gallery提供了vLLM或BladeLLM加速部署功能,帮助您一键部署DeepSeek-V3和DeepSeek-R1系列模型。
支持的模型列表
|
|
|
|
模型 |
部署方式 |
|
DeepSeek-V3 |
vLLM 加速部署、标准部署 |
|
DeepSeek-R1 |
vLLM 加速部署 |
|
DeepSeek-R1-Distill-Qwen-1.5B |
BladeLLM(阿里云 PAI 自研高性能推理框架)和 vLLM 加速部署、标准部署 |
|
DeepSeek-R1-Distill-Qwen-7B |
|
|
DeepSeek-R1-Distill-Llama-8B |
|
|
DeepSeek-R1-Distill-Qwen-14B |
|
|
DeepSeek-R1-Distill-Qwen-32B |
|
|
DeepSeek-R1-Distill-Llama-70B |
部署模型
-
进入Model Gallery页面。
-
登录阿里云PAI控制台。
-
在顶部左上角根据实际情况选择地域。
-
在左侧导航栏选择工作空间列表,单击指定工作空间名称,进入对应工作空间。
-
在左侧导航栏选择快速开始 > Model Gallery。
-
-
在Model Gallery页面右侧的模型列表中,找到需要部署的模型卡片,例如DeepSeek-V3模型,单击进入模型详情页面。
-
单击右上角部署,选择部署方式和部署资源后,即可一键部署,生成一个 PAI-EAS 服务。
由于DeepSeek-V3模型较大,部署时间大约需要30分钟。
使用推理服务
部署成功后,在服务页面可以单击“查看调用信息”获取调用的 Endpoint 和 Token。不同部署方式支持的服务调用方式不同,详情请在模型介绍页查看。
如果是标准部署,支持Web应用。在PAI-Model Gallery > 任务管理 > 部署任务中单击已部署的服务名称,在服务详情页面右上角单击查看WEB应用,即可通过ChatLLM WebUI进行实时交互。
API调用,详情请参见如何使用API进行模型推理。
关于成本
-
由于DeepSeek-V3和DeepSeek-R1模型较大,模型部署费用较高,建议用于正式生产环境。
-
您还可以选择部署经过知识蒸馏的轻量级模型,这些模型的参数量显著减少,从而大幅降低部署成本。
-
对于长期使用的模型,您可以采用公共资源组搭配节省计划的方式,或者购买预付费EAS资源组来节约成本。
-
如果是非生产环境使用,可以在部署时打开竞价模式,但需满足一定条件才能竞价成功,且有资源不稳定的风险。
声明:部分内容、图片来源于互联网,如有侵权请联系删除,QQ:228866015
