2月5日消息,DeepSeek开源大模型的推出,可以说彻底颠覆了AI行业的发展,各大平台都在积极适配支持,比如国产GPU,除了摩尔线程、华为昇腾,壁仞也第一时间加入了这一行列。
壁仞科技透露,凭借自主研发的壁砺系列GPU产品出色的兼容性能,只用数个小时,就完成对DeepSeek R1全系列蒸馏模型的支持,涵盖从1.5B到70B各等级参数版本,包括LLaMA蒸馏模型和千问蒸馏模型。
壁仞科技成为少数实现国际、国内多模型同步高效适配的芯片平台之一,证明了国产芯片对复杂AI应用任务的驾驭能力。
据介绍,DeepSeek提供了一种高效的模型蒸馏技术,能够将大规模模型的能力迁移至更小、更高效的版本,并且通过MLA、DeepSeek MoE两大核心技术,显著降低显存占用,优化模型性能。
壁仞科技壁砺系列GPU产品在短时间内成功支持DeepSeek全系列蒸馏模型,说明其在AI推理任务中具备强大的兼容性和易用性。
同时,壁仞科技已联合上海智能算力、中兴通讯、科华数据、无问芯穹、开源中国(Gitee AI)、UCloud、一蓦科技等战略伙伴,基于壁砺系列训推产品106M、106B、106E、110E,全面开展包括R1在内的DeepSeek全系列模型的适配与上线,满足不同规模参数量模型的部署需求——
轻量级模型(1.5B-8B):
适配智能终端与边缘计算设备,实现低延时实时推理。
中大规模模型(14B-32B):
服务于大规模企业级应用和高并发任务,满足数据安全与定制化需求。
大规模模型(70B):
依托云端超算集群,支撑前沿AI研究与复杂任务处理。
即日起,壁仞AI算力平台正式上线DeepSeek R1蒸馏模型推理服务,全球开发者可云端体验1.5B、7B、8B、14B、32B、70B全系列模型服务。
体验地址为:
https://sgc.birentech.com:1443/
该服务具备两大核心优势:
一是零部署成本,可免去硬件采购与环境搭建,实现“开箱即用”的云端推理体验。
二是多场景覆盖,针对LLM等不同任务预置优化配置方案。
标签: 壁仞科技