新智元报道

编辑:桃子 好困

【新智元导读】大模型时代,算力即王道。DeepSeek惊艳表现在AI圈掀起巨浪,一个关键问题随之而来:如何以更高效、更经济方式释放潜能?清微智能给出了答案。

随着大模型技术向多场景渗透,算力需求呈现「大规模、高弹性、低成本」三重挑战。

清微智能基于全球领先的可重构计算架构(CGRA)推出可重构算力芯片RPU(Reconfigurable Processing Unit),实现单机高效运行千亿级参数模型推理和训练,以动态硬件重构、全栈优化及高能效比,重新定义国产AI芯片的性价比标杆。

新年伊始,DeepSeek的惊艳亮相,不仅在科技圈掀起巨浪,其影响还涉及到经济、社会、政策等多个维度,相关企业迅速跟进。

以可重构计算技术路线立足于国产AI芯片赛道的清微智能也积极响应,其RPU芯片已完成DeepSeek-R1系列模型的适配和部署运行。

清微智能RPU芯片通过可重构计算架构映射和数据流控制技术,在处理AI任务时,以更高效率实现计算资源的动态调度分配,摒弃传统指令处理流程和共享存储数据交换机制,使硬件资源更聚焦于核心计算任务。

清微智能算力服务器支持无交换机自组网调度,显著提升计算资源利用率与能效比,单机支持从1.5B、7B到六千亿参数的DeepSeek全量模型,是国产算力支持国产DeepSeek大模型的高性价比独特方案。

清微智能算力服务器具有训推一体特点,不仅在DeepSeek系列模型的推理上表现出优异的性能,同时高性能支持基于DeepSeek模型对其他模型进行蒸馏训练,极大方便了用户实现大模型本地私有化部署。

例如:使用DeepSeek-R1模型对NuminaMath-TIR等数据集的问题进行推理解答,生成的思考过程和答案作为Qwen2-7B模型蒸馏训练数据集,基于清微智能算力服务器加载蒸馏训练数据集和Qwen2-7B的模型权重及配置文件,进行Qwen2-7B模型的蒸馏训练(如下方视频)。

连日来,DeepSeek系列模型的火爆出圈,凸显了国产大模型创新爆发出震撼全球的威力。

清微智能RPU芯片以计算架构创新,结合国产模型路径创新,迸发出强强联合1+1>2的效果,为AI用户提供了更具经济性的组合选择。

ad1 webp
ad2 webp
ad1 webp
ad2 webp