白交 发自 凹非寺
量子位 | 公众号 QbitAI

DeepSeek的风,也是飘到了科研领域——

最新消息,同济大学通过百度智能云千帆大模型平台接入并调用DeepSeek-R1/V3系列模型;

包括浙大、北大清华等知名高校也是纷纷出动,要么接入模型推出智能体,又或者出品干货课程、使用手册《从入门到精通》等等,几度都登上热搜。

Nature更是几度发文,因为DeepSeek开源低成本易部署等优势,科学家们纷纷涌向DeepSeek,这种模型已经是科研AI工具中的全能者





感知到的是,大模型在科研探索中发挥的价值远比以往任何时候都深入

DeepSeek R1自推出以来,Hugging Face上相关版本的下载量已经接近四百万次,高居榜首。



但高的使用量,随之而来的就是算力需求井喷。除了带来模型本身的稳定性、易用性等挑战,传统的科研机构还面临算力资源碎片化、人才培育滞后等问题。

春节期间,我们看到,整个AI产业链都被积极调动起来,来支持模型稳定运行。

但因为科研环境中,对数据的准确性、隐私安全方面的要求以及模型可靠性、稳定性、易用性要求更高,像DeepSeek这样的大模型能真正应用到科研探索,其实难度不小。

像模型的易用性问题,科研人员并非都具备深厚的AI技术背景,也没有那么多时间成本来学习大模型如何配置。他们可能需要花费大量时间学习如何操作模型,而无法将精力集中在核心的科研问题上,严重影响科研效率。

而且这还只是模型本身的挑战,还存在一些系统性难题,其中以算力与人才最为突出。

算力「饥饿与浪费并存」。科研机构无法像企业那样投入大量资源来建设AI基础设施。同时算力资源分散,不同机构不同设备难以实现有效整合和协同使用,从而影响整个科研项目的进程。所以我们经常就会看到有科学家在线求算力,即便李飞飞也曾透露过斯坦福团队算力不够的情况。

人才培养的滞后性。技术发展过快,产业界的AI人才稀缺甚至是靠高薪来抢人,而在科研这端,这种既懂科研专业知识又掌握大模型技术的复合型人才可能更是少之又少。

基础设施是技术研究的基石,缺乏足够的科研基础设施,也就很难吸引到人才,同时也限制了技术的发展空间;而没有足够的人才来操作设备,基础设施也无法发挥出它应用的作用,还会影响到上层模型本身的发展。

如此循环往复,那么大模型在科研环境中的应用进程也就更显道阻且长了。

今时今日如何破局,也就显得更为紧迫和艰巨。

AI科研新基建:算力为核心,全生命周期支持

这段时间,在一众铺天盖地的新闻中,有这么一则AI算力产业界的进展备受关注——

昆仑芯P800万卡集群成功点亮,这是国内首个正式点亮的自研万卡集群,并且还计划将这一数字扩大到三万。



大家一边感叹于它性能方面的显著,其规格其显存规格比同类主流GPU高出20%-50%。它对MoE架构更友好,并且支持8bit推理,单机8卡就能运行671B满血版模型。

正因如此,昆仑芯相较同类产品更加易于部署,同时可显著降低运行成本,轻松完成DeepSeek-V3/R1全版本推理任务。同时,昆仑芯P800在DeepSeek系列MoE模型大规模训练任务中也表现出色,全面支持MLA、多专家并行等特性,仅需32台即可支持模型全参训练,高效助力模型的持续训练和微调。

而在另一边,科研团队还关注的是,它在能效比上面的优势——

对比通用GPU,它单位算力功耗可以降低40%,帮助科研团队突破传统GPU集群的电力瓶颈。

经过清华智能产业研究院验证,他们搭载昆仑芯P800的算力集群成功将千亿参数模型的训练周期从28天缩短至19天,电力成本节省超300万元

而且因为该芯片拥有完全自主知识产权体系,从指令集架构到编译器工具链全栈可控,能够保证科研应用过程中的数据安全。

像北京前沿计算研究中心基于昆仑芯构建的联邦学习平台已在医疗影像分析领域实现多机构数据协同训练,模型精度提升12%的同时,完全满足隐私合规要求

能够看到,自研芯片构建算力集群也许是破局关键,它能解决训练成本、数据安全等方面的难题。



不过能够吸引这么多高校Pick合作,不仅仅是因为百度智能云部署了昆仑芯,而是一整套AI For Science解决方案。

它凭借多年全栈技术布局,以及与多家顶尖高校生态合作,沉淀出这么一套方案——

包括昆仑芯P800芯片、百舸异构算力平台、飞桨深度学习框架以及千帆大模型平台等。

在此之前,还不曾系统性梳理过,今天不妨就来一一拆解,看看背后有哪些值得学习与借鉴。

首先,昆仑芯P800集成的万卡集群,它是AI基础设施当中的定海神针。只有自主可控的坚实底座,才能推动大模型技术持续迭代与生态繁荣。

其次,百舸异构算力平台,可以理解为算力中枢,或者是统筹师,面对科研环境中复杂多样的算力需求,这个中枢就显得格外重要,通过预测调度等操作实现算力资源的高效统筹,它在提升算力利用效率、降低成本、加速科研进程等方面成效显著——

上海交通大学AI研究院部署百舸平台后,GPU利用率从35%提升至72%,任务排队时间减少60%,模型训练效率得以显著提高。

如此解决科研中算力资源碎片化的痛点,源于他在架构算法以及服务模式化上面的创新。

架构方面,它建立了一个灵活弹性的算力供给网络。物理层兼容昆仑芯、英伟达、AMD等多元算力芯片,资源层提供容器化算力单元,服务层则支持Kubernetes、Slurm等多种调度系统。

算法层面,它的智能调度算法有三个方面的创新,比如基于强化学习的动态资源预测模型可提前24小时预判算力需求波动;跨集群任务迁移技术实现全局负载均衡;异构资源感知调度器可将不同类型计算任务精准分配到最优硬件组合。

还有服务模式上,它创造了「科研算力银行」这种范式。能让机构按需取用、弹性供给。像浙江大学某重点实验室,就通过这种方式提前3个月完成了气象大模型的迭代。

并且随着技术发展,百舸也在持续的更新与迭代,比如配合DeepSeek推理能力推出了一些功能,包括在线推理服务的全生命周期管理、弹性扩缩容能力、自研框架推理加速技术以及完善的运维监控体系。

再者是飞桨深度学习框架,国内首个开源开放的产业级深度学习平台,工具链与社区属性兼备

它通过构建起基础模型、工具组件、应用案例的三层资源体系,提高了诸多高校与开发者的科研效率。中国科学技术大学量子计算团队基于飞桨量子机器学习套件,成功实现量子化学模拟加速,计算效率超越传统方法2个数量级。

不过能推出如此海量的资源套件,也与百度持续深耕积累Know-how有关。

百度飞桨持续深耕力学与数学、材料化学、气象预测、生物医药等前沿领域,尤其是在生物计算领域尤为显著。

截至目前,百度已打造完整的基于飞桨的生物计算平台-螺旋桨PaddleHelix,涵盖文心大模型-生物计算大模型,探索AI技术在小分子、蛋白/多肽、RNA等场景的应用。

2023年5月2日,国际顶级学术期刊《Nature》正刊发表了百度与合作单位在生物计算领域的研究成果——《Algorithm for Optimized mRNA Design Improves Stability and Immunogenicity》,提出mRNA序列优化算法LinearDesign。这是中国科技企业首次以第一完成单位的身份在《Nature》杂志发表论文。



而随着DeepSeek、文心越来越多的模型选择开源,飞桨的价值其实也就愈加凸显。

开源的方式保证了研究结果的可靠性,促进了科研成果的广泛传播和共享。其他研究人员通过复现在已有基础上改进和拓展,技术创新与迭代也就在这个过程中加速流动。

像某高校基于飞桨框架研发的遥感图像解译系统,结果通过社区协作持续优化,在农作物分类任务中的准确率从89%提升至96%。

还有就是千帆大模型平台,一站式AI服务平台。它是资深的模型专家,从模型开发、训练、部署、监控等的全流程管理系统。

此前我们比较熟悉的ModelBuilder就是在这一平台体系下,按照自身需求来完成大模型的开发和部署。这其实是一个包含数据处理、模型精调、模型评估、量化等环节的系统性工程,对于企业而言就难度不小,对于缺乏产业实战经验的科研高校来说更是如此。

ModelBuilder提供了一整套完善的工具链,院校根据自身科研需求深度优化模型性能。现在该平台的大模型矩阵已经覆盖了DeepSeek-R1、DeepSeek-V3、文心大模型等,同时支持vLLM、LMDeploy、TensorRT-LLM、SGLang等主流推理框架实现高性能模型托管,帮助高校可以灵活开发与部署。

而在开发与部署之前,它还能帮助科研团队选出适合自己的大模型。

它的智能评估板块,集成了50多种量化指标。在南京大学某分子动力学研究中,研究人员通过平台的AB测试功能,快速筛选出最优的力场预测模型,研发周期缩短40%。



可以这样总结,百度技术层面的部署:以算力为核心,整个全周期提供全栈技术支持。另外,在人才培养和科研创新上,百度也在发挥着自己在产业实践方面的优势。

比如通过「松果计划」培养出5000余名AI工程化人才,参与学生发表顶会论文300余篇,孵化出智能天文数据处理、古生物数字复原等20余个创新项目。

还有与多所高校包括清华北大、复旦、上海交大、兰州大学等合作,开设了《飞桨Al for Science前沿系列讲座课程》和《飞桨Alfor Science代码入门与实操》两门课程;

与清华共建「东方」智算中心,部署2000+卡规模昆仑芯集群;与上海交大建设国内首个AI for Science科学数据开源开放平台;与北大开发「小北学长」智能体等等。

可以看到,百度在AI For Science上面的赋能是全方面的,是从全栈技术到人才培养,也是从底座、模型到应用覆盖整个模型全周期的。

放在整个行业中,百度这一案例代表着AI科研的一种新基建,其核心逻辑在于将算力从孤立资源升级为智能化生产力中枢,通过全栈技术链重构科研工作流。

在这一过程中,企业与高校之间的合作展现出了一种新型的合作模式。

这种合作并非简单的点对点式对接,即在某个具体项目上的短暂合作,而是呈现出立体的、动态的和多样的特点。

他们发挥各自的优势,比如学校的人才积累和专业数据,企业的算力底座和产业级别算法,来共同应对大模型创新与应用的各种挑战。

就像同济大学与百度智能云合作,就格外具有代表性。

同济大学作为国家重点大学,肩负了一系列重大的国家专项科研任务和工程科研攻关使命。

为了满足同济大学在多模态大模型、机器自主感知、多智能体和具身智能方向等前沿领域的深度探索需求,百度智能云提供了全面的技术支持。

以百昆仑芯P800、百度百舸AI异构计算平台、百度智能云千帆大模型平台、百度智能云一见视觉大模型平台为基础,打造全国产底座的具身智能大模型开发平台,服务于同济大学围绕特色化示范性软件学院建设、智慧城市感知与规划重大工程软件技术教育部工程研究中心建设。

百舸一体机搭载昆仑芯P800,可在单机环境下部署满血版DeepSeek R1/V3全系列模型,满足轻量化与极致效价比需求。这一方案支持8bit推理,并全面兼容DeepSeek全系列模型,提供一键部署、开箱即用的便捷体验。

合作对学校多智能体系统技术的突破具有重要作用,有效提升校方多智能体强化学习算法、领域定制大模型、协同学习算法、智能代理算法的训练效率,并将赋能给不同场景机器人、无人机、多智能体设备等智能终端。

AI科研新基建的构建,本质上是一场面向科研范式的底层革命。

AI For Science:从AlphaFold到DeepSeek

DeepSeek R1模型,凭借其低成本高表现的显著优势,在全球科研领域迅速走红,受到了科学家们的热烈追捧。

比如用来探索新研究方向、日常数据处理、筛选整理科学文献等等。

回顾AI For Science的发展历程,上一次引发如此广泛关注和热议的是AlphaFold。

不过AlphaFold聚焦在提炼生物数据的价值,其核心贡献在于极大地提高了蛋白质以及大分子结构预测的效率,对于药物研发、基因编辑等诸多前沿方向带来深刻的影响。

而现在是以模型通用能力的极大提升、低成本零门槛部署的特点,带来是整个全面科研范式的赋能。

它不再局限于某一特定领域的数据处理和研究,而是广泛适用于多个学科领域。无论是物理学中的复杂模拟计算、化学中的分子反应预测,还是社会科学中的数据分析和预测,大模型都能发挥其独特的优势。

这种通用性使得不同学科的科研人员都能够轻松借助其能力开展研究工作,打破了学科之间的技术壁垒,促进了跨学科研究的发展。

同时,低成本零门槛的特点让更多科研团队,尤其是资源相对有限的科研机构和小型实验室,也能够享受到先进AI技术带来的便利。

此次DeepSeek在AI For Science上的赋能,标志着该领域来到了一个新的阶段。这对模型能力乃至整个科研周期的服务都提出了新的挑战。

比如稳定的算力、比如高质量专业数据。面对不同学科领域的海量数据和复杂问题,模型要能够快速学习和适应,提供精准有效的解决方案。在科研全周期中,从数据采集、处理、分析,到模型训练、验证和应用,每个环节都需要更高的效率和质量保障。



应对这些挑战方面,百度给出了一个参考答案。凭借其全栈的技术能力,为解决这些难题和关键瓶颈提供了有力支持,推动科研创新不断向前。

从AlphaFold到DeepSeek,人工智能技术发展重塑科研的未来。AI For Science的竞速才刚刚开始,需要更多国产玩家,呼唤更大的生态,实现AI在前沿科技的全新里程碑。

ad1 webp
ad2 webp
ad1 webp
ad2 webp