来源:环球网

【环球网智驾综合报道】4月23日,上海国际车展期间,芯驰科技正式推出其最新一代AI座舱芯片——X10。基于X9系列智能座舱产品已实现数百万片量产交付的坚实基础,芯驰科技此次凭借X10在性能、架构及AI生态方面的突破性创新,率先引领座舱处理器向AI时代转型,树立了全民AI时代座舱处理器的新标杆。


芯驰CTO孙鸣乐分享全民AI时代座舱处理器新标杆X10最新进展

架构与工艺双重突破,算力与带宽全面升级

随着大模型技术的迅猛发展,传统智能座舱正加速向AI座舱演进,对处理器性能提出更高要求。芯驰X10采用专为AI计算优化的ARMv9.2 CPU架构,CPU性能达200K DMIPS,并集成1800 GFLOPS GPU与40 TOPS NPU,配合128-bit LPDDR5X内存接口(9600 MT/s),提供154 GB/s的超大带宽。制程工艺方面,X10采用4nm先进制程,在晶体管密度、性能及功耗控制上较主流7nm/5nm芯片显著提升,可高效支持AI座舱在复杂场景下的持续计算需求。

AI能力跃升,端侧部署7B多模态大模型成现实


芯驰X10,打造出全民AI时代座舱处理器新标杆

汽车座舱AI能力正从基础语音交互向多模态智能体功能演进,端侧模型从1B升级至7B多模态模型成为核心需求。然而,端侧部署7B模型的性能门槛(512 Token输入下1秒首Token输出、20 Token/s持续运行)对处理器算力(30—40 TOPS)与带宽(90 GB/s)提出严苛挑战。芯驰X10聚焦AI座舱核心需求,提供40 TOPS NPU算力与154 GB/s带宽,有效解决云端部署的延迟与隐私问题,确保大模型性能充分释放。

传统应用与AI体验兼得,系统资源分配更高效

智能座舱传统功能(如仪表、HUD、导航等)与AI大模型并发运行时,带宽资源竞争成为行业痛点。X10以154 GB/s带宽(较当前旗舰芯片翻倍)的配置,支持7B大模型与多屏显示、多应用并发,确保CPU、GPU、NPU在复杂场景下均能获得充足资源,避免因资源分配不均导致的性能折损。


多模型结合AI座舱场景成为核心需求

多模态感知与多任务协同,AI体验更“懂你”

X10集成丰富传感器接口,支持车内乘员状态感知(DMS)、车外环境感知及车辆状态信息输入,为AI大模型提供全场景数据支持。其NPU设计兼顾功能安全计算需求,可同时运行多个小模型,并实现AI推理任务的灵活调度,确保“小模型快速响应、大模型及时反馈”。

开放生态赋能,加速AI应用落地

芯驰科技围绕X10构建开放、多元的AI生态系统,支持DeepSeek、Qwen、Llama等开源大模型,并与斑马智行、面壁智能等合作伙伴完成车载AI大模型适配。配套AI工具链涵盖编译、量化、仿真及性能分析功能,SDK提供标准化模型调用接口,大幅缩短模型部署与调优周期,降低开发门槛,加速AI技术在座舱场景的落地应用。


芯驰CTO孙鸣乐分享X10“懂你所想”

定义AI座舱新范式,X10引领行业变革

芯驰X10的发布标志着智能座舱向AI普及化迈出关键一步,不仅解决了当前技术瓶颈,更为未来3-5年座舱发展指明方向。对汽车制造商而言,X10系列显著降低AI功能开发成本,助力产品快速迭代。此前,芯驰X9系列已成为中国车规级智能座舱芯片主流之选,覆盖50余款车型。


芯驰X10,专注AI座舱核心需求

芯驰科技计划于2026年量产X10系列芯片,并持续携手主机厂、Tier 1及生态合作伙伴,共同推动AI座舱创新突破,驱动智能座舱全面迈入全民AI时代。(文智)

ad1 webp
ad2 webp
ad1 webp
ad2 webp