每经记者:岳楚鹏 每经编辑:高涵
今天(2月24日),DeepSeek开源周正式开启。
第一个开源的项目就是重量级技术DeepSeek-V3核心技术MLA的改进版本FlashMLA。该项目上线仅两个小时就已经收获了超过2600+star!
图片来源:Github
据介绍,FlashMLA的灵感来自FlashAttention 2&3和cutlass项目,是针对英伟达Hopper架构的GPU优化的高效MLA解码内核,主要在变长序列 (variable-length sequences) 的场景进行了深度优化,能够显著提升大模型推理效率。
FlashMLA速度非常快,在H800 GPU上具有3000 GB/s的内存速度上限以及580 TFLOPS的计算上限。此外,部署这一技术也很简单,只需要满足FlashMLA的运行环境要求(Hopper GPU、CUDA 12.3及以上版本以及PyTorch 2.0及以上版本),就可以一键通过`python setup.py install`完成配置。
总之,FlashMlA对英伟达GPU进行了优化。
图片来源:X
众所周知,MLA是DeepSeek大模型的重要技术创新点,之前Huggingface技术总监也曾多次赞扬此项技术。此次DeepSeek直接开源了该核心技术的改进版本,可以说是诚意满满。
DeepSeek表示,当前在线服务的模块已经经过测试、部署完备,可以投入生产环境。这个领域没有高高在上的象牙塔,只有纯粹的车库创业精神与社区共筑的创新力量。
正如很多网友的评价:DeepSeek才是真正的OpenAI。
图片来源:X
之前几次DeepSeek新模型和技术的公布都对美股和A股产生了很大的震动。
寒武纪(688256.SH)股价上个交易日20cm涨停,股价创新高;今天盘中最高795.8元,截至收盘大涨5.14%,续创新高。
寒武纪股价大涨和DeepSeek开源有什么关系?
每经小编问了DeepSeek。它分析称:
FlashMLA是DeepSeek对混合专家模型(MoE)架构的改进版本,这类技术需要高性能AI芯片提供算力支持。寒武纪的云端推理芯片(如MLU370)和训练芯片(如MLU590)直接受益于大模型技术迭代带来的算力需求增长。寒武纪作为国产龙头,可能因FlashMLA等本土技术突破获得更高关注度。
总之,FlashMLA的开源可能通过技术协同效应和市场情绪催化间接推动寒武纪股价,但直接因果关系较难量化。
图片来源:每日经济新闻App
从上面的截图,大家可以看到,每经小编并没有使用DeepSeek的App,因为总是“服务器繁忙”,而是从每日经济新闻App进入DeepSeek-R1。
2月12日每日经济新闻App和每经网全面接入DeepSeek、Kimi、豆包、智谱清言、文心一言和通义千问6款大模型。用户通过每日经济新闻App和每经网就能与大模型自由对话还能一键“问公司”“问投资”“问基金”。
不得不说,用起来真的很丝滑,目前使用量已经超13万次了!
咋用呢?超简单!
https://www.nbd.com.cn/corp/2016app/index.html
再往下看
一、 在每日经济新闻App首页,点击“DeepSeek”图标或首页轮播图“自由问+问公司问投资问基金免费使用DeepSeek、Kimi、豆包等六款大模型”。
二、 进入“每经大模型平台”页面,即可使用DeepSeek、Kimi、豆包、智谱清言、文心一言和通义千问6款大模型中任意一款。
最近,每经“136计划”还增加了新功能:
大模型解读投资热榜。
只需点击投资热榜中的任意新闻。
立即就能得到大模型的全面分析。
还能一键生成图片分享给朋友。
告别“服务器繁忙”
快用每日经济新闻App吧!
免责声明:本文内容与数据仅供参考,不构成投资建议,使用前请核实。据此操作,风险自担。