0
联系电话:4001-158-698EN

公司新闻 行业动态 产品知识

710公海寰宇(中国)有限公司- KV Cache需求暴涨32倍,AI如何重写存储产业链的「旧分工」?| MemoryS 2026观察

导语:“谁能解决AI时代数据搬运的功耗及延迟,谁就能界说下一个10年。”

作者 | 杨依婷

编纂 | 包永刚

去年的CFMS|MemoryS峰会上,存储厂商们会商的是:价格什么时候企稳、QLC什么时候上量、AI PC什么时候落地。彼时,“AI会让存储变患上更基础、更要害”,还有更像是一种行业判定,一种面向将来的趋向预演。

一年以后,站于MemoryS 2026的会场里,问题已经经完全变了。

人们评论辩论的再也不只是位元成本、颗粒供应及容量节拍,而是GPU使用率、token成本、体系调理效率,甚至物理AI场景中的及时决议计划能力。那些原本属在AI基础举措措施及体系架构层面的议题,正于愈来愈频仍地呈现于存储财产的会商中央。

于传统计较架构里,存储的职责更可能是“存”。数据被写入、留存,于需要时调取,不需要时则悄然默默逗留于体系边沿。它持久是BOM成本中的一项,是容量计划的问题,而很少直接介入算力效率的界说。

但于年夜模子练习与推理时代,这一脚色被完全改写。

KV Cache的拜候延迟,最先直接影响token天生速度;Checkpoint的写入效率,决议着GPU于练习历程中的等候时间;SSD的IOPS密度,则进一步影响年夜模子推理场景下的并发能力及体系吞吐。

存储最先进入计较主路径,它决议数据流动的速率,也于某种水平上决议GPU算力可否被充实兑现。而这,正于反向重塑整个存储财产链的分工逻辑。

存储进入计较路径,旧分工最先掉效

AI推理有一个被重复会商的瓶颈:KV Cache。

年夜模子于处置惩罚长上下文时,需要把每一一层、每个token天生历程中的Key及Value成果姑且生存下来,以免反复计较。上下文越长,并发越高,这部门缓存的体量就越惊人。

当高带宽显存没法继承承接,KV Cache只能向下一层存储介质下沉,NVMe SSD由此正式进入年夜模子推理的及时数据路径。

假如说已往SSD的任务是“晋升加载速率”,那末于AI时代,它最先直接约束或者决议推理吞吐的上限。

慧荣科技总司理苟嘉章的总结更为直接:“新一代存储,正于从数据存储进入计较存储。”

这句话险些点破了整个行业变化的素质。一旦存储进入计较路径,它就再也不只是静态生存数据,而是最先影响token天生效率:拜候时延影响输出速率,IOPS密度决议并发能力,写入效率摆布Checkpoint节拍,终极配合作用在单元token成本。

也正因云云,AI场景对于存储提出的要求,已经经较着凌驾了“尺度颗粒 + 通用主控 + 尺度模组产线”这套旧模式的能力界限。

2026年,全世界或许没有任何一款主流AI存储产物可以或许实现供需均衡。

外貌看,这是进步前辈产能连续向高毛利AI产物歪斜,消费级市场被进一步挤压;但更深层的问题于在,即便产能跟上,旧有分工模式也难以高效承接AI场景对于定制化、快速迭代的需求。

存储厂商团体越界

当存储真正进入计较路径,财产链上原本清楚的脚色界限最先松动:主控厂参与体系界说,模组厂延长至固件与方案优化,各自补全已往其实不属在本身的能力邦畿。

以慧荣为例,传统主控的焦点使命,是治理闪存介质、优化读写效率,并于不变性、兼容性及寿命之间寻觅均衡。但于AI时代,这套能力模子已经经不敷。

如今,慧荣最先重复夸大一种新的能力——机能动态调治。

慧荣科技总司理苟嘉章于与雷峰网交流时屡次夸大,主控需要“按照事情负载、功耗及需求量,于动态中快速调解”。这已经经再也不是传统意义上的硬件参数调优,而是直接相应英伟达新架构中“上下文内存存储(Context Memory Storage)”对于及时调理的需求。

KV Cache需求暴涨32倍,AI如何重写存储产业链的「旧分工」?| MemoryS 2026观察

换句话说,主控正于从“闪存节制器”,蜕变为AI存储体系里的调理层,它不只是卖力把数据写进去、读出来,更最先介入数据于GPU、显存及SSD之间的流动节拍界说。

这类变化,也于鞭策主控厂进一步向下流延长。

慧荣正于踊跃与长江存储结合推进车规级方案,方针是于第三季度末至第四序度实现范围上量,直接供货海内车厂。已往卖芯片的公司,如今愈来愈多地以“结合方案提供方”的身份呈现。

这象征着主控厂的贸易脚色也于变化:一方面向上理解AI事情负载,把主控纳入体系调理;另外一方面向下输出完备方案,从卖芯片走向卖体系能力。

将来存储财产的竞争,再也不只发生于颗粒、主控或者模组层,而是进一步延长到封装架构、异构互连及体系级协同,是生态、技能、产能、客户、本钱的综合战役。

端侧AI反向界说存储

AI对于存储的重构,显然不只发生于数据中央。

另外一条一样主要的疆场正于端侧迅速睁开——AI PC、呆板人、游戏掌机、智能眼镜,以致更多还没有被彻底界说的新型终端,都于把存储推向更焦点的位置。

正如浩繁厂商于峰会上提到的,物理AI/端侧AI将迎来更广泛的成长,并带来更智能化的体验。而这些更新更好的体验将带来更多的产物溢价,足以抵挡存储价格上涨的压力。 “

这句话暗地里,点出了端侧AI最实际的贸易逻辑:只要体验晋升充足较着,存储成本就再也不只是成本,而会转化为产物价值的一部门。

但与数据中央差别,端侧AI面对的不是单一机能问题,而是高度碎片化的场景挑战。

一台AI PC,需要于当地运行年夜模子,对于存储的焦点诉求是年夜容量 + 高速读取;一台呆板人,需要于高震惊、高挪动性的繁杂情况中连续不变运行,同时还有要撑持后期扩容;一副智能眼镜,则把需求进一步推向极致的小尺寸、低功耗及高集成度。

可插拔、可扩容、高抗震、小尺寸、高容量——这些要求往往相互拉扯,很难经由过程统一款尺度化模组同时满意。

这也是为何,端侧AI正于比数据中央更早倒逼存储方案走向场景化重构。

佰维给出的解法很是具备代表性。

针对于呆板人场景,其推出了一套 “BGA SSD + Mini SSD” 的组合方案:BGA SSD直接焊接于主板上,以更强抗震性负担体系盘脚色,保障操作体系及当地AI模子不变运行;Mini SSD则采用类SIM卡槽设计,撑持用户无东西插拔,作为数据盘解决嵌入式装备后期没法扩容的持久痛点。

这套方案的要害,其实不只是形态立异,而是它暗地里的产物逻辑:把“不变”及“矫捷”拆分为两个自力部件,并别离做到最优。这素质上已经经不是传统意义上的“卖一块SSD”,而是于从头界说呆板人存储架构。

更值患上存眷的是,佰维的动作并未逗留于单一产物层面。

它正于鞭策Mini SSD从企业级方案,进一步走向行业尺度。经由过程结合财产链上下流建立IP公司,并同步制订激励机制及权益金分配法则,佰维试图把“可插拔存储”推进为下一代AI终真个尺度能力。

其方针场景其实不局限在呆板人,而是进一步笼罩AI PC、游戏掌机等多类装备——这些终端当前仍采用差别形态的当地存储方案,而Mini SSD的野心,是用同一接口去从头构造它们。

换句话说,它争取的不只是产物份额,而是下一代端侧AI装备的尺度界说权。

而于这个历程中,已往那套面向PC及手机时代的尺度化存储模组,已经经愈来愈难承接碎片化、多形态、高迭代的终端需求。

更深层的变化于在,装备与存储之间的瓜葛,正于发生标的目的性的逆转——已往,是装备界说存储:装备要做甚么,存储就被动适配甚么。

而此刻,跟着当地AI能力愈来愈依靠容量、带宽、功耗及形态协同,存储最先反过来影响装备形态、产物界说,以致终极用户体验。

下一战:功耗、延迟、智能

AI最年夜的痛点并不是算力不足,而是数据于存储与计较单位间的频仍搬运,降低体系效率。怎样削减数据于存储与计较单位之间的频仍搬运,已经成为行业配合攻关的焦点命题。

这句话放于一年前,可能还有有点抽象。但颠末已往一年财产链上下流一连串险些同步发生的变化以后,它最先落到一个个极为详细的技能指标上:KV Cache的拜候时延、Checkpoint的写入效率、单元token成本等等。

已往十年,财产比拼的是单元容量的成本;下一个十年,胜败手将取决在数据于计较与存储之间流动的效率、功耗与智能。

至在那些仍恪守于旧分工里、只盯着颗粒价格颠簸的玩家,留给他们的时间,也许真的未几了。

雷峰网(公家号:雷峰网)

雷峰网原创文章,未经授权禁止转载。详情见转载须知。

-710公海寰宇(中国)有限公司
1210
在线客服
在线客服

Maggie

微信咨询

黎小姐