精品国产18久久久久久,一个人在线观看的www,亚洲一区二区久久久,成人国内精品久久久久影院vr,最近免费中文字幕大全高清大全1

引領(lǐng)大模型推理效率革命!浪潮存儲(chǔ)發(fā)布國內(nèi)首款推理加速存儲(chǔ)AS3000G7

2025-07-29 15:15:57AI云資訊1705

2025年7月25日,浪潮存儲(chǔ)營銷總監(jiān)張業(yè)興出席中國信息通信研究院主辦的2025(第二屆)產(chǎn)融合作大會(huì)。會(huì)上,張業(yè)興發(fā)表題為《融存智用 運(yùn)籌新數(shù)據(jù) ——浪潮存儲(chǔ)金融解決方案和實(shí)踐》的主題演講,并代表浪潮存儲(chǔ)正式發(fā)布國內(nèi)首款推理加速存儲(chǔ)AS3000G7。該產(chǎn)品憑借“以存代算”的技術(shù)創(chuàng)新,有效破解KV Cache重復(fù)計(jì)算帶來的算力和時(shí)延損耗難題,為大模型推理場景提供突破性解決方案,加速推動(dòng)大模型在金融、科研等領(lǐng)域的規(guī)模化落地。

大模型推理效能瓶頸:吞吐量和時(shí)延

當(dāng)前人工智能大模型的應(yīng)用已滲透千行百業(yè),既推動(dòng)著產(chǎn)業(yè)效能的跨越式提升,也深刻重構(gòu)著生產(chǎn)生活的底層邏輯,成為驅(qū)動(dòng)數(shù)字經(jīng)濟(jì)發(fā)展與社會(huì)智能化升級(jí)的核心力量。隨著大模型應(yīng)用的普及和相關(guān)技術(shù)的發(fā)展,各行各業(yè)對(duì)大模型應(yīng)用的關(guān)注點(diǎn)逐漸從大模型的訓(xùn)練轉(zhuǎn)到大模型的推理。據(jù)IDC數(shù)據(jù)顯示,智能算力規(guī)模在未來5年增長1.7倍,用于推理的工作負(fù)載將從2023年的40%上升到2027年的70%以上。因此,大模型推理將會(huì)成為未來大模型應(yīng)用的焦點(diǎn)。然而,當(dāng)前大模型推理仍然需要借助GPU服務(wù)器來實(shí)現(xiàn),而GPU服務(wù)器,也是整個(gè)大模型落地中最昂貴的投資。因此,充分發(fā)揮GPU服務(wù)器的利用率來提升大模型推理效率是大模型的落地關(guān)鍵,推理效率的高低直接決定著大模型從“實(shí)驗(yàn)室”到“生產(chǎn)線”的落地速度。

大模型推理效率面臨兩大核心瓶頸:吞吐量(Tokens/s)和時(shí)延。吞吐量是指系統(tǒng)在單位時(shí)間內(nèi)能處理的tokens的數(shù)量,數(shù)值越高表明LLM服務(wù)資源利用率越高、系統(tǒng)成本越低。時(shí)延則是用戶接收每個(gè)token的平均耗時(shí),其中首字時(shí)延(TTFT)是長文本對(duì)話場景中 “實(shí)時(shí)交互體驗(yàn)” 的核心指標(biāo),直接影響用戶體驗(yàn)。

大模型的推理包含兩個(gè)階段,第一個(gè)階段是預(yù)填充(Prefilling)階段。Prefilling階段處理輸入,構(gòu)建初始上下文并緩存成KV Cache(key-value鍵值對(duì)),緩存在GPU的HBM顯存里。第二個(gè)階段是解碼(Decode)階段,解碼階段則利用Prefilling階段生成的KV Cache,迭代地生成輸出Token,最終給出推理答案。

根據(jù)大數(shù)據(jù)統(tǒng)計(jì)分析,超過 76% 的對(duì)話都是多輪的,多輪對(duì)話會(huì)產(chǎn)生大量的KV Cache,上一輪的對(duì)話產(chǎn)生的KV Cache也會(huì)作為下一輪推理的輸入基礎(chǔ),為連續(xù)交互提供上下文支撐。但實(shí)際場景中,GPUHBM顯存容量存在明顯限制,因此多輪對(duì)話中的KV Cache會(huì)被強(qiáng)制丟棄,在下一輪對(duì)話中需要消耗算力來重新計(jì)算。以DeepSeek 70B模型為例,其每10分鐘產(chǎn)生的KV Cache高達(dá)25TB,但每張GPU HBM顯存只有幾十GB,因此,在服務(wù)完一個(gè)請(qǐng)求后,需清空顯存以接納新請(qǐng)求,KV Cache被強(qiáng)制丟棄,在后續(xù)對(duì)話中,原本可復(fù)用的KV Cache需要重新計(jì)算。這種重復(fù)計(jì)算直接時(shí)延增加(首字響應(yīng)變慢),同時(shí)造成GPU算力空轉(zhuǎn)(重復(fù)執(zhí)行相同計(jì)算),導(dǎo)致吞吐量下降,最終導(dǎo)致資源利用率降低。因此,高效管理KV Cache緩存成為提升推理效率的關(guān)鍵。

存儲(chǔ)產(chǎn)品托管KV Cache,實(shí)現(xiàn)“以存代算”

浪潮存儲(chǔ)AS3000G7作為國內(nèi)首款推理加速存儲(chǔ),可存儲(chǔ)所有KV Cache及多輪對(duì)話結(jié)果。其創(chuàng)新架構(gòu)通過將KV Cache從GPU寫入本機(jī)內(nèi)存,再經(jīng)高速網(wǎng)絡(luò)緩存至AS3000G7,下輪對(duì)話時(shí)按需拉取緩存無需重新計(jì)算,徹底實(shí)現(xiàn)“以存代算”,顯著節(jié)省算力消耗并提升資源利用率。

作為國內(nèi)首款推理加速存儲(chǔ)產(chǎn)品,AS3000G7以四大核心優(yōu)勢重塑推理效率:

降低響應(yīng)延遲:將歷史Token緩存至AS3000G7存儲(chǔ)層,下輪對(duì)話從NVMe SSD硬盤中拉取歷史token的KV Cache,減少GPU重復(fù)計(jì)算帶來的資源消耗,TTFT降低90%;

承載更多并發(fā):TTFT在400ms以內(nèi)的前提下,系統(tǒng)可支持的吞吐量(Token/s)可達(dá)原方案5倍,單位GPU資源可承載更多推理請(qǐng)求;

降低GPU功耗:TTFT的降低與并發(fā)的提升,單Token平均功耗下降60%,在承載同等規(guī)模 token 負(fù)載時(shí),GPU服務(wù)器整機(jī)功耗降低。

生態(tài)兼容適配:廣泛兼容國產(chǎn)與海外芯片的異構(gòu)算力平臺(tái),深度適配vLLM框架下的deepseek等主流大模型,優(yōu)化推理體驗(yàn)。

在某頭部客戶聯(lián)合測試中,采用1臺(tái)GPU服務(wù)器搭配1臺(tái)AS3000G7推理加速存儲(chǔ)的組合方案實(shí)現(xiàn):

穩(wěn)定支撐500+并發(fā)對(duì)話,TTFT降低90%,響應(yīng)速度大幅提升

同硬件配置下吞吐量(Tokens/s)提升5倍,在不增加 GPU 資源的情況下,實(shí)現(xiàn)更高并發(fā)的推理請(qǐng)求

單token功耗降低70%,單位算力成本降低60%,推理性價(jià)比提升

隨著大模型推理需求的持續(xù)攀升,AS3000G7的推出恰逢其時(shí)。其通過 “以存代算” 的技術(shù)創(chuàng)新突破 KV Cache 重計(jì)算瓶頸,為 AI 規(guī)?;瘧?yīng)用筑牢存儲(chǔ)根基。未來,隨著多模態(tài)與實(shí)時(shí)交互場景的普及以及存儲(chǔ)與計(jì)算的協(xié)同優(yōu)化,KV Cache “以存代算”將成為降本增效的核心競爭力,為智能時(shí)代的推理存儲(chǔ)構(gòu)建新基準(zhǔn)。

相關(guān)文章

人工智能企業(yè)

更多>>

人工智能硬件

更多>>

人工智能產(chǎn)業(yè)

更多>>

人工智能技術(shù)

更多>>
AI云資訊(愛云資訊)立足人工智能科技,打造有深度、有前瞻、有影響力的泛科技媒體平臺(tái)。
合作QQ:1211461360微信號(hào):icloudnews