來源:中國能源新聞網(wǎng) 時間:2026-03-24 16:10
陸昊
3月20日,華為云中小企業(yè)AI解決方案發(fā)布會上推出了一項算力黑科技——柔性智算操作系統(tǒng)FlexNPU,將Token消耗“吞金獸”有效控制在企業(yè)預(yù)算范圍內(nèi),打造面向Agentic時代的極致Token性價比,為企業(yè)級智能體的普及突破算力瓶頸。
華為云中國區(qū)銷售伙伴發(fā)展部部長、華為云中國區(qū)Marketing與解決方案銷售部部長郭婷在致辭中表示,2026年華為云將構(gòu)建AI時代更加肥沃的“黑土地”,讓算力服務(wù)更柔性、更適配中小企業(yè)的輕量化需求,實現(xiàn)從“調(diào)度靠拍板”到“成本算到精”的轉(zhuǎn)變,解決“用不起、用不好”算力的核心難題。
企業(yè)AI應(yīng)用現(xiàn)狀:一半是海水,一半是火焰
當(dāng)下,“養(yǎng)龍蝦”成為全民熱點話題,為千行萬業(yè)尤其是中小企業(yè)提供了建設(shè)智能化工作流程的清晰思路。會上,華為云SMB解決方案與持續(xù)運營部部長劉杰用“一半是海水,一半是火焰”生動形容了目前企業(yè)智能化轉(zhuǎn)型的現(xiàn)狀:以O(shè)penClaw為代表的先進生產(chǎn)力工具層出不窮,但AI實際應(yīng)用往往面臨著成本高山、技術(shù)壁壘、場景錯位等挑戰(zhàn)。
對此,華為云發(fā)布中小企業(yè)AI解決方案,涵蓋AI基礎(chǔ)設(shè)施層、模型服務(wù)層、智能體平臺層、智能體應(yīng)用層,幫助企業(yè)打造能對接ERP、能調(diào)用API、能閉環(huán)業(yè)務(wù)流程的“數(shù)字員工”。目前,華為云已深入2600多家企業(yè)、30多個行業(yè),解決500多個AI場景化問題,成為企業(yè)AI創(chuàng)新路上的可靠伙伴。
劉杰介紹,在AI基礎(chǔ)設(shè)施層,華為云提供昇騰多代系產(chǎn)品,以及自研的AI Infra OS,尤其是FlexNPU柔性智算技術(shù),一方面滿足中小企業(yè)小模型訓(xùn)練場景,另一方面通過彈性調(diào)度能夠大幅提升資源利用率;在模型服務(wù)層,華為云支持業(yè)界主流開源模型,讓企業(yè)既能根據(jù)業(yè)務(wù)需求靈活選擇,也能結(jié)合自有數(shù)據(jù)低成本微調(diào)專屬模型;在智能體平臺層,華為云提供易用高效的Agent開發(fā)環(huán)境,助力開發(fā)者和中小企業(yè)面向行業(yè)結(jié)合場景打造企業(yè)級智能體;在智能體應(yīng)用層,華為云聯(lián)合伙伴深入場景,覆蓋洞察分析、營銷運營、協(xié)同辦公、開發(fā)運維、內(nèi)容制作等高頻需求。
會上,華為云發(fā)布“加速智能化 企業(yè)快成長行動2026”,為中小企業(yè)、開發(fā)者提供從品牌、商業(yè)、技術(shù)等全方位的支持,共贏AI市場,共同加速企業(yè)智能升級。
打造算力“金箍棒”,大幅降低算力成本
“我們的推理池平均利用率竟然不足30%,我們花費重金建設(shè)、動輒數(shù)萬、數(shù)十萬卡的AI硬件算力池,竟有超過一半以上的算力在‘摸魚,吃空餉’?!比A為云首席架構(gòu)師、華為公司Fellow顧炯炯在現(xiàn)場拋出了一組驚人數(shù)據(jù)。他指出,Agent時代企業(yè)普遍面臨算力痛點:Agent自主規(guī)劃、多輪迭代、長上下文導(dǎo)致Token消耗量呈指數(shù)級增長,如何有效降低Token成本,成為最核心和迫切的挑戰(zhàn)。
為此,華為云發(fā)布了黑科技——柔性智算FlexNPU,通過構(gòu)筑強大而靈活的AI Infra層算力調(diào)度技術(shù),大幅提升推理池的有效算力利用率,從而以相同AI硬件算力投入,提供更大的Token吞吐輸出。
對于柔性智算FlexNPU,顧炯炯以可大可小、變化隨心的“如意金箍棒”生動形容,表示FlexNPU賦予NPU/GPU算力“柔性或液態(tài)化”供給與伸縮的能力,可依據(jù)任意業(yè)務(wù)需求動態(tài)變化隨需而動,如同金箍棒一般“可大可小、變化隨心”,通過最大化AI算力投入的利用率,最終實現(xiàn)Token性價比的最優(yōu)化。
具體而言,柔性智算FlexNPU具備極致共享、極致彈性和極致高可用3大屬性:
大模型推理方面,F(xiàn)lexNPU通過引入基于柔性算力的PD動態(tài)混部、在離線推理混部等創(chuàng)新技術(shù),完美解決了傳統(tǒng)PD分離架構(gòu)下Prefill和Decode集群不均衡的AI Core與顯存利用率,以及推理業(yè)務(wù)潮汐變化規(guī)律所導(dǎo)致的大量AI算力空轉(zhuǎn)浪費難題,將帶來至少40%的Token性價比提升空間。
小模型推理方面,FlexNPU通過實現(xiàn)最小粒度達1% NPU卡及128MB顯存的顆粒度的AICore時分復(fù)用,以及顯存空分復(fù)用,為小模型提供真正完美匹配其算力訴求、量體裁衣的虛擬NPU資源,將小模型的平均算力成本降低2-3倍以上。
推理高可用保障方面,FlexNPU通過軟硬解耦及Token級KV Cache的實時快照,使得上層推理框架不再需要感知底層的硬件故障,即可實現(xiàn)故障秒級快速恢復(fù)及斷點續(xù)推,大大減少了Agent推理會話重計算開銷,提升了用戶的推理體驗。
顧炯炯最后總結(jié)到,F(xiàn)lexNPU的核心價值體現(xiàn)在:無需再為大模型推理的閑置算力,以及小模型推理的獨占算力浪費買單,更不再需要為昂貴的故障重算買單,真正實現(xiàn)了AI算力分配供給從“資源模式”到“效率模式”的范式轉(zhuǎn)變,“讓每分AI算力投入迸發(fā)最大價值,讓智能體的海量Token人人消費得起”。
深入千行萬業(yè),做好伙伴AI創(chuàng)新的“黑土地”
華為云領(lǐng)先的智能化基礎(chǔ)設(shè)施,正在成為千行萬業(yè)伙伴進行技術(shù)創(chuàng)新、產(chǎn)品研發(fā)和商業(yè)拓展的重要支撐。發(fā)布會現(xiàn)場,華為云伙伴代表天寬科技有限公司CTO龔徐建、天津宏達瑞信科技有限公司CEO丁照祥分享了各自的真實案例。
人工智能底層技術(shù)發(fā)展,牽引Al Infra算力基礎(chǔ)設(shè)施、開閉源大小模型、Agent使能框架與工具等快速演進,激發(fā)更多AI創(chuàng)新。面向未來,華為云將秉持“用AI解行業(yè)難題”的理念,在應(yīng)用層、模型層、算力層耕耘AI算力黑土地,攜手伙伴共進共贏,抓住AI時代的機遇。
責(zé)任編輯:王萍