<strong id="5lvfi"><dl id="5lvfi"></dl></strong>

      • <tfoot id="5lvfi"><menuitem id="5lvfi"></menuitem></tfoot>
        <th id="5lvfi"><progress id="5lvfi"></progress></th>
          <strong id="5lvfi"><form id="5lvfi"></form></strong>
          <strong id="5lvfi"><form id="5lvfi"></form></strong>
        1. <del id="5lvfi"></del>

          首頁>商情資訊>行業(yè)新聞

          AI應(yīng)用落地駛?cè)肟燔嚨溃a(chǎn)業(yè)應(yīng)如何夯實算力根基?

          2025-5-7 9:31:00
          • 持續(xù)推進(jìn)“人工智能+”行動,AI大模型驅(qū)動算力與產(chǎn)業(yè)升級

          AI應(yīng)用落地駛?cè)肟燔嚨溃a(chǎn)業(yè)應(yīng)如何夯實算力根基?

          持續(xù)推進(jìn)“人工智能+”行動,AI大模型驅(qū)動算力與產(chǎn)業(yè)升級

          2025年,政府報告首次將“支持大模型廣泛應(yīng)用”寫入,強調(diào)持續(xù)推進(jìn)“人工智能+”的戰(zhàn)略。近年來,大模型技術(shù)突飛猛進(jìn),不僅帶動了算力、算法和數(shù)據(jù)等核心基礎(chǔ)的迭代升級,也推動了芯片及信息基礎(chǔ)設(shè)施等硬科技與軟件服務(wù)的協(xié)同發(fā)展,為產(chǎn)業(yè)生態(tài)形成了完整閉環(huán)。當(dāng)前,大模型已逐步成為新質(zhì)生產(chǎn)力的核心動力,深度重塑著生產(chǎn)力體系。

          在政策持續(xù)加碼、市場需求愈發(fā)旺盛的雙重驅(qū)動下,中國AI大模型市場保持高速擴張。據(jù)IDC預(yù)計,2024年中國大模型應(yīng)用市場已達(dá)47.9億元,2028年有望增長至211億元。AI大模型的加速普及不僅帶動了云端算力需求,更在端側(cè)(如機器人、智能終端)形成“大模型+傳感器+場景”的協(xié)同生態(tài)。

          機遇與挑戰(zhàn)并存。隨著AI大模型加速落地,產(chǎn)業(yè)對于高性能、低延遲、強本地處理能力的訴求也在提升。尤其是推理任務(wù)向更廣泛、更高效的端側(cè)部署,產(chǎn)業(yè)升級面臨新的挑戰(zhàn)。

          云到端:算力需求和計算模式的變革

          生成式AI的爆發(fā),令大模型應(yīng)用從云端向“云—邊—端”全棧部署延伸,計算資源需求隨之升級。

          云端層面,無論訓(xùn)練還是推理,對算力和能效的要求都在持續(xù)攀升。模型參數(shù)量已經(jīng)從千億邁向萬億,訓(xùn)練階段需要大規(guī)模GPU集群。推理成本與用戶訪問量同步提升,服務(wù)器功耗和推理成本面臨極限挑戰(zhàn),傳統(tǒng)x86架構(gòu)的數(shù)據(jù)中心難以滿足當(dāng)前增長速度。

          端側(cè)層面,為緩解對云端的依賴,產(chǎn)業(yè)通過模型剪枝、知識蒸餾等技術(shù)減少模型體積,但對本地算力和能效的要求更加嚴(yán)格。設(shè)備端亟需適配高性能CPU、大顯存顯卡和高速存儲,智能手機、車載系統(tǒng)智能終端之間的算力競爭日趨激烈,醫(yī)療、教育、工業(yè)智能等領(lǐng)域同樣需求強勁。

          展望未來,AI大模型終端化浪潮還將加速。這一趨勢背后,既有技術(shù)進(jìn)步,也有多場景需求和產(chǎn)業(yè)政策疊加的驅(qū)動。端云協(xié)同正成為行業(yè)新常態(tài)——云端側(cè)重訓(xùn)練和全局推理,端側(cè)側(cè)重實時響應(yīng)和數(shù)據(jù)隱私。在智能制造、智慧醫(yī)療、自動駕駛等領(lǐng)域,打造一體化“云—邊—端”架構(gòu),并通過模型優(yōu)化和硬件加速,成為企業(yè)轉(zhuǎn)型不可或缺的路徑。當(dāng)前,Arm架構(gòu)因高能效、高性能和靈活性,在云到端的AI部署中表現(xiàn)突出,為大模型賦能提供了堅實的計算基礎(chǔ)。

          Arm技術(shù)全棧賦能AI落地

          為應(yīng)對AI大模型從云端到終端的全鏈路算力需求,Arm提供了完整的軟硬件解決方案。

          云端優(yōu)勢

          Arm Neoverse平臺憑借高能效、廣泛的行業(yè)認(rèn)可度,已成為基礎(chǔ)設(shè)施和AI推理領(lǐng)域的代表。2025年,全球超大規(guī)模云服務(wù)商出貨算力中,預(yù)計約有一半將采用Arm架構(gòu)。亞馬遜(AWS)、Google Cloud、Azure等均基于Arm Neoverse開發(fā)定制芯片,并優(yōu)化了數(shù)據(jù)中心的能源效率。以AWS Graviton4 CPU為例,基于Arm Neoverse V2,其在處理Llama 3 8B等大型模型時,性能相較前代提升明顯:提示詞編碼速度提升14%—26%,不同批次生成性能最大提升可達(dá)50%。

          終端與邊緣協(xié)同

          在終端領(lǐng)域,Arm CSS計算子系統(tǒng)集成了Armv9.2 Cortex CPU集群、Immortalis與Mali GPU,并通過知名代工實現(xiàn)3納米工藝。Cortex-X925在AI推理(如大語言模型本地生成)場景下,AI性能提升了41%。Armv9架構(gòu)不僅帶來了SME(可伸縮矩陣擴展)、SVE2(可伸縮矢量擴展)等AI加速指令,讓本地AI推理更高效,也顯著改善了DSP任務(wù)性能,適應(yīng)了端側(cè)對高算力與低能耗的雙重需求。

          在邊緣AI領(lǐng)域,Arm最新發(fā)布的計算平臺主打高能效CPU(如Cortex-A320)和支持Transformer的大型AI加速器(Ethos-U85),推動大模型在更多終端設(shè)備的落地。

          構(gòu)建軟件生態(tài)

          軟件層面,Arm于2024年推出KleidiAI軟件庫,助力AI開發(fā)者在各類終端全面釋放Arm CPU的潛能,兼容Neon、SVE2、SME2等關(guān)鍵指令集。KleidiAI不僅已適配PyTorch、TensorFlow、MediaPipe等主流框架,并明顯提升Llama 3、Phi-3、混元等主流大模型在Arm平臺上的運行效率,覆蓋基礎(chǔ)設(shè)施、智能終端、物聯(lián)網(wǎng)和車載等主要應(yīng)用場景。

          總結(jié)

          隨著AI大模型全面部署,計算產(chǎn)業(yè)邁入新階段。Arm架構(gòu)依托“云—邊—端”協(xié)同布局,以高效計算和成熟生態(tài),成為新質(zhì)生產(chǎn)力的有力引擎。無論是在數(shù)據(jù)中心打破能效瓶頸,還是賦能終端AI本地推理,亦或通過KleidiAI連接軟件與硬件,Arm的全棧方案已成為大模型創(chuàng)新與落地不可或缺的底座。

            <strong id="5lvfi"><dl id="5lvfi"></dl></strong>

              • <tfoot id="5lvfi"><menuitem id="5lvfi"></menuitem></tfoot>
                <th id="5lvfi"><progress id="5lvfi"></progress></th>
                  <strong id="5lvfi"><form id="5lvfi"></form></strong>
                  <strong id="5lvfi"><form id="5lvfi"></form></strong>
                1. <del id="5lvfi"></del>
                  黄色片视频日本 | 亚洲综合娱乐久久 | 东方AV在线一 | 国产一级a毛一级a毛视频在线网站) | 国产一级aa |