<strong id="5lvfi"><dl id="5lvfi"></dl></strong>

      • <tfoot id="5lvfi"><menuitem id="5lvfi"></menuitem></tfoot>
        <th id="5lvfi"><progress id="5lvfi"></progress></th>
          <strong id="5lvfi"><form id="5lvfi"></form></strong>
          <strong id="5lvfi"><form id="5lvfi"></form></strong>
        1. <del id="5lvfi"></del>

          首頁>商情資訊>行業(yè)新聞

          AI狂潮,GPU短缺嚴(yán)重,先進(jìn)封裝火力全開!

          2023-8-3 15:39:00
          • 如果說2016年擊敗李世石的使用強(qiáng)化學(xué)習(xí)模型的AlphaGO(阿爾法圍棋)沒有給你留下深刻影響,那么基于大語言模型技術(shù)的ChatGPT應(yīng)足以讓你感慨,AI的腳步越來越貼近我們的生活,我們對于AI所帶來的變動感知越來越清晰。

          如果說2016年擊敗李世石的使用強(qiáng)化學(xué)習(xí)模型的AlphaGO(阿爾法圍棋)沒有給你留下深刻影響,那么基于大語言模型技術(shù)的ChatGPT應(yīng)足以讓你感慨,AI的腳步越來越貼近我們的生活,我們對于AI所帶來的變動感知越來越清晰。

          從廣義上講,只要能夠運(yùn)行人工智能算法的芯片都叫作AI芯片。而從AI運(yùn)算過程看,其貫穿了云-邊-端,因此又可分為云端芯片、邊端芯片、終端芯片,外加一個適配海量數(shù)據(jù)的存儲芯片。具體到技術(shù)架構(gòu)層面,AI芯片主要分為圖形處理器(GPU)、現(xiàn)場可編程門陣列(FPGA)、專用集成電路(ASIC)、中央處理器(CPU)等類腦芯片四大類。

          當(dāng)下正值國內(nèi)外大模型爆發(fā)期,算力缺口出現(xiàn),GPU芯片引起市場關(guān)注。

          01
          GPU:每家都需要,每家都在搶

          當(dāng)下大部分的現(xiàn)象級AI產(chǎn)品如Chat GPT背后的算力支撐主要來自GPU或CPU+FPGA。其中GPU的火熱遠(yuǎn)超CPU。“GPU專為加速計算和生成式AI而設(shè)計,未來你需要更少的CPU,GPU的連接將會更加普遍。”英偉達(dá)CEO黃仁勛表示。

          大模型對于GPU的性能和數(shù)量要求都很高,據(jù)前人工智能NLP企業(yè)首席科學(xué)家、千芯科技董事長陳巍測算,國內(nèi)如果想要直接訓(xùn)練出一個GPT-3級別的大模型,最少需要3000到5000枚A100級別的AI芯片。以保守情況估計,目前國內(nèi)A100級別的AI芯片缺口在30萬枚左右。

          AI大火以后,英偉達(dá)旗下A100、H100、A800和H800等高性能GPU芯片應(yīng)聲漲價,一度被調(diào)侃為新一代理財產(chǎn)品。國內(nèi)外消息顯示,其旗艦級芯片H1004月中旬在海外電商平臺就已炒到超4萬美元,甚至有賣家標(biāo)價6.5萬美元。英偉達(dá)的中國特供版A800和H800芯片也不例外,近日一位經(jīng)銷商表示,目前其手中NVIDIA A800的售價已較一周上漲約30%,服務(wù)器現(xiàn)貨則由120多萬元一臺漲至接近140萬元。

          那個愛穿皮衣的男人最先嘗到了AI紅利。在上市14年之后,英偉達(dá)成功躋身萬億美元市值俱樂部,而實(shí)現(xiàn)這一目標(biāo),硅谷巨頭們諸如蘋果用了37年、微軟用了33年、亞馬遜用了21年,特斯拉跑得最快,只用了11年。

          不過,在GPU爆火大潮下,也難以逃脫如2020年車規(guī)芯片短缺的境遇。GPU的供應(yīng)短缺到了何種程度呢?當(dāng)下即使如OpenAI,也無法獲得足夠的GPU,馬斯克表示,這嚴(yán)重阻礙了其近期路線圖。

          業(yè)界消息顯示,GPU缺口還在加速擴(kuò)大。此前已有媒體報道今年擁有云端相關(guān)業(yè)務(wù)的企業(yè),大多都向英偉達(dá)采購了大量GPU,目前該公司訂單已排至2024年。

          02
          產(chǎn)能跟不上,先進(jìn)封裝是關(guān)鍵

          GPU芯片供應(yīng)短缺的背后,與先進(jìn)封裝產(chǎn)能供應(yīng)不足息息相關(guān)。從從供應(yīng)鏈角度看,先進(jìn)封裝一定程度上影響著AI芯片的放量速度。

          行業(yè)消息顯示,目前NVIDIA A100、H100 GPU完全由臺積電代工生產(chǎn),搭載第三代HBM(高帶寬內(nèi)存),并使用臺積電CoWoS先進(jìn)封裝技術(shù),此外博通、AMD等芯片公司也在爭搶臺積電CoWoS產(chǎn)能,導(dǎo)致臺積電產(chǎn)能壓力大增。

          面對先進(jìn)封裝CoWoS產(chǎn)能爆滿,近日在2023年第二季度線上法說會上,臺積電表示,到2024年CoWos產(chǎn)能將擴(kuò)充2倍以上。臺積電總裁魏哲家表示,與AI芯片相關(guān)的一些高級封裝可能在2024年底之前仍然供應(yīng)緊張。因此,需求可能在相當(dāng)長的時間內(nèi)持續(xù)超過供應(yīng),因?yàn)锳MD和英偉達(dá)將無法擴(kuò)大生產(chǎn)至某個點(diǎn),盡管某些4nm和5nm的產(chǎn)能是可用的。

          近期,媒體報道為滿足市場需求,臺積電已向Disco、Apic Yamada及臺廠辛耘、弘塑等先進(jìn)封裝設(shè)備供應(yīng)商啟動第三波追單。

          03
          響應(yīng)需求,HBM加速開發(fā)

          由于目前幾乎所有的HBM系統(tǒng)都封裝在CoWos上,HBM存儲本質(zhì)上也屬于先進(jìn)封裝的一部分。

          根據(jù)TrendForce集邦咨詢調(diào)查顯示,2023年HBM(High Bandwidth Memory)市場主流為HBM2e,包含NVIDIA A100/A800、AMD MI200以及多數(shù)CSPs自研加速芯片皆以此規(guī)格設(shè)計。同時,為順應(yīng)AI加速器芯片需求演進(jìn),各原廠計劃于2024年推出新產(chǎn)品HBM3e,預(yù)期HBM3與HBM3e將成為明年市場主流。

          TrendForce集邦咨詢特別表示,目前市場所稱的HBM3實(shí)際需細(xì)分為兩種速度討論,其一,5.6~6.4Gbps的HBM3;其二,8Gbps的HBM3e,別名HBM3P、HBM3A、HBM3+、HBM3 Gen2皆屬此類。

          目前三大原廠HBM發(fā)展進(jìn)度如下,兩大韓廠SK海力士(SK hynix)、三星(Samsung)先從HBM3開發(fā),代表產(chǎn)品為NVIDIA H100/H800以及AMD的MI300系列,兩大韓廠預(yù)計于2024年第一季送樣HBM3e;美系原廠美光(Micron)則選擇跳過HBM3,直接開發(fā)HBM3e。

          AI狂潮,GPU短缺嚴(yán)重,先進(jìn)封裝火力全開!

          HBM3e將由24Gb mono die堆棧,在8層(8Hi)的基礎(chǔ)下,單顆HBM3e容量將一口氣提升至24GB,此將導(dǎo)入在2025年NVIDIA推出的GB100上,故三大原廠預(yù)計要在2024年第一季推出HBM3e樣品,以期在明年下半年進(jìn)入量產(chǎn)。

          封面圖片來源:拍信網(wǎng)

            <strong id="5lvfi"><dl id="5lvfi"></dl></strong>

              • <tfoot id="5lvfi"><menuitem id="5lvfi"></menuitem></tfoot>
                <th id="5lvfi"><progress id="5lvfi"></progress></th>
                  <strong id="5lvfi"><form id="5lvfi"></form></strong>
                  <strong id="5lvfi"><form id="5lvfi"></form></strong>
                1. <del id="5lvfi"></del>
                  欧美一级做A片 | 国产豆花无码 | 三级视频在线观看 | 五月六月婷婷 | 青青草免费在线视 |