中新網(wǎng)北京8月24日電 (記者 孫自法)國際著名學(xué)術(shù)期刊《自然》最新發(fā)表一篇計算科學(xué)論文,研究人員報道了一種能效為傳統(tǒng)數(shù)字計算機芯片14倍的模擬人工智能(AI)芯片。研究顯示,這一由美國IBM研究實驗室開發(fā)的芯片在語音識別上的效率超過通用處理器,該項技術(shù)或能打破當(dāng)前AI開發(fā)中因?qū)λ懔π阅芎托实男枨蠖龅降钠款i。
14納米模擬AI芯片在檢測板上(圖片來自Ryan Lavine)。施普林格·自然 供圖
該論文介紹,隨著AI技術(shù)的崛起,對能源和資源的需求也隨之上升。在語音識別領(lǐng)域,軟件升級極大提升了自動轉(zhuǎn)寫的準確率,但由于在存儲器與處理器之間移動的運算數(shù)量不斷增加,硬件無法跟上訓(xùn)練和運行這些模型所需的數(shù)以百萬計的參數(shù)。研究人員提出的一個解決辦法是使用“存內(nèi)計算”(CiM,或稱模擬AI)芯片。模擬AI系統(tǒng)通過直接在它自己的存儲器內(nèi)執(zhí)行運算來防止低效,而數(shù)字處理器需要額外時間和能源在存儲器和處理器之間移動數(shù)據(jù)。模擬AI芯片預(yù)計能極大提升AI計算的能效,但之前對此的實際演示一直缺乏。
研究者手上拿著的14納米模擬AI芯片(圖片來自Ryan Lavine)。施普林格·自然 供圖
論文第一作者和通訊作者、IBM研究實驗室S. Ambrogio和同事開發(fā)了一個14納米的模擬AI芯片,在34個模塊(tile)中含有3500萬個相變化內(nèi)存單元。研究團隊用兩個語音識別軟件在語言處理能力上測試了該芯片的效率,這兩個軟件分別是一個小網(wǎng)絡(luò)(Google Speech Commands)和一個大網(wǎng)絡(luò)(Librispeech),并在自然語言處理任務(wù)上與行業(yè)標(biāo)準進行對比。小網(wǎng)絡(luò)的性能和準確率與當(dāng)前的數(shù)字技術(shù)相當(dāng)。對于更大的Librispeech模型來說,該芯片能達到每秒每瓦12.4萬億次運算(Tera Operations),系統(tǒng)性能估計最高能達到傳統(tǒng)通用處理器的14倍。
用來制造模擬AI芯片的300毫米晶圓(圖片來自Ryan Lavine)。施普林格·自然 供圖
《自然》同期發(fā)表同行專家的“新聞與觀點”文章稱,該研究在小模型和大模型中同時驗證了模擬AI技術(shù)的性能和效率,支持其有望成為數(shù)字系統(tǒng)的商業(yè)可行的替代選擇。(完)
版權(quán)聲明:凡注明“來源:中國西藏網(wǎng)”或“中國西藏網(wǎng)文”的所有作品,版權(quán)歸高原(北京)文化傳播有限公司。任何媒體轉(zhuǎn)載、摘編、引用,須注明來源中國西藏網(wǎng)和署著作者名,否則將追究相關(guān)法律責(zé)任。