(相關(guān)資料圖)

IT 之家 8 月 24 日消息,《自然》期刊雜志 8 月 23 日刊登了 IBM 研究實驗室的最新研究成果:一種能效為傳統(tǒng)數(shù)字計算機芯片 14 倍的 AI 模擬芯片。

據(jù)稱,該芯片在語音識別上的效率超過了通用處理器,有望突破當前 AI 開發(fā)因為算力性能不足、效率不高而導(dǎo)致的瓶頸。

該文章摘要中表示,當前擁有數(shù)十億個參數(shù)的 AI 模型可在一系列任務(wù)中實現(xiàn)較高精度,但也凸顯出傳統(tǒng)通用處理器(包含圖形處理器、中央處理器等)效能低下的問題。為此,研究團隊提出 " 模擬內(nèi)存計算 " 的方案,通過在自身的存儲器上并行執(zhí)行矩陣 - 向量乘法,提供更強的能效。

研究團隊還開發(fā)了一個 14nm 模擬芯片,其 34 個模塊中含有 3500 萬個相變化內(nèi)存單元。測試環(huán)節(jié)中,研究團隊使用谷歌語音命令和 Librispeech 語音識別來測試該芯片語言處理能力的效率,在利用谷歌語音測試后發(fā)現(xiàn),該芯片的性能、準確度 " 與當前的數(shù)字技術(shù)相當 ";而在規(guī)模更大的 Librispeech 上,該芯片可達到 12.4 萬億次 / 秒 / 瓦運算性能,最高相當于傳統(tǒng)通用處理器的 14 倍性能。

IT 之家附《自然》雜志原文如下:

參考