現在,人類越來越想讓“馮·諾依曼架構”退休了。因為存儲墻和功耗墻問題,馮·諾依曼架構愈發(fā)觸碰瓶頸。
類腦芯片就是突破“馮·諾依曼架構”的路線之一,它一種高度模擬人腦計算原理的芯片。如果把類腦芯片做得更像人腦,就會被賦予一個新的名字——神經擬態(tài)計算/神經形態(tài)計算(Neuromorphic Computing),它是數字芯片和AI計算的一條重要發(fā)展路線。
神經擬態(tài)計算被視為顛覆邊緣AI行業(yè)的存在,因為它的功耗實在是太低了。完美的神經擬態(tài)芯片可以用比傳統(tǒng)解決方案低1000倍的能耗來解決問題,這意味著我們可以在固定的功耗預算下,打包更多的芯片來解決更大規(guī)模的問題。
當然,現在的神經擬態(tài)計算還達不到這樣的程度,但給現有芯片降低幾倍或者幾十倍功耗的能力還是有的。比如,IBM此前推出的類腦芯片“北極”(NorthPole),對比4nm節(jié)點實現的Nvidia H100 GPU相比,NorthPole的能效提高了五倍。
現在,神經擬態(tài)也開始滲入了邊緣AI領域,甚至是改變MCU。
Innatera推出首款商用類腦MCU
最近,初創(chuàng)公司Innatera宣布推出一款名為Pulsar的新型脈沖神經處理器(SNP)。Pulsar 是一種神經形態(tài)信號處理器,旨在以高能效執(zhí)行邊緣AI推理,與傳統(tǒng)的AI處理器相比,新處理器的延遲降低了100倍。
此外,從功耗角度來看,該系統(tǒng)使用內部低功耗PLL和軟件控制的電壓域來降低動態(tài)和待機功耗。多種睡眠模式進一步優(yōu)化了空閑期間的能量消耗。Innatera聲稱該處理器的能耗比傳統(tǒng)的AI處理器低500倍。
Pulsar的底層架構集成了完全可編程的脈沖神經網絡(SNN)結構,針對異步、稀疏數據計算進行了優(yōu)化。為此,Pulsar提供了異構計算架構,將SNN、CNN和傳統(tǒng)CPU任務分開,以優(yōu)化工作負載分區(qū)。
Innatera將處理器設計為靈活的,支持跨不同網絡拓撲的神經元和突觸級參數化,以專門滿足音頻和振動傳感等時空工作負載的需求。為了支持混合工作負載,SNN結構與支持浮點的32位RISC-V CPU和32-MAC CNN加速器一起運行。FFT/IFFT引擎為時頻域應用提供了額外的計算能力。
該處理器的內存子系統(tǒng)包括384 KB通用SRAM、128 KB專用于CNN計算和32 KB保留 SRAM,以通過低功耗轉換保持應用程序狀態(tài)。集成的外設支持包括I2C、UART、SPI、JTAG、ADC、攝像頭接口和GPIO,由分散收集DMA引擎提供支持,以促進尖峰數據處理。供電電壓為1.6V,系統(tǒng)頻率為160MHz,封裝尺寸為2.8mm x 2.6mm/36pin WLCSP,工作溫度-40℃~125℃。
軟件端,Pulsar由Talamo SDK提供支持,它將基于PyTorch的模型訓練與直接硬件映射集成在一起。開發(fā)人員可以使用Python原生編譯器或RISC-V的標準GCC工具鏈來部署模型。
Polyn首款神經擬態(tài)模擬信號處理芯片流片
最近,Polyn Technology宣布其首款基于專有神經擬態(tài)模擬信號處理平臺(Neuromorphic Analog Signal Processing, NASP)模擬芯片正式流片成功,同時NASP芯片進入認證階段,并預計于2025年第二季度正式投放市場。
這款芯片實現了超低功耗和實時信號處理能力,在執(zhí)行信號推理時的功耗低于100μW,某些應用場景如 NeuroVoice VAD模型甚至可降至30μW。如此低的能耗使其非常適合應用于耳機、可穿戴設備、智能輪胎以及預測性維護傳感器節(jié)點等功耗受限的環(huán)境中。此外,NASP可將原始數據量縮減高達1000倍,顯著提升隱私保護水平,減少對云服務的依賴,尤其適合醫(yī)療健康等對數據安全要求極高的領域。在技術資料中,NASP放出了在推理MobileNet V.2時候對比樹莓派3B+和JETSON TX1的結果。
NASP是Polyn技術創(chuàng)新的核心。它是一種混合模擬-數字架構,通過模擬電路模仿生物神經元的分布式、超并行操作。該系統(tǒng)由運算放大器和可編程電阻組成,能夠在不依賴中央處理器或對信號進行數字化預處理的前提下,直接對傳感器數據進行原生推理。
與傳統(tǒng)傳感器數據處理方式不同,NASP前端可在原始音頻輸入階段就進行過濾與壓縮,僅輸出用于后續(xù)處理的關鍵特征向量。這種方式不僅提升了效率,更實現了對信號的“理解”,從而顯著降低帶寬需求和云端依賴。
當它充當邊緣信號傳感器,能夠使用神經擬態(tài)計算處理原始傳感器數據,而無需對模擬信號進行任何數字化。出于這個原因,該公司將其稱為第一款無需模數轉換器(ADC)即可直接在傳感器旁邊使用的神經擬態(tài)模擬TinyML芯片。
NASP 平臺采用“固定 + 靈活”的雙模塊結構:
固定部分:通過硬連線模擬電路實現,負責從原始傳感器數據中提取關鍵特征;
靈活部分:采用標準數字邏輯或低功耗微控制器實現,負責分類與解釋。
這一混合架構將遷移學習引入硬件層面。開發(fā)人員只需重新訓練靈活部分,即可快速適配新任務,例如將原本用于步態(tài)識別的加速度計數據用于跌倒檢測,從而大幅縮短產品迭代周期并降低整體復雜度。
Polyn不僅為NASP自主研發(fā)了編譯器工具鏈,同時在設計流程上,Polyn利用Cadence的Virtuoso和Innovus工具,整合模擬與數字電路設計,并在55納米CMOS工藝上實現流片。
目前,Polyn正與SkyWater、普利司通、英飛凌、TDK等行業(yè)領先企業(yè)展開深度合作。雖然其首款芯片專注于語音處理,但未來的潛在應用場景包括振動分析、生物信號解讀、人機交互等多個領域。
2023年12月,英飛凌曾披露與Polyn的合作,雙方正在合作開發(fā)高級輪胎監(jiān)測產品,英飛凌將提供具有輪胎振動信號檢測功能的新一代TPMS傳感器,并利用Polyn的NFE 對傳感器的振動數據進行預處理。
弗勞恩霍夫開發(fā)出邊緣AI加速器
今年3月,弗勞恩霍夫集成電路研究所 IIS 開發(fā)了一種用于處理脈沖神經網絡(SNN)的AI 芯片。脈沖神經網絡SENNA的推理加速器受到大腦功能的啟發(fā),由人工神經元組成,可以直接處理電脈沖(尖峰)。其速度、能效和緊湊的設計使得直接在生成數據的地方(即邊緣設備)中使用SNN成為可能。
SENNA是一種神經擬態(tài)芯片,用于在AI應用中快速處理低維時間序列數據。其當前版本由1024個人工神經元組成,芯片面積小于11 mm2。該芯片的響應時間短至 20納秒,可確保精確計時,尤其是在邊緣時間關鍵型應用中。
因此,它的優(yōu)勢在基于事件的傳感器數據的實時評估和閉環(huán)控制系統(tǒng)中真正顯現出來;例如,在使用AI控制小型電動機時。SENNA還可用于在通信系統(tǒng)中實現AI優(yōu)化的數據傳輸。在那里,AI處理器可以分析信號流并根據需要調整傳輸和接收程序,以提高傳輸的效率和性能。
SNN如此節(jié)能的原因之一是神經元僅被少量激活,并且響應特定事件。通過其尖峰神經元,SENNA 充分利用了這一節(jié)能優(yōu)勢。由于其完全并行的處理架構,人工神經元可以精確地映射SNN的時間行為。SENNA還可以通過其集成的尖峰接口直接處理基于尖峰的輸入和輸出信號。通過這種方式,它可以無縫地適應基于事件的數據流?!皯{借其新穎的架構,SENNA 解決了能效、處理速度和多功能性之間的權衡,這是其他邊緣 AI 處理器所無法比擬的。這使得它非常適合資源受限的應用,這些應用需要在納秒范圍內具有極快的響應時間,“Fraunhofer IIS嵌入式AI集團經理 Michael Rothe解釋道。
當前的SENNA參考設計專為22nm制造工藝而設計。這意味著SNN處理器可以用作各種應用中的芯片,并且可以經濟高效地實現。它的設計是可擴展的,可以在芯片生產之前適應特定應用、性能要求和目標硬件的特殊功能。但即使在芯片制造完成后,SENNA仍保留了最大的靈活性,因為它是完全可編程的。使用的SNN模型可以一次又一次地更改并重新傳輸到 SENNA。為了讓開發(fā)人員盡可能輕松地實現他們的AI模型,Fraunhofer IIS 還為 SENNA提供了一個全面的軟件開發(fā)工具包。
神經擬態(tài)到底是啥
目前全世界的神經擬態(tài)芯片結構基本都一致,都是由神經元計算、突觸權重存儲、路由通信三部分構成。不過,比較關鍵的點在于亮點——一是模型,二是器件。
首先,在模型方面,目前神經擬態(tài)芯片普遍采用SNN(脈沖神經網絡)。相較于傳統(tǒng)神經網絡,脈沖神經網絡(SNN)的結構更具“神經”特性。傳統(tǒng)神經網絡依賴矩陣卷積或矩陣乘法實現信號傳播,而SNN在傳播過程中采用了更貼近人類大腦的神經突觸結構。在SNN 網絡中,當脈沖信號積累至特定水平時,神經元會向下一個神經元發(fā)送代表“1”的信號,隨后自身膜電位恢復至較低水平,并在一段時間內進入不應期,無法再次發(fā)送信號。
對于SNN來說,時空動態(tài)性是一個重要的特性。通過引入時間維度,SNN能實現異步計算。SNN擅長處理時空動態(tài)信息,尤其適合與事件驅動型傳感器(如動態(tài)視覺傳感器DVS)結合。目前來看,大多數廠商都選擇SNN+CNN的異構方案,應對不同場景。
其次,在器件實現,依據材料、器件、電路,分為模擬電路主導的神經形態(tài)系統(tǒng)(數?;旌螩MOS型)、全數字電路神經系統(tǒng)(數字CMOS型)、基于新型器件的數?;旌仙窠浶螒B(tài)系統(tǒng)(憶阻器是候選技術)三種流派。
數字CMOS是目前最易產業(yè)化的形式,一方面,技術和制造成熟度高,另一方面,不存在模擬電路的一些顧慮和限制,不過數字CMOS型還只是最初階的類腦芯片,還算不上完全模擬人腦的神經形態(tài)器件。
數?;旌螩MOS是Polyn的實現方式,通過對比來看,這種方式能夠直接省略掉ADC,可以通過可編程電阻直接對傳感器的原生數據進行處理。
憶阻器(Memristor)則是目前科學界也在研究的技術,憶阻器的魅力在于,它不僅是一個存儲單元,同時還能進行計算!想象一下,如果你的硬盤不僅能存儲數據,還能直接進行深度學習計算,那么 AI 訓練的速度將大幅提升。憶阻器的這一特性,使其成為存算一體架構的核心組件。憶阻器存算一體架構正在快速發(fā)展,預計在未來5~10年內將進入商業(yè)化應用。
類腦芯片主要類型和研發(fā)進度,制表丨電子工程世界
目前,國內也有很多企業(yè)在研究神經擬態(tài)計算芯片,他們的主要目標也是邊緣AI。
國內研究則包括清華大學、浙江大學、復旦大學、中科院等頂級學府和機構,同時近兩年不斷涌現初創(chuàng)公司,如靈汐科技、時識科技、中科神經形態(tài)等。其中以清華大學的天機芯和浙江大學的達爾文芯片最具代表性。
邊緣AI正在被顛覆
總之,受人腦啟發(fā)的神經擬態(tài)計算正在顛覆邊緣AI場景。
與傳統(tǒng)的馮·諾依曼架構不同,神經形態(tài)芯片模擬人腦的神經元和突觸結構,具有超低功耗和并行處理能力,特別適合邊緣設備上的AI應用。
畢竟,動不動就上百倍能效提升,可太香了,誰不想要。
目前,英特爾的Loihi、IBM的TrueNorth等神經形態(tài)芯片已展示出在邊緣AI場景下的巨大潛力。
而上文介紹的廠商也已經開始正式在商業(yè)化場景中嘗試使用神經擬態(tài)芯片,雖然出于成本、開發(fā)難度等考量,可能他們并不會完全取代現有的MCU或嵌入式芯片,但在特定場景一定能夠得到很強的應用。一場邊緣新革命即將到來。