基于芯片架構和高帶寬內存的深度學習加速器正在興起,以實現機器學習算法的近實時處理。內存芯片專家美光科技公司認為,與更高內存密度相關聯的硬件加速器是加速“內存綁定” AI應用程序的最佳方法。
美光公司(納斯達克股票代碼:MU)本周宣布與德國汽車供應商美國大陸集團(OTCMKTS:CTTAY)建立合作伙伴關系,以使存儲器制造商的深度學習加速器適應機器學習汽車應用。合作伙伴表示,他們將專注于車輛自動化系統。
美光的深度學習加速器還具有用于其他邊緣部署的機器學習應用程序,這些邊緣部署迄今為止用于本地數據處理的內存帶寬未能跟上微處理器核心增長的步伐。
美光的方法結合了硬件和軟件,以加速和減少由高帶寬存儲器支持的FPGA的功耗。該軟件包還包括一個抽象基礎硬件的機器學習軟件開發(fā)套件。該方案無需進一步的FPGA編程。
Micron加速器在Xilinx Virtex Ultrascale + FPGA上運行,可容納高達512 Gb的DDR4內存,而內存帶寬高達68 Gb / s。預加載的 推理引擎 支持多種神經網絡類型,而FPGA可以用Python和C ++編程。
同時,該軟件套件支持用于訓練神經網絡的一批框架,包括Caffe 2,PyTorch和TensorFlow。
“與美光公司合作,為支持多個網絡和框架的邊緣推理構建可擴展且靈活的解決方案,將使我們能夠在我們的平臺上高效部署機器學習,”美國大陸航空創(chuàng)新中心硅谷副總裁Dirk Remde說。
“與美國大陸航空合作的主要目標之一是創(chuàng)建一種敏捷的邊緣推理解決方案,該解決方案利用機器學習并提供汽車行業(yè)所需的易用性,可伸縮性,低功耗和高性能,”美光公司副總裁Steve Pawlowski補充說。高級計算解決方案總裁。
美光(Micron)是大量專用AI硬件中的最新產品,其中包括Google的Tensor處理器,英偉達(NASDAQ:NVDA)的GPU加速器以及AMD(NASDAQ:AMD)和Intel(NASDAQ:INTC)的深度學習引擎。美光的轉折涉及將推理引擎嵌入加速器中,并將其綁定到更大的內存管道中。
谷歌(納斯達克股票代碼:GOOGL)和美光公司還一直在與歐洲核研究組織CERN的科學家合作,將其框架應用于高能物理問題。CERN研究人員正在測試Micron的 深度學習加速器 ,這是該實驗室大型強子對撞機實驗的兩個項目的一部分。內存增強型神經網絡方法正在用于測試數據采集系統。
美光公司的馬克·赫爾(Mark Hur)在最近的博客文章中指出:“只需更改幾行代碼,研究人員就可以像瞄準GPU那樣瞄準Micron加速器 。”