天天操天天射综合,午夜精品999,国产黄a一级,亚洲成aⅴ人在线观看,外国免费毛片,蜜桃精品视频在线,亚洲第一中文字幕在线

展望2018 AI芯片領域:眾多廠商追隨深度學習

2018-01-26 15:14:41 至頂網(wǎng)  點擊量: 評論 (0)
度神經(jīng)網(wǎng)絡就像遠方地平線上的海嘯鑒于深度神經(jīng)網(wǎng)絡(DNN)的算法和應用還在不斷演變之中,所以目前我們還不清楚深度神經(jīng)網(wǎng)絡最終會帶來怎

Gwennap表示,Graphcore(英國布里斯托爾)和Cerebras(美國加州洛斯阿爾托)是訓練芯片領域值得關注的兩家初創(chuàng)公司,因為這兩家公司籌集的資金最多,而且似乎擁有最好的團隊。由Google前芯片設計師創(chuàng)立的初創(chuàng)公司Groq聲稱,它將在2018年推出一款推理芯片,在總體操作和每秒推論方面都會以4倍的優(yōu)勢擊敗競爭對手。

英特爾的Nervana是一個大型的線性代數(shù)加速器,位于4個8-Gb HBM2內存堆棧旁的硅中介層上。來源:Hennessy和Patterson,“計算機體系結構:一種定量方法”

英特爾代號為“Lake Crest”的Nervana(上圖)是最受關注的定制設計之一。它執(zhí)行16位矩陣操作,數(shù)據(jù)共享指令集中提供的單個5位指數(shù)。

與Nvidia Volta一樣,Lake Crest邏輯器件位于4個HBM2高帶寬內存堆棧旁邊的TSMC CoWoS(襯底上芯片上芯片)中介層上。這些芯片被設計成網(wǎng)狀,提供5到10倍于Volta的性能。

雖然去年微軟在深度神經(jīng)網(wǎng)絡上使用了FPGA,但Patterson仍然對這種方法持懷疑態(tài)度。 “你為[FPGA的]靈活性付出了很多代價;編程真的很難,”他說。

Gwennap在去年年底的一項分析中指出,DSP也將發(fā)揮作用。Cadence、Ceva和Synopsys都提供面向神經(jīng)網(wǎng)絡的DSP內核,他說。

加速器缺乏共同的基準

這些芯片即將到來時,架構師們卻還不確定如何評估這些芯片。
Patterson回憶說,就像RISC處理器的早期,“每個公司都會說,'你不要相信別人的基準,但是你可以相信我的',這可不太好。”

那個時候,RISC廠商們在SPEC基準測試中進行合作?,F(xiàn)在,深度神經(jīng)網(wǎng)絡加速器需要自己定義的測試套件,涵蓋各種數(shù)據(jù)類型的訓練和推理,以及獨立芯片和集群芯片。

聽到這個呼吁,Transaction Processing Performance Council(TPC)在12月12日宣布成立了一個工作組來定義機器學習的硬件和軟件基準。TCP是由20多個頂級服務器和軟件制造商組成的團體。TPC-AI委員會主席Raghu Nambiar表示,這么做的目標是創(chuàng)建各種測試,并且這些測試不關乎加速器是CPU還是GPU。但是,這個團隊的成員名單和時間框架還在不斷變化之中。

百度在2016年9月發(fā)布了一個基于其深度學習工作負載的開放源代碼基準測試工具,使用32位浮點數(shù)學做訓練任務。百度在6月份更新了DeepBench以涵蓋推理工作和16位數(shù)學的使用。

由哈佛大學研究人員發(fā)表的Fathom套件中,定義了8個人工智能工作負載,支持整數(shù)和浮點數(shù)據(jù)。Patterson表示:“這是一個開始,但是要獲得一個讓人感覺舒適的、全面的基準測試套件還需要更多的工作。”

“如果我們致力于打造一個很好的基準,那么所有用在這個工程上的錢都是物有所值的。”

除了基準之外,工程師還需要追蹤仍在演變的神經(jīng)網(wǎng)絡算法,以確保他們的設計不會被淘汰。

大云網(wǎng)官方微信售電那點事兒

責任編輯:任我行

免責聲明:本文僅代表作者個人觀點,與本站無關。其原創(chuàng)性以及文中陳述文字和內容未經(jīng)本站證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關內容。
我要收藏
個贊
?