夜
小
中
大
第2717章顯卡
晶片有很多種,簡單地說,就是凡是跟計算有關的電子器件,都算是晶片。
比如手機里的聲音感知器,可以感知到外部的聲音,然後把聲音信號通過計算,改變為數字信號傳給中央處理器。這種東西也叫晶片,叫做感知晶片。
又比如電量的消耗。
運行一款程序,需要給予多少電量的支持?這也需要計算來得出,計算這個單元的器件,叫做電源晶片。
又比如藍牙、iFi、USB接口等等,這些連接的過程都需要計算,通過計算來對接,就都有相應的通信晶片來對接。
不過,這些晶片大多技術含量不高,計算量很小,不算什麼核心科技。
真正最廣為人知的晶片,是處理器晶片,也就是CPU。在一款產品里,CPU就相當於人的大腦,幾乎負責了所有的計算,大量的複雜計算。
人工智能也需要大量計算。
所以過去行業對人工智能的理解,也是這樣的邏輯。在處理人工智能的大量計算的時候,也是通過CPU來計算各種AI算法。
這是行業常識。
可是直到這個月其實也就是前幾天,整個人工智能行業,才終於恍然醒悟,產生了一種全新的行業認識。
在處理人工智能計算的時候,不應該使用CPU晶片!
而應該使用GPU晶片!
GPU,也就是大眾熟知的顯卡。
之所以能做出這樣的轉變,就是上周才發生的震驚世界的圍棋行業的Rokid-go所發起的「人機大戰」!
Rokid-go背後的龐大數據處理,依靠的就是大量的GPU的運行。
同樣規格的CPU和GPU,在處理AI計算的時候,GPU的算力可以超過CPU的100倍!而能耗,還不足CPU的5%!
Rokid-go大獲成功之後,近期連續發表了7篇很多這方面的論文。又有過「人機大戰」的實踐證實,可以說紫微星已經引領了全球人工智能計算的行業大轉向。
人工智能,將會在紫微星的帶領下,真正地走進GPU的時代!
而這也進一步地提高了做人工智能科研的門檻。
因為過去的那種靠着暴力地堆積大量CPU來提高算力的模式,在人工智能領域算是徹底的行不通了。
就比如超級計算機。
超級計算機,就是有着超級計算能力的電腦,在這個領域,國內有着很強大的實力,不比美國差多少。
為什麼?
因為CPU的疊加屬性。
CPU的計算,絕大多數都是線性的,就像流水線上的工人,是一個任務一個任務的去執行。美國有最好的CPU晶片,最多就是流水線工人的幹活水平高了,單體工作能力比較強。
國內的CPU晶片比較差,卻可以用暴力堆積的方法來解決算力缺陷。
工人的單體能力差,但是沒關係,多在流水線上安排一些工人就好了。美國的超算用1000個晶片,我們的用1萬個晶片,總能跟他們達到同樣的算力了吧?
無非就是多費點電而已。
在國家戰略面前,電費才幾個錢?
一台超級計算機,主機可以裝滿一層大樓,沒有空間限制,就可以無限地堆積算力低下的CPU,靠着無數CPU晶片的堆積,來達到超算的效果。
所以聯想、曙光、浪潮,包括一些高校和軍方,都可以開發出自研知識產權的超級計算機,在這個領域打破技術壁壘。
可是,GPU就不行了。
GPU之所以能取代CPU成為人工智能計算的主要工作,就是因為GPU主要是以處理並行計算為主。
而人工智能的神經網絡算法趨勢,所需要的就是並行計算,剛好和GPU相匹配。
一旦是並行計算了,就沒法像流水線工人那樣,靠着堆積數量去提高生產力了,這就得靠着實打實的硬實力了。
比如一個博士生和一個小學生算數學題,小學生根本不行。哪怕把