※ 本文為 ChiChi7.bbs. 轉寄自 ptt.cc 更新時間: 2017-11-20 01:24:59
看板 Tech_Job
作者 標題 Re: [請益] AI的發展選擇
時間 Wed Nov 8 13:42:36 2017
※ 引述《david190 (david)》之銘言:
: 就我的感覺 AI領域不要切分成軟跟硬
: 現在做AI晶片除了 輝達外 還有 intel 谷歌 微軟 IBM 華為
: 為何AI被注目 跟 自動駕駛跟阿法狗 被矚目有關係 這兩個都是谷歌做出示範可行的
: 谷歌是做軟服務 而IBM微軟也是做服務的 為何軟服務的大公司會想做AI硬體?
: 可以猜測 是目前現行硬體架構 已經不足續驅動AI軟件發展了
: 所以三大軟服務公司都去做硬體是必然的 順便搶AI硬體架構決定權
: 誰能拿下AI硬體架構決定權 代表誰之前的AI軟硬體研發能最小損耗不需推倒多數重來
: 所以做AI晶片的公司 本身就是會發展AI軟件跟服務的公司 這應該是不可分的
: 我相信intel如果能搶下AI硬體架構 也會順便攻進AI軟服務的 因為這整套一起發展的~
AI真正的主戰場在硬體
別誤會了,我熱愛軟體。
我只是覺得這一波已經接近尾聲——如果不是已經過了尾聲——的精實新創浪潮下,太多
投資人和創業家口中念念有詞的、關於軟體新創的論點不過是一堆狗屁。
比這些關於軟體新創的狗屁更狗屁的,是毫無根據就把硬體投資視為過時的、難以產生回
報的論點,即使面對了市場上公開資訊的反駁。
別誤會了,如果可以,我也想投資一個SaaS的商用軟體新創,看著他們用很少的資金做出
MVP(Minimum Viable Product),然後用社群草根的方式取得眾多使用者,每週根據使
用者的回饋以及蒐集到的數據改善並更新軟體,然後針對進階使用者每月收取費用,量測
並改善耗損率,然後達成千萬使用戶、超過百分之百的年成長率以及九成以上的用戶留存
率,取得最少五千萬美元的每年重複營收,然後以五億美元的價格出售給Salesforce這樣
令人景仰的SaaS企業,並將創業家和Marc Benioff這樣令人景仰的創辦人簽約後握手的照
片裱框,放在自己的桌子上朝外給所有進到自己辦公室的年輕創業家看。
MVP(Minimum Viable Product),然後用社群草根的方式取得眾多使用者,每週根據使
用者的回饋以及蒐集到的數據改善並更新軟體,然後針對進階使用者每月收取費用,量測
並改善耗損率,然後達成千萬使用戶、超過百分之百的年成長率以及九成以上的用戶留存
率,取得最少五千萬美元的每年重複營收,然後以五億美元的價格出售給Salesforce這樣
令人景仰的SaaS企業,並將創業家和Marc Benioff這樣令人景仰的創辦人簽約後握手的照
片裱框,放在自己的桌子上朝外給所有進到自己辦公室的年輕創業家看。
等等,去他的投資!我乾脆自己創辦這樣的公司好了!
事實上,在動態均衡的商業世界裡,沒有任何一種商業模式或者產業具有永久的投資優勢
。
興起於2004年的精實新創風潮為我們的世界帶來了臉書、推特、Youtube、Dropbox、Uber
和Airbnb等日常生活的應用軟體,也連帶讓MVP、iteration和pivot變成熱門單字,更催
生了一整個世代非工程背景也未曾創過業的新型風險資本家,他們在各大小新創活動中轉
來轉去,以看似老練的口吻問著創業家,「你的每月活躍用戶量是多少?」
和Airbnb等日常生活的應用軟體,也連帶讓MVP、iteration和pivot變成熱門單字,更催
生了一整個世代非工程背景也未曾創過業的新型風險資本家,他們在各大小新創活動中轉
來轉去,以看似老練的口吻問著創業家,「你的每月活躍用戶量是多少?」
但在這樣低的創業和投資進入障礙的世界裡,伴隨而來的必然是激烈的全面競爭,不管是
創業家彼此,或者風險資本家之間。這些競爭也許會反映在燒錢進行同業競爭上,也許反
映在平均估值的不斷推升上。最終來說,產業抵達了動態均衡,人們也終於開始發現軟體
精實新創並沒有比較容易創業,投資起來也沒有比較好賺。
創業家彼此,或者風險資本家之間。這些競爭也許會反映在燒錢進行同業競爭上,也許反
映在平均估值的不斷推升上。最終來說,產業抵達了動態均衡,人們也終於開始發現軟體
精實新創並沒有比較容易創業,投資起來也沒有比較好賺。
似乎是歷史重演地,我們看到人工智慧的投資趨勢最近也反映出這樣的潮流反轉。
和精實新創經歷的一樣,我們不難想像過去兩年間滿手是錢的風險資本家們,乘著「人工
智慧」、「機器學習」和「深度學習」的關鍵字浪潮,追逐著各種宣稱使用人工智慧、機
器學習或深度學習來取代人類世界中某些由勞工負責的工作的新創。
智慧」、「機器學習」和「深度學習」的關鍵字浪潮,追逐著各種宣稱使用人工智慧、機
器學習或深度學習來取代人類世界中某些由勞工負責的工作的新創。
而就跟精實新創投資一樣的,事實上任何有一點社會經驗的人都可以想像出任何一種「用
AI取代人類」的新創應用。唯一不一樣的地方在於,要開發這樣的應用需要的不只是能夠
寫邏輯程式代碼的coder,還需要懂得機器學習演算法的數學專家。
AI取代人類」的新創應用。唯一不一樣的地方在於,要開發這樣的應用需要的不只是能夠
寫邏輯程式代碼的coder,還需要懂得機器學習演算法的數學專家。
如果無法取得訓練模型用的資料,也是白搭
不夠格的投資者們,就像他們在精實新創浪潮中追著浪尾投資已經有數十家先行者的新創
類型一樣,忙不迭地把錢灌進「能夠描繪某種AI使用情境」的軟體新創。稍微謹慎一點的
投資者們,找來了從事相關研究的教授或者博士班學生來幫忙作盡職調查,以求避開明顯
的騙子。
類型一樣,忙不迭地把錢灌進「能夠描繪某種AI使用情境」的軟體新創。稍微謹慎一點的
投資者們,找來了從事相關研究的教授或者博士班學生來幫忙作盡職調查,以求避開明顯
的騙子。
但不管是哪一種,打著「用AI取代人類」嘴砲的軟體新創仍然面臨兩個自己無法解決的挑
戰。
其中一個就是我常常講的,就算是絕頂聰明的數學家或者資料科學家,如果無法取得訓練
模型用的資料,那也是白搭,這也是為什麼在Hardware Club我們選擇投資提供從感測器
到雲端機器學習完整系統的Full-stack AI新創。
模型用的資料,那也是白搭,這也是為什麼在Hardware Club我們選擇投資提供從感測器
到雲端機器學習完整系統的Full-stack AI新創。
另ㄧ個純軟體AI新創面臨的挑戰,則是在創業或者投資初期常常被忽略的硬體計算能力的
限制。
常被忽略的硬體計算能力的限制
我在〈軟體吃掉世界,AI吃掉軟體〉一文中就曾經提到過,精實新創誕生的背景是晶片運
算能力遠大於終端應用軟體所需,但機器學習的出現瞬間把這個落差給「闔上」了,突然
間我們從毫不在乎硬體,又變得必須對硬體規格斤斤計較。
算能力遠大於終端應用軟體所需,但機器學習的出現瞬間把這個落差給「闔上」了,突然
間我們從毫不在乎硬體,又變得必須對硬體規格斤斤計較。
上面這個影片是史丹佛大學CS231n課程〈卷積神經網路在影像辨識上的應用〉第十五堂課
的講座影片,主講者是最近剛取得電機暨計算機科學博士學位、明年即將在麻省理工開始
任教的Song Han,講座的題目就是他的博士論文〈深度學習的高效率演算法和硬體〉。
的講座影片,主講者是最近剛取得電機暨計算機科學博士學位、明年即將在麻省理工開始
任教的Song Han,講座的題目就是他的博士論文〈深度學習的高效率演算法和硬體〉。
我強烈建議對於機器學習有興趣的人,不管是創業家或投資者——把這個講座影片看完,
因為看完之後他們就能理解為什麼我說AI真正的主戰場在硬體。
舉例來說,這整個講座使用的術語大約有三四成是機器學習和深度學習相關的,剩下的術
語卻都是所有半導體產業的「老人」們再熟悉不過的:CPU、GPU、FLOPS、DDR 3、DDR 4
、記憶體頻寬等。
語卻都是所有半導體產業的「老人」們再熟悉不過的:CPU、GPU、FLOPS、DDR 3、DDR 4
、記憶體頻寬等。
事實上如果直接去閱讀Song Han的博士論文,老半導體人會看到兩個很親切的名字:論文
的主要指導教授Bill Dally以及協同指導教授Mark Horowitz。其中Dally教授所著作的教
科書〈Digital Systems Engineering〉幾乎所有電機本科生人手一本,而Horowitz教授
則是我當年在半導體的研究領域「高速數位串流介面」的權威,如果把我當年閱讀過的他
的論文疊在一起,就算沒辦法到頂天花板,最少也夠站在上面換燈泡。
的主要指導教授Bill Dally以及協同指導教授Mark Horowitz。其中Dally教授所著作的教
科書〈Digital Systems Engineering〉幾乎所有電機本科生人手一本,而Horowitz教授
則是我當年在半導體的研究領域「高速數位串流介面」的權威,如果把我當年閱讀過的他
的論文疊在一起,就算沒辦法到頂天花板,最少也夠站在上面換燈泡。
Song Han在這兩位半導體老將的指導下完成這個博士論文,而且還受邀在CS231n〈卷積神
經網路在影像辨識上的應用〉課程給講座的原因非常簡單:我們現在的CPU或者GPU、甚至
於谷歌的TPU,都遠遠無法應付現有機器學習演算法「可能」的運算需求,因此軟硬體協
同開發是必要的。
經網路在影像辨識上的應用〉課程給講座的原因非常簡單:我們現在的CPU或者GPU、甚至
於谷歌的TPU,都遠遠無法應付現有機器學習演算法「可能」的運算需求,因此軟硬體協
同開發是必要的。
當我們說CPU、GPU乃至於TPU無法應付機器學習「可能」的運算需求,有兩個事情是我們
所在乎的:運算速度以及耗能。
一般的創業家和投資者比較能夠理解運算速度的重要性,畢竟整個深度學習的大躍進就是
在於過去得花上幾週甚至幾個月才能完成的神經網路運算,被降到幾天甚至幾小時,但較
少創業家或投資者能夠理解耗能的重要性,因為在過去十餘年的精實新創浪潮中,耗能這
種東西百分之百是高通、鴻海、蘋果和三星這些人的問題。
在於過去得花上幾週甚至幾個月才能完成的神經網路運算,被降到幾天甚至幾小時,但較
少創業家或投資者能夠理解耗能的重要性,因為在過去十餘年的精實新創浪潮中,耗能這
種東西百分之百是高通、鴻海、蘋果和三星這些人的問題。
機器學習中「耗能」是個大挑戰
但是在機器學習中「耗能」是一個很大的挑戰,甚至會成為效能的障礙。
機器學習的耗能主要來自兩個領域。
(一)矩陣乘法:所建置的神經網路越多層,每一層的神經元數越多,所需要運算的矩陣
乘法就愈多。而半導體邏輯晶片的乘法是由NAND閘組合出來的,每一個電晶體的節點都會
在電壓上下擺動的過程中消耗掉能量。考慮到矩陣乘法所需要用到的邏輯閘數量驚人,而
且隨著神經元和係數的增加以指數成長,這部分運算的耗能也就指數成長。
乘法就愈多。而半導體邏輯晶片的乘法是由NAND閘組合出來的,每一個電晶體的節點都會
在電壓上下擺動的過程中消耗掉能量。考慮到矩陣乘法所需要用到的邏輯閘數量驚人,而
且隨著神經元和係數的增加以指數成長,這部分運算的耗能也就指數成長。
(二)記憶體存取:類神經網路的運算需要大量而且高速的記憶體存取,主處理器(不論
是CPU或者GPU)和記憶體模組通常是不同的晶片,因此存取發生在印刷電路板上,大量的
能量會被耗損在對抗印刷電路板和晶片封裝的雜散容和電阻上。
是CPU或者GPU)和記憶體模組通常是不同的晶片,因此存取發生在印刷電路板上,大量的
能量會被耗損在對抗印刷電路板和晶片封裝的雜散容和電阻上。
耗能劇烈的第一個影響是電力成本。以去年擊敗李世態lphaGo為例,該系統使用了
1920個CPU和280個GPU,光下一場棋局的電費就高達三千美元,相較之下李世誘H下這
場局可能只需要一兩碗飯的熱量,「電」腦和「人」腦在耗能效率上仍然有天壤之別。
但是如果做多少運算就付多少電費就能解決的話,那還好說。但耗能的最大問題是:不管
是哪一種耗能方式,都會轉換成廢熱,這些廢熱必須排出去,才能讓系統正常運轉。但系
統耗能產生廢熱的速度根據運算量成指數成長,排除廢熱的速度卻受限於熱力學和流體力
學有著線性的特質,因此我們不難想像在邁向泛用型人工智慧的路上,我們可能會先被「
熵」這個躲也躲不掉的敵人給擋住,而不是演算法。
是哪一種耗能方式,都會轉換成廢熱,這些廢熱必須排出去,才能讓系統正常運轉。但系
統耗能產生廢熱的速度根據運算量成指數成長,排除廢熱的速度卻受限於熱力學和流體力
學有著線性的特質,因此我們不難想像在邁向泛用型人工智慧的路上,我們可能會先被「
熵」這個躲也躲不掉的敵人給擋住,而不是演算法。
AI真正的主戰場在硬體-圖表.jpg
機器學習演算法與硬體的最佳化方式
擷取自Song Han博士論文第七章
在Song Han的講座中,他介紹了各種軟體演算法和硬體晶片結構的協同最佳化,以應付機
器學習中training和inference兩個部分的耗能效率挑戰。但是不管是哪一種方式,不管
改善多少運算效能和耗能效率,從工程的角度來看都是短期的、貼貼補補之類的解決方案
,在摩爾定律多年前早已停止改善耗能的事實下,這些方案並沒辦法提供一個康莊大道通
往真正的人工智慧經濟學終局。
器學習中training和inference兩個部分的耗能效率挑戰。但是不管是哪一種方式,不管
改善多少運算效能和耗能效率,從工程的角度來看都是短期的、貼貼補補之類的解決方案
,在摩爾定律多年前早已停止改善耗能的事實下,這些方案並沒辦法提供一個康莊大道通
往真正的人工智慧經濟學終局。
這也是作為風險資本投資者,我們致力於尋找著半導體邏輯運算以外的解決方案的原因。
在之前專欄〈量子電腦春暖花開〉中我所介紹過的量子電腦是一種,而且理論上是最能夠
應付無限延伸的未來中機器學習運算需求的一種。
在之前專欄〈量子電腦春暖花開〉中我所介紹過的量子電腦是一種,而且理論上是最能夠
應付無限延伸的未來中機器學習運算需求的一種。
但量子電腦的問題在於,目前不管是新創或者谷歌、IBM乃至於Intel等大廠的系統,都必
須把溫度降到絕對零度附近,才能進行量子運算,地球上的降溫系統本身就是一個極為耗
能的裝置,要等到綜合能源效率和建置成本到達可以和半導體晶片相比擬,恐怕還要不少
的時光。
須把溫度降到絕對零度附近,才能進行量子運算,地球上的降溫系統本身就是一個極為耗
能的裝置,要等到綜合能源效率和建置成本到達可以和半導體晶片相比擬,恐怕還要不少
的時光。
那麼有沒有其他的方式能夠比半導體有著高許多的耗能效率,但又沒有量子電腦那接近絕
對零度的挑戰呢?答案也許存在自然界裡,就像是量子電腦採用物理特性進行運算,自然
界也有許多物理現象包含了矩陣乘法的特質,也許我們可以找到一種運算方式,是將資料
轉換成自然界的物理現象,在那裡完成運算,然後再匯回電腦系統中。這種運算統稱為「
類比運算」(analog computing),其實是一門很古老的學問,遠在數位晶片高速成長的
年代之前,幾乎所有的運算都是在類比世界中發生的。
對零度的挑戰呢?答案也許存在自然界裡,就像是量子電腦採用物理特性進行運算,自然
界也有許多物理現象包含了矩陣乘法的特質,也許我們可以找到一種運算方式,是將資料
轉換成自然界的物理現象,在那裡完成運算,然後再匯回電腦系統中。這種運算統稱為「
類比運算」(analog computing),其實是一門很古老的學問,遠在數位晶片高速成長的
年代之前,幾乎所有的運算都是在類比世界中發生的。
作為投資者,我尋找著也等待著能夠善用類比運算來大幅加速機器學習的創業家,如果能
夠投資到這樣的新創,我不介意錯過Blue Apron這樣的投資機會一百次!
本文由楊建銘授權轉載自其風傳媒專欄。
https://www.bnext.com.tw/article/46834/ai--hardware-machinelearning
備註:
所以張忠謀 張老說:下個十年台積電投入AI
台積電四大技術平台都跟AI有關
台積電這個十年是手機晶片
AI晶片是台積下個十年發展重心
想想全世界各行業都要導入AI晶片
汽車不需要嗎?家電不需要嗎?住宅不需要嗎?雲端不需要嗎?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.15.112.49
※ 文章代碼(AID): #1Q0fbFcZ (Tech_Job)
※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1510119759.A.9A3.html
※ 編輯: david190 (101.15.112.49), 11/08/2017 13:48:05
--
推 : GG管他是AI還是什麼 反正就是生產出來就是了1F 11/08 13:49
推 : 好文2F 11/08 16:21
推 : 推3F 11/08 16:37
推 : 推4F 11/08 18:41
→ : 這只能哈哈哈了5F 11/08 19:02
推 : 中肯,無論是資料取得和計算成本都需要硬體支持6F 11/08 20:09
→ : 但是瑞凡,台灣只會打板子兜ip呀7F 11/08 21:52
推 : Cool8F 11/08 22:05
推 : 寫的真好只能推了9F 11/09 00:24
→ : 還在瑞凡撒洨?GG就是救贖,懂嗎10F 11/09 08:41
推 : 推!11F 11/09 18:17
推 : 推12F 11/09 18:32
推 : 棋手的名字打錯了13F 11/09 23:05
--
※ 看板: FW 文章推薦值: 0 目前人氣: 0 累積人氣: 416
回列表(←)
分享