※ 本文為 terievv 轉寄自 ptt.cc 更新時間: 2016-11-06 18:43:06
看板 C_Chat
作者 標題 Re: [新聞] 暴雪結合DeepMind人工智慧 開發星海爭霸2
時間 Sun Nov 6 01:54:39 2016
※ 引述《dulinove (C.A.B.A.L--杜里諾夫)》之銘言:
: 利用AI來玩SC2其實一直有人在挑戰
: 也有紀錄
: 悍馬2000 Automaton2000
: 已經做出人類沒辦法做到的事情 在戰術面上
: https://www.youtube.com/watch?v=DXUOWXidcY0
Automaton 2000 Micro - Marine Split Battle vs IMMvp - YouTube Automaton 2000 micro bot takes on IMMvp in a marine splitting micro battle. Automaton's stats: 40 speed banelings vs 20 marines - zero losses! Mean APM: 1500...
Automaton 2000 Micro - Drops Part I - YouTube
Automaton 2000 destroys a vastly superior zerg army with a handfull of medivacs and siege tanks without losing a single hitpoint. Automaton's stats: 14 drone...
Automaton 2000 destroys a vastly superior zerg army with a handfull of medivacs and siege tanks without losing a single hitpoint. Automaton's stats: 14 drone...
Automaton 2000 Micro - Dodging Siege Tanks - YouTube
100 zerglings vs 20 sieged tanks should be a meat grinder... but when the lings are controlled by the Automaton micro bot, the outcome changes :) Automaton's...
100 zerglings vs 20 sieged tanks should be a meat grinder... but when the lings are controlled by the Automaton micro bot, the outcome changes :) Automaton's...
: 很可惜沒有繼續下去
你對這場對決搞錯了幾件事情,
應該說,一堆鄉民都搞錯這件事情的目的跟意義,
一直說人類不可能比電腦強,這只用跟電腦比計算能力一樣沒有意義
AlphaGO光微操就打爆玩家了?
首先,悍馬2000AI一次僅僅執行「一個」指令,這不是戰術,而是單純的「微操」,
電腦實際上沒有「思考」的事情
可是AlphaGO,不一樣的地方在於他要完全模擬人類在比賽的處境
(沒有開圖、要從起始狀態開始農)
對星海來說,會戰通常只是個結果,現在虛空版本極快進入中期下
真正重要在戰術博弈、營運、戰術配置,
真正重要在戰術博弈、營運、戰術配置,
光是在沒有交戰情況下就把人搞爆的比賽星海可不少
AlphaGO必須要花大量的心神(機組)思考這些可能沒有一定答案的問題
(例如:路上會不有一堆埋地毒爆、隱形單位、多線騷擾等)
圍棋可以基本上設想每一步的狀況來做對應,
甚至不用下完就知道結果,
但在沒偵查到情況,他未必能理解這種「暗算」(例如Has的一堆G8招
圍棋跟星海的差別在哪裡?
圍棋再怎麼複雜、變化性再怎麼多,他都是個「敵我資訊完全公開」的遊戲
但星海的戰爭迷霧會讓戰局多了很多「賭博、經驗、預判」的成份在,
同時任何戰術都會有風險甚至是超越預判或微操能改變的
(像Sen說過,如果他蟲心時裸雙遇上10D,對手只要是大師以上,他就就很難贏了)
這對AlphaGO來說是一個很大的挑戰,李世石之所以可以贏下一場,就是下出了他無法理
解的一步,
但超乎意料這件事情在星海可是家常便飯(看看隔壁棚的毒奶)
在星海贏下人類的意義?
如果AI真的贏了人類的話,代表電腦已經可以靠已知的資料可以預測人類的思考方式,甚
至取代人類的指揮系統
星海其實就是一個小型的戰爭系統,如果AlphaGO在面對未知且變化萬千的環境,還可以
統整資訊、預判行為都比人類好
試想:美國近年有多次的暗殺行動失敗,大部分的原因來自於資訊誤判或(可能因為個人
情緒、歧視、經驗)導致,如果AlphaGO能夠做到完美的評估、分析呢?
甚至直接取代人類的功能:調動部隊、防禦系統等等,在這方面的計算以後靠著機器可以
減少傷亡、提高成功率嗎?
對於DeepMind來說,贏不贏根本不是最關鍵的事情,也不用執著在輸贏這件事情上(討論
微操、開圖都不是重點)
如果真的靠鄉民所說的那種方式贏得話,那他們根本沒必要比的XDDD
我個人來說的話,很期待看到AlphaGO被狗哥或Has搞到崩潰哭哭啦XDDDDDD
如果在他門口蓋暴風艦會發生什麼事情XDDD
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 61.227.229.224
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1478368481.A.D67.html
~
※ 編輯: freshmints (61.227.229.224), 11/06/2016 01:58:28
※ 編輯: freshmints (61.227.229.224), 11/06/2016 02:07:29
被對手利用,星海就是一個這麼複雜的遊戲
而且有時候快攻甚至沒辦法偵查
※ 編輯: freshmints (61.227.229.224), 11/06/2016 02:14:01
例如:王蟲看不到極限一波、神族走VR可能被先知燒爆、走VC怕影刀
甚至做假建築、炸建築來誤導的都很多
※ 編輯: freshmints (61.227.229.224), 11/06/2016 02:17:48
例如:要知道前面有沒有埋地毒爆,除非有雷達,不然根本不會有「答案」(可是一發雷
達價值240礦,真能掃免錢?)
※ 編輯: freshmints (61.227.229.224), 11/06/2016 02:21:27
你確定嗎?在圍棋當中AlphaGO都沒李世石快了,如果同時多線(還是隱形單位)他真的
能夠同時思考每個空投的處理方法?
而且,多線也有其弱點(TY就是常常多線風騷正門被一拳打穿)
渡鴉瓦斯很貴,你看職業賽除非到很後期不然根本不會出(目的還是要放無人防禦幾)
圍棋的戰術多寡不是重點,而是在星海沒有能計算的步伐,李世石如何騙他終究有個限度
,但星海呢?
對付HAS很多選手會派3-4隻工兵地毯式搜索,每個人都這樣搜嗎?萬一他認為不會放大招
的突然放招呢?
星海的問題在於每個戰術都有風險(而且沒辦法即時更改),這在戰場上比起圍棋來的真
實多了
事實上很多時候選手並不是什麼都靠偵查取得資訊,有時候就是第六感的賭,可是AlphaG
O知道「賭」嗎?
再來偵查也非萬能(裸三遇到快攻就是死,這偵查不到沒辦法預防)
資料可以可能才是陷阱
例如放招率超低的Zest,竟然在決勝盤下光砲,在沒辦法靠偵查預測下(探點不一定抓得
到對方)
AlphaGO能在看到工兵瞬間知道這是放招嗎?
那AlohaGO能預測到這個經驗嗎?
※ 編輯: freshmints (61.227.229.224), 11/06/2016 02:34:06
所以他沒辦法預測這種事情啊?這種事情毫無根據可言
如果AlphaGO根據成功率、選手資料、過往比賽經驗,都認為他不會放招
結果在沒有準備的情況下他放招了,怎麼辦?
過往戰爭失敗,幾乎都是在這種情況下輸掉的
圍棋不可能5分鐘結束,一定會把兩人的腦袋榨乾才結束
星海只要一點點失誤,五分鐘就可以結束
沒錯 所以當AlphaGO能夠做到100%勝率的話,就代表他超越這個東西了
狡猾反而會被利用,火鳳就是計中計中計中計的概念
事實上,在星海用勝率最高的步伐反而很可能會輸(正所謂小色說的:太龜、太慫)
※ 編輯: freshmints (61.227.229.224), 11/06/2016 02:41:45
如果電腦沒辦法超越我說的「理論上不能超越」他也就只跟人類一樣而已
如果連對手所想的都算到了,那就完全超越人類了
※ 編輯: freshmints (61.227.229.224), 11/06/2016 02:43:51
--
※ 編輯: freshmints (61.227.229.224), 11/06/2016 01:58:28
推 : 我想到閃電霹靂車的阿斯拉1F 11/06 01:56
推 : 只能推2F 11/06 01:58
ptt+的發文系統也太爛了吧,排版都亂了※ 編輯: freshmints (61.227.229.224), 11/06/2016 02:07:29
推 : 我覺得今天會這樣混淆應該是AI這個詞太過泛濫3F 11/06 02:03
※ 編輯: freshmints (61.227.229.224), 11/06/2016 02:11:18推 : 我倒是想看DeepMind被人換家會有啥反映,說不定挺有趣的XD4F 11/06 02:08
推 : AlphaGO被搞怎麼會哭呢...就是一場敗場把過程輸入資料庫而已5F 11/06 02:09
光是李世石一步就讓他幾近崩潰,星海能讓他崩潰的可能性,高多了推 : 我覺得阿法狗玩星海應該很快就學會"偵查"的重要性了6F 11/06 02:10
但是偵查這種東西需要付出很多代價(飛王蟲、先知都要錢),有些時候過於謹慎反而會被對手利用,星海就是一個這麼複雜的遊戲
而且有時候快攻甚至沒辦法偵查
※ 編輯: freshmints (61.227.229.224), 11/06/2016 02:14:01
→ : 在資訊越多的情況下它就可以付出越少的運算空間再推斷對方7F 11/06 02:11
→ : 的行為 而且它的學習系統包括模仿對局 只要多看一點高端場
→ : 應該就知道一些偵查的時間點 像是第一支王蟲 何時出OB之類的
這兩個都沒辦法「完美」→ : 的行為 而且它的學習系統包括模仿對局 只要多看一點高端場
→ : 應該就知道一些偵查的時間點 像是第一支王蟲 何時出OB之類的
例如:王蟲看不到極限一波、神族走VR可能被先知燒爆、走VC怕影刀
推 : 圍棋還有思考時間 這真的一大挑戰10F 11/06 02:13
※ 編輯: freshmints (61.227.229.224), 11/06/2016 02:16:30推 : ...你要這樣說講得好像人類玩的時候不需要花資源偵查11F 11/06 02:15
→ : 當電腦意識到這樣的偵查是必要時它就會跟著做了
如果是搞人的那方(例如Has)他根本不偵查的,光砲蓋臉上給他客氣?→ : 當電腦意識到這樣的偵查是必要時它就會跟著做了
甚至做假建築、炸建築來誤導的都很多
※ 編輯: freshmints (61.227.229.224), 11/06/2016 02:17:48
→ : 偵查還要考慮對手的戰術欺騙,不可能每場都照表操課的13F 11/06 02:16
推 : AlphaGO 下圍棋也沒有所謂的完美啊14F 11/06 02:17
→ : 他只是在以知的範圍內找一個看起來最ok的做法而已
對,但他之所以可以這樣算是因為他「知道」對手的步數,可是星海不行→ : 他只是在以知的範圍內找一個看起來最ok的做法而已
例如:要知道前面有沒有埋地毒爆,除非有雷達,不然根本不會有「答案」(可是一發雷
達價值240礦,真能掃免錢?)
※ 編輯: freshmints (61.227.229.224), 11/06/2016 02:21:27
推 : 你只講到微操 那請問多線呢? 人腦在天生就沒電腦能夠快16F 11/06 02:18
推 : 要AI崩潰得先確定星海的可能性分支有比圍棋多17F 11/06 02:18
→ : 速處理大量即時資訊呀18F 11/06 02:18
→ : 圍棋沒有多線問題 電腦有 就連職業選手有時候自己在前線
→ : 圍棋沒有多線問題 電腦有 就連職業選手有時候自己在前線
→ : 我覺得星海要處理的部分是資料的部分20F 11/06 02:19
推 : AlphaGO玩快棋弱很多 這真的對它是一大挑戰21F 11/06 02:19
→ : 戰術選擇上我覺得星海分支可能比圍棋少22F 11/06 02:19
→ : 微操結果家裡營運或小地圖漏看都會發生 問題是對電腦來23F 11/06 02:19
→ : 說會發生這種錯誤嘛?
→ : 說會發生這種錯誤嘛?
→ : 阿法狗在面對選擇時會走勝算最高的步數,直到對手改變25F 11/06 02:20
→ : 電腦打星海應該很強吧 可以微控一隊遠程兵?26F 11/06 02:20
→ : 策略才會再次計算可能性,星海中可以選擇穩健發展策略27F 11/06 02:21
推 : 我想是確定敵方戰術後 就照設定的最佳解執行下去了28F 11/06 02:22
→ : 讓勝算維持一定程度29F 11/06 02:22
推 : 星海只是知道的比較少而已,當下還是有最佳的策略30F 11/06 02:22
→ : 遇到前面有陷阱之後,就會有另一個策略
→ : 遇到前面有陷阱之後,就會有另一個策略
推 : 對抗埋地毒爆電腦會出渡鴨吧 面對隱形單位最高CP的做法32F 11/06 02:23
→ : 然後微操 交戰 都靠rule直接解 跟一般遊戲AI一樣33F 11/06 02:23
→ : 除了資料輸入之外,星海跟圍棋沒有差那麼多34F 11/06 02:23
推 : 我想前面有埋地毒爆/雷 這跟電腦或人腦沒啥關係 都是靠35F 11/06 02:23
推 : google先想辦法生出SC的演算法吧,能下圍棋是因為有對應36F 11/06 02:24
推 : 玩星海算不算挑戰讓電腦解Bayesian game的平衡點啊37F 11/06 02:24
→ : 直到玩家被偵測到確定的一手後電腦再改變策略就好38F 11/06 02:24
→ : 的演算法,不然效能再多也不構39F 11/06 02:24
→ : 偵查探知的吧?40F 11/06 02:24
你確定嗎?在圍棋當中AlphaGO都沒李世石快了,如果同時多線(還是隱形單位)他真的
能夠同時思考每個空投的處理方法?
而且,多線也有其弱點(TY就是常常多線風騷正門被一拳打穿)
渡鴉瓦斯很貴,你看職業賽除非到很後期不然根本不會出(目的還是要放無人防禦幾)
圍棋的戰術多寡不是重點,而是在星海沒有能計算的步伐,李世石如何騙他終究有個限度
,但星海呢?
對付HAS很多選手會派3-4隻工兵地毯式搜索,每個人都這樣搜嗎?萬一他認為不會放大招
的突然放招呢?
星海的問題在於每個戰術都有風險(而且沒辦法即時更改),這在戰場上比起圍棋來的真
實多了
事實上很多時候選手並不是什麼都靠偵查取得資訊,有時候就是第六感的賭,可是AlphaG
O知道「賭」嗎?
再來偵查也非萬能(裸三遇到快攻就是死,這偵查不到沒辦法預防)
→ : Deep Learning最神奇的地方就是不用找演算法41F 11/06 02:24
→ : 放著讓電腦去做 他自己會找出一種演算法
→ : Google只需要幫他搞定input跟output就好
→ : 放著讓電腦去做 他自己會找出一種演算法
→ : Google只需要幫他搞定input跟output就好
推 : 他指的是從答案 執行操作的部分吧44F 11/06 02:26
→ : deep learing 只是幫你先整理好可能狀況 及對應答案
→ : 圍棋那套 有另一個快速從model尋找最佳解的演算法
※ 編輯: freshmints (61.227.229.224), 11/06/2016 02:30:30→ : deep learing 只是幫你先整理好可能狀況 及對應答案
→ : 圍棋那套 有另一個快速從model尋找最佳解的演算法
推 : 我是覺得只要情報一樣,加上訓練資料夠多,電腦是應該要47F 11/06 02:28
→ : 能夠贏過人腦的
→ : 能夠贏過人腦的
資料可以可能才是陷阱
例如放招率超低的Zest,竟然在決勝盤下光砲,在沒辦法靠偵查預測下(探點不一定抓得
到對方)
AlphaGO能在看到工兵瞬間知道這是放招嗎?
推 : 人腦做的事情也一樣啊 整理情報 做對應動作49F 11/06 02:29
→ : 只是deep learning把這個過程高度抽象化了
→ : 啊其實好像不能說是抽象 對人類抽象但對數學具體
→ : 只是deep learning把這個過程高度抽象化了
→ : 啊其實好像不能說是抽象 對人類抽象但對數學具體
推 : 你講的第六感說穿了是職業選手經驗的累積迅速解讀52F 11/06 02:31
不一定,放招這種事情,是經驗嗎?那AlohaGO能預測到這個經驗嗎?
※ 編輯: freshmints (61.227.229.224), 11/06/2016 02:34:06
→ : 第六感的賭某種意義上跟蒙地卡羅方法是一樣的XD53F 11/06 02:33
→ : 阿法狗下圍棋不是靠暴力演算破解…而是會整理可能性分支54F 11/06 02:33
→ : 遊戲中的第六感就是玩家根據經驗法則歸納出的可能性
※ 編輯: freshmints (61.227.229.224), 11/06/2016 02:35:15→ : 遊戲中的第六感就是玩家根據經驗法則歸納出的可能性
→ : 遇到經驗外的事件 人類跟電腦都一樣只能用猜的56F 11/06 02:35
推 : 是啊,可以說是經驗啊,所以放招有可能取得很大成果57F 11/06 02:35
→ : 但要看一個策略好不好,要看打幾千場下來的結果
→ : 但要看一個策略好不好,要看打幾千場下來的結果
→ : 而猜的範圍就是過去所累積的經驗59F 11/06 02:35
→ : 這種策略本來就不會是 100% 穩贏的60F 11/06 02:35
所以他沒辦法預測這種事情啊?這種事情毫無根據可言
如果AlphaGO根據成功率、選手資料、過往比賽經驗,都認為他不會放招
結果在沒有準備的情況下他放招了,怎麼辦?
過往戰爭失敗,幾乎都是在這種情況下輸掉的
圍棋不可能5分鐘結束,一定會把兩人的腦袋榨乾才結束
星海只要一點點失誤,五分鐘就可以結束
→ : 圍棋是輪流,算出可能性還有對應時間,星海錯了大勢已去61F 11/06 02:35
推 : 你講的情形不管人腦電腦差別到底在哪? 遇到那種賭招的人62F 11/06 02:36
→ : 腦一樣會跟電腦錯亂呀
→ : 腦一樣會跟電腦錯亂呀
沒錯 所以當AlphaGO能夠做到100%勝率的話,就代表他超越這個東西了
→ : 的情況比較多吧,能屌打人類就表示電腦學會人的狡滑了..64F 11/06 02:36
→ : 電腦比人類強的優勢之一就是左右互搏幾千場是可能的65F 11/06 02:36
※ 編輯: freshmints (61.227.229.224), 11/06/2016 02:38:44→ : 也就是說所謂奇招對電腦來說可能也看過數百次66F 11/06 02:37
→ : 阿法狗上場前有自機對奕上千場累積經驗強化分支選擇67F 11/06 02:37
→ : 至於電腦學會狡猾 也要看狡猾能不能幫助它贏68F 11/06 02:38
→ : 所以對人類時阿法狗會下勝率最高的步數而不是暴力破解69F 11/06 02:39
狡猾反而會被利用,火鳳就是計中計中計中計的概念
事實上,在星海用勝率最高的步伐反而很可能會輸(正所謂小色說的:太龜、太慫)
※ 編輯: freshmints (61.227.229.224), 11/06/2016 02:41:45
→ : 總覺得原PO過分強調圍棋回合制與星海即時的差異了70F 11/06 02:39
→ : 光學會狡猾這件事在AI就是大突破了,這篇的主旨也是這吧..71F 11/06 02:40
推 : 戰爭只有一次,但是星海可以打1000場啊72F 11/06 02:40
→ : 李世石比賽之後的對奕也學阿發狗走精算過的步數減少73F 11/06 02:40
→ : 圍棋得到的情報是100%正確的,能判斷假情報就比圍棋價值高74F 11/06 02:41
→ : 直覺式的下法…他也因此提高勝率75F 11/06 02:41
→ : 你講的沒辦法預測對手放招,這不分人腦or電腦的76F 11/06 02:41
如果電腦沒辦法超越我說的「理論上不能超越」他也就只跟人類一樣而已
如果連對手所想的都算到了,那就完全超越人類了
※ 編輯: freshmints (61.227.229.224), 11/06/2016 02:43:51
推 : 應該說是測驗對於不完全的資訊計算的能力吧77F 11/06 02:42
推 : 我指的是電腦要怎麼"思考"的演算法,之前工作上有接觸過78F 11/06 02:42
推 : 我覺得討論已經偏了 重點是人腦跟電腦的差異79F 11/06 02:42
→ : 阿法狗對人類最大的教育就是直覺非最嘉選擇…80F 11/06 02:43
→ : 另外電腦對於勝率高的概念跟人類絕對不一樣81F 11/06 02:43
→ : 自然語言學習的工具,它學習的過程並不是人去教他文法是82F 11/06 02:43
推 : 預測對面會不會放招這不可能吧...根本沒有前兆啊83F 11/06 02:43
→ : 首先你說計中計中計中計, 電腦AI在學習時所有的replay都84F 11/06 02:43
→ : 什麼,它會自己找一套方法,但是怎麼"學習"還是有演算法85F 11/06 02:44
→ : 精算過的走法才是獲勝的最佳解86F 11/06 02:44
→ : 他只要勝率比人類高,他就超越人類了87F 11/06 02:44
→ : 可以記錄下來 人腦不行, 那在策略上 人腦除非用電腦沒88F 11/06 02:45
推 : 實際上它不需要100%碾壓也能體現價值89F 11/06 02:45
→ : 說穿了AI根本沒有所謂的「想到你要怎麼做」這種概念90F 11/06 02:45
→ : 有看過的招才能打的對手出其不意 問題是這個同樣拿去打91F 11/06 02:45
→ : 他只是基於目前的資料執行最好的下一步92F 11/06 02:45
→ : 人腦也是一樣的下場 所以跟本上來說人腦在RTS就沒有什麼93F 11/06 02:46
→ : 另外,勝率最高的步數代表輸的場次最少…94F 11/06 02:46
→ : 比電腦有優勢的地方了吧95F 11/06 02:46
→ : 預測敵方單位從初始時間開始加機率96F 11/06 02:47
→ : 像三路英雄消失沒視野 大概要進巴龍池
→ : 像三路英雄消失沒視野 大概要進巴龍池
推 : 結果是躲在草叢 準備BD主堡 XD98F 11/06 02:49
→ : 其實是起內鬨都龜溫泉放爛99F 11/06 02:50
→ : 那準備BD主堡的機率價值函數也會上升100F 11/06 02:50
推 : 但探巴龍的勝率比較高 所以還是選了這步101F 11/06 02:51
推 : 可是深度思考恐怖的地方就在於他學習的能力啊...102F 11/06 02:53
→ : 不會因為勝率高就固定選哪一步阿103F 11/06 02:53
→ : 還有一個點是原文有提的 就是"即時" 如果真讓AI在人類社會104F 11/06 02:53
→ : 畢竟不是真人沒有排名壓力跟情緒105F 11/06 02:53
→ : 賽局的策略是機率性的106F 11/06 02:53
→ : 更有貢獻 那這AI必須要能處理"即時"的事件107F 11/06 02:54
→ : 以剛剛那個探巴龍vs守家防BD的例子來說108F 11/06 02:54
→ : AI會在兩者各給出一個機率 然後靠機率做決策
→ : AI會在兩者各給出一個機率 然後靠機率做決策
推 : DeepLearning厲害是厲害在資料夠多一定會optimal110F 11/06 02:55
→ : 但不是哪邊機率最高就選哪邊 是機率高的容易被選中111F 11/06 02:56
推 : 對 不過這點就跟DL無關了112F 11/06 02:56
→ : 那個比較像是蒙地卡羅方法的解釋XD113F 11/06 02:56
推 : 比星海是要比加速好嗎114F 11/06 03:22
→ : 別神話DL好嗎...解不好的問題還一堆115F 11/06 03:28
→ : SGD一定會optimal大家也不用tune半天參數了
→ : SGD一定會optimal大家也不用tune半天參數了
→ : 這個時代 人人都能嘴出一套演算法117F 11/06 03:49
→ : 這樣星海算是NP問題嗎?118F 11/06 04:39
推 : 想到阿法狗的未來是戰爭用途總覺得毛毛的119F 11/06 05:52
推 : 總算有非單細胞的人了,阿法狗要突破的就是預測的障120F 11/06 06:27
→ : 礙
→ : 而不是單單的運算勝率結果
→ : 一堆人只看操作,但沒思考光有操作能贏比賽嗎
→ : 礙
→ : 而不是單單的運算勝率結果
→ : 一堆人只看操作,但沒思考光有操作能贏比賽嗎
推 : 不用太高估星海的決策複雜度124F 11/06 06:34
推 : 電腦光散兵,人根本散不贏 人類只能一小坨拉開125F 11/06 07:00
→ : 給電腦操作,可以做到一隻一隻拉 只要沒限制電腦手速
→ : 給電腦操作,可以做到一隻一隻拉 只要沒限制電腦手速
推 : 在生物界 最狡猾的就是人類 無人能出其右127F 11/06 07:26
推 : 捧那麼高,明年去挑戰阿法狗阿,bz會放API128F 11/06 07:36
→ : DeepMind 在 APM 上將有所限制,確保雙方的對戰是公平
→ : google團隊都已經聲明了,呵呵 不知道在捧阿法狗的人
→ : 有什麼想法
→ : DeepMind 在 APM 上將有所限制,確保雙方的對戰是公平
→ : google團隊都已經聲明了,呵呵 不知道在捧阿法狗的人
→ : 有什麼想法
推 : 覺得有操作就能贏應該沒玩過吧XD132F 11/06 08:13
→ : 講的好像有微操 阿法狗靠工兵能吃掉整團兵133F 11/06 08:22
推 : 看過年初那篇論文 星海你要怎得到value network?134F 11/06 08:26
→ : 電腦的演算法會有一個判定哪個做法效益值最高的解135F 11/06 08:31
→ : 但是星海2你要如何判定這個解,考驗的不只是電腦,還有工
→ : 程師,而且那個微操基本上跟開掛沒兩樣就別提了
→ : 但是星海2你要如何判定這個解,考驗的不只是電腦,還有工
→ : 程師,而且那個微操基本上跟開掛沒兩樣就別提了
推 : 你看到那些微操 其實都是作弊的138F 11/06 08:34
→ : 如果不是取得內部資料,怎麼可能精準算出距離多少139F 11/06 08:34
→ : 那些微操AI 很多都有Hack記憶體抓電腦下個攻擊目標140F 11/06 08:34
→ : RTS的難度是 不完全資訊限制思考時間
→ : 資訊不完全下你建立多大的NN可能都假的
→ : RTS的難度是 不完全資訊限制思考時間
→ : 資訊不完全下你建立多大的NN可能都假的
推 : 在太多未知的條件下 電腦要贏星海電競選手難度遠比圍棋高143F 11/06 09:04
→ : 如果比的都是200人口對戰 那當然不可能贏AI
→ : 如果比的都是200人口對戰 那當然不可能贏AI
推 : 這讓我想到尼特羅會長在自爆前對蟻王說 別小看人類的惡145F 11/06 09:15
→ : 意
→ : 意
推 : 個人覺得避免使用"狡猾"這種詞來形容AI比較適當147F 11/06 09:19
→ : 畢竟是不同的東西 過於直覺地嘗試理解可能會認知偏差
推 : 關於選擇勝率高的作法也值得討論
→ : 單純這麼做的話 搭配的即時資訊判讀 會不會反而什麼
→ : 都沒做到? 也就是沒有一套有明確目的的戰術
→ : 這個還請有完星海的版友解惑了 小弟沒有真正接觸過
→ : 畢竟是不同的東西 過於直覺地嘗試理解可能會認知偏差
推 : 關於選擇勝率高的作法也值得討論
→ : 單純這麼做的話 搭配的即時資訊判讀 會不會反而什麼
→ : 都沒做到? 也就是沒有一套有明確目的的戰術
→ : 這個還請有完星海的版友解惑了 小弟沒有真正接觸過
推 : 回樓上,玩家在打星海時也是靠探查到的情報下去做應對153F 11/06 09:45
→ : 但這情報不一定是真的,有可能是對方的騙局
→ : 但這情報不一定是真的,有可能是對方的騙局
→ : 微操微操微操 沒指令哪來微操155F 11/06 09:46
→ : 你選則勝率高的戰術也是人之常情156F 11/06 09:47
→ : 圍棋回合制時間都不夠燒 即時制來的及下整體戰術?157F 11/06 09:47
→ : 個人心得,DL是因為一些演算法使得大型NLP模型的參數可求158F 11/06 09:52
推 : 推推159F 11/06 09:53
→ : 解吧,覺得不用設計演算法,或AI懂"學習"甚至不用數學160F 11/06 09:53
→ : 都有點太過於商業宣傳了
→ : input現在有機會透過數學模型對應到抽象的output才是真的
→ : 都有點太過於商業宣傳了
→ : input現在有機會透過數學模型對應到抽象的output才是真的
→ : 可是電腦可以打防守拼微操,敵人打來以微操來用低耗損來163F 11/06 09:58
→ : 換單位。所以也不太需要戰術,用一定模式生產單位即可。
→ : 換單位。所以也不太需要戰術,用一定模式生產單位即可。
推 : BW的話是這樣 SC2的操作差距有限165F 11/06 09:59
→ : 因阿法狗的機制好像是隨機行動,留下勝率高的行為,再以166F 11/06 10:04
→ : 這範圍繼續隨機,一直重複取得勝率高的模式。學習當中遇
→ : 到各種戰術,最終應該是會以其微操優勢為核心發展出應對
→ : 機制。所以有可能初期是以多路單兵騷擾為輔發展自身為主
→ : 到後期兵夠了一整波海過去。或者是初期就拼微操打快攻
→ : 這範圍繼續隨機,一直重複取得勝率高的模式。學習當中遇
→ : 到各種戰術,最終應該是會以其微操優勢為核心發展出應對
→ : 機制。所以有可能初期是以多路單兵騷擾為輔發展自身為主
→ : 到後期兵夠了一整波海過去。或者是初期就拼微操打快攻
推 : Deepmind是要訓練戰爭策略。想想真實世界戰爭資源171F 11/06 10:10
→ : 都量化,配上美軍正在發展的無人攻擊機跟無人艦。以
→ : 後局部戰爭誰要跟他打。
→ : 都量化,配上美軍正在發展的無人攻擊機跟無人艦。以
→ : 後局部戰爭誰要跟他打。
推 : 終於有理智人出來說話了174F 11/06 10:15
推 : 教主:偵查?開天眼通就好了阿175F 11/06 10:53
推 : 還有人在玩sc喔??176F 11/06 11:04
推 : ...本文不錯,但你後面的論點我覺得有點流於情感闡述了177F 11/06 11:11
推 : 其實我一直覺得 到底有多少人有資訊背景然後可以輕鬆說178F 11/06 11:43
→ : 出電腦必勝
→ : 可能在未來的某一天是這樣沒錯!但是打星海這件事情 有
→ : 太多因素同時在判斷
→ : 沒錯 對於人類來說確實很簡單.但是放到電腦的領域根本完
→ : 全不一樣
→ : 更何況是非常即時的運算!我意思是幾分鐘內出現的大量可
→ : 能性
→ : 出電腦必勝
→ : 可能在未來的某一天是這樣沒錯!但是打星海這件事情 有
→ : 太多因素同時在判斷
→ : 沒錯 對於人類來說確實很簡單.但是放到電腦的領域根本完
→ : 全不一樣
→ : 更何況是非常即時的運算!我意思是幾分鐘內出現的大量可
→ : 能性
推 : 同意這篇186F 11/06 16:06
--
※ 同主題文章:
11-06 00:46 ■ [新聞] 暴雪結合DeepMind人工智慧 開發星海爭霸2
● 11-06 01:54 ■ Re: [新聞] 暴雪結合DeepMind人工智慧 開發星海爭霸2
※ 看板: terievv 文章推薦值: 0 目前人氣: 0 累積人氣: 229
回列表(←)
分享