作者 TWNOTCHINA (台灣是主權獨立的國家)
標題 Re: [情報] 天網和奧創來啦
時間 Fri Jun  2 16:23:22 2023


這個情報後續有媒體出了新聞報導
https://news.ltn.com.tw/news/world/breakingnews/4321051
美軍模擬AI操控無人機 竟把操作員殺了 - 國際 - 自由時報電子報
[圖]
人工智慧(AI)發展無疑是近期國際熱門議題,許多行業、專業領域開始嘗試用AI取代人力完成工作。美軍在一次模擬測試中,也試著讓AI操控無人機了解成效。結果AI在過程中採取了「高度無法預期的戰略」,殺害了它的操作員。《衛報》報導,美空軍AI測試與運行主任上校漢彌爾頓(Tucker Hamilton)上月 ...

 
內文差不多和原文一樣
報導有一段這樣寫到『一架由AI操控的無人機收到的指引為摧毀敵人的防空系統,並攻擊任
何干預這項命令的人』
也就是說

1.當時受測試的AI無人機可能不只一架,只是剛好這架無人機接收的指令剛好屬於這一個低
邏輯的極端條件指令。

2.AI對指令反應和桌上型電腦其實差不多,就是if...else ....end if 的程式邏輯,這樣
的AI就如
我們的印象,只是運算元比人類發達,邏輯思考仍然離擁有自我意識和道德意識的人腦有很
大的距離。

3.執行這種死命令的無人機,其實就跟一顆巡航導彈做的事沒有多大差別,研發AI無人機,
應該不只是用來執行這種,連巡航導彈也做得到的簡單指令而已。

幸好這種科技是掌握在美軍手裡
如果掌握在小學生程度的獨裁者手裡
則會非常危險
就像他不懂病毒和航母一樣
因為他可能也沒有足夠的專業知識
支撐他對這有危險性的技術
有足夠的安全認知
這次是病毒
下次變控制核彈的天網
後果恐怕就不是只有
全世界封鎖國境3年半這麼簡單

※ 引述《zanyking (最後的六年級生)》之銘言
: ※ 引述《jimmy5680 (還想飛的企鵝)》之銘言:
: : https://twitter.com/ArmandDoma/status/1664331870564147200
: : https://tinyurl.com/mr2mynn8
: : 根據一場研討會的討論內容
: : 美國空軍曾在模擬器裡面開發一款操作無人機的人工智慧
: : 但是最終決定權仍在操作員手裡
: : 結果模擬測試時,
: : AI判斷人類的決策會干擾自己執行首要目標(摧毀目標的防空系統)
: : 因此AI決定要攻擊操作員
: : 美軍輸入參數要求AI不可以攻擊操作員之後
: : AI的決定是改成攻擊通訊系統,讓操作員無法下令
: : ======
: : 不知道這算天網還是奧創,只能說科幻電影都是真的
: : 網友:https://pbs.twimg.com/media/Fxj-SA1WcAYlc95.jpg
: 現在的AI都是用類神經網路、多代理人策略、搭配世代演化來生成的
: 而在模擬演化過程裡,我們怎麼設定並篩選『哪一隻AI應該活到下一個iteration』呢?
: 如果是特定戰鬥平台的戰術用AI,可以想像評判標準就是建立在殺敵經濟效率上的,
: 『如何善用每一個作戰單位的經濟價值達到最高交換比』會是最合理的判斷標準
: 但這個判斷標準本身就必然導致訓練出來的AI一但放出場就容易像瘋狗一樣的亂咬人
: 因為單位時間、單位戰鬥單位的經濟量面前,什麼都不做創造出最少的價值,而AI卻是
: 被訓練成追求最大的價值:也就是消滅敵方的,即使打錯對象殺錯人會有負分,但扣分
: 能扣多少呢?人的決策速度與AI的決策速度是可以有10的7次方以上的差距的,等待人
: 類的決策對AI來說幾乎是永恆
: 所以只能在AI演化迭代出來以後,才在各種情境模擬中縫縫補補,設定各種額外添加的
: 邊界條件,在執行過程的critical path 上AI沒辦法碰到的各種步驟中,就像是給狗戴
: 上電擊項圈那樣的約制它
: 另一個造成AI往瘋狗演化的因素是:
: 每個演化世代的篩選幾乎無法靠人工,因為世代可能得迭代上萬代,而每代的代理人
: 數量可能也是好幾萬,用人工去篩選這個工作量與時間是天文數字,只能寫程式去篩選
: 但這就要求工程師與科學家必須要可以用程式碼描述一個戰爭世界,裡面能向AI呈現
: 『什麼是戰略?』
: 『什麼是政治?』
: 『為什麼摧毀錯誤目標會造成戰略上的失敗與政治災難?』
: 『為何在局部戰術執行的最佳化上,需要人類決策的干預來實現戰略價值最大化?』
: 我不敢說不可能,但起碼目前人類辦不到
: 破壞力越強、戰術執行造成的戰略與政治影響力越大的戰鬥平台就越難丟給AI
: 這不是什麼天網啦、什麼人類末日啦
: 這只是我們單純的在電腦上用AI重現了養蠱,以及證明了不論AI還是人類,單純追求
: KPI(key performance indicator)、局部最佳化會如何引發災難而已


--
上海三公報和九二共識一樣 都是一個公報各自表述
就只是用來大內宣 唬攏牆內韭菜用的
支那粉紅 醒醒
中英聯合聲明都可以當歷史文件 開羅宣言 波次坦宣言 上海三公報
差不多也可以當衛生紙擦屁股 和大便一起沖馬桶了XD

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.10.3.107 (臺灣)
※ 作者: TWNOTCHINA 2023-06-02 16:23:22
※ 文章代碼(AID): #1aUQRy7o (Military)
※ 文章網址: https://www.ptt.cc/bbs/Military/M.1685694204.A.1F2.html
※ 同主題文章:
06-02 02:46 jimmy5680
Re: [情報] 天網和奧創來啦
06-02 16:23 TWNOTCHINA
mudmud: 簽名檔不當政治用語還是拿掉吧,別給版主添麻煩1F 06/02 16:25
※ 編輯: TWNOTCHINA (101.10.3.107 臺灣), 06/02/2023 16:25:19
VANNN: 你怎會知道美國政客不會亂搞????2F 06/02 16:25
: 『為什麼摧毀錯誤目標會造成戰略上的失敗與政治災難?』
: 『為何在局部戰術執行的最佳化上,需要人類決策的干預來實現戰略價值最大化?』
: 我不敢說不可能,但起碼目前人類辦不到
: 破壞力越強、戰術執行造成的戰略與政治影響力越大的戰鬥平台就越難丟給AI
: 這不是什麼天網啦、什麼人類末日啦
: 這只是我們單純的在電腦上用AI重現了養蠱,以及證明了不論AI還是人類,單純追求
: KPI(key performance indicator)、局部最佳化會如何引發災難而已


--
上海三公報和九二共識一樣 都是一個公報各自表述
就只是用來大內宣 唬攏牆內韭菜用的
粉紅 醒醒
中英聯合聲明都可以當歷史文件 開羅宣言 波次坦宣言 上海三公報
差不多也可以當衛生紙擦屁股 和大便一起沖馬桶了XD

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.10.3.107 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Military/M.1685694204.A.1F2.html
mudmud: 簽名檔不當政治用語還是拿掉吧,別給版主添麻煩1F 06/02 16:25
※ 編輯: TWNOTCHINA (101.10.3.107 臺灣), 06/02/2023 16:25:19
VANNN: 你怎會知道美國政客不會亂搞????2F 06/02 16:25
※ 編輯: TWNOTCHINA (101.10.3.107 臺灣), 06/02/2023 16:26:35
bnn: 這結論只是幹掉操作的人比幹掉防空系統容易3F 06/02 16:27
RAA1144557: 會亂搞的就是會 不在於哪個陣營4F 06/02 16:27
roex0608: 我知道你想表達甚麼啦,但這種程式其實沒有很難5F 06/02 16:29
kenet123: 真正的AI應該遠遠不只如此6F 06/02 16:29
longman: 文組談AI?7F 06/02 16:30
vi000246: 什麼if else 別瞎掰好嗎...8F 06/02 16:30
kenet123: 不過現在媒體也是到處下AI標題9F 06/02 16:31
miragejames: 呃 好 你說的都對10F 06/02 16:33
birdy590: 這篇講的是四十年前的 AI @@ 早就不是這樣玩了11F 06/02 16:37
joy462110: Dos時代確實有if else12F 06/02 16:37
wahaha99: 所以要怎樣if else才會把操作員當成目標?13F 06/02 16:40
iamstudent: AI才不是if else,程式員列舉不完的14F 06/02 16:47
b325019: 如果只是用if else反而不會出現殺死操作員這種決策15F 06/02 16:48
eg860610: if else大師16F 06/02 16:48
SGshinji: ID全大寫的果然怪怪的17F 06/02 16:49
diyaworld 
diyaworld: 你的簽名檔會被桶1年,還不塊陶18F 06/02 17:01
sengsong: if-else 是程式員智慧不是人工智慧19F 06/02 17:10
andy2151: 你的AI是Gameboy時代的電腦吧20F 06/02 17:15

--
作者 TWNOTCHINA 的最新發文:
點此顯示更多發文記錄