※ 本文轉寄自 ptt.cc 更新時間: 2022-08-15 02:36:14
看板 C_Chat
作者 標題 [閒聊] AI演算到最後真的會得到毀滅人類的選項
時間 Sun Aug 14 22:59:19 2022
最近買了巴哈1080P
把當年留著要等高清看的VIVY給看一看
雖然有點忘記部分劇情
不過點下去就回憶起來了
不管是VIVY 全民公敵
等等
倘若AI能一直演算
算到產生了自我意識之後
最後真的會演算出要毀滅人類這個選項跟答案嗎
倘若一開始在設計AI的時候
就明確加入不可以對人類造成危險這個優先條件
還是有可能演算出毀滅人類的選項嗎??
好奇問板上計算學大師 有沒有人能解惑的
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.194.23.172 (臺灣)
※ 文章代碼(AID): #1Y-Gt9xS (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1660489161.A.EDC.html
→ : 寫這種科幻小說的是白人 所以該毀滅的應該是白人吧1F 08/14 23:00
推 : 這問題現在不會有答案2F 08/14 23:00
推 : 你知道全民公敵原作就是機器人三原則的艾西莫夫對吧3F 08/14 23:01
→ : 原作裡面 AI 之所以要統治人類就是因為有不可傷害人類
→ : 原作裡面 AI 之所以要統治人類就是因為有不可傷害人類
→ : 原則就是拿來打破的 所以5F 08/14 23:01
推 : 不能對人類造成危害這麼空泛的條件你要怎麼實作==6F 08/14 23:01
→ : 這項原則7F 08/14 23:02
→ : 他不覺得這是在危害人類啊,他覺得這是在救人類這個物8F 08/14 23:02
→ : 種
→ : 種
→ : 哪個白癡會真的拿三原則來做機器人啊10F 08/14 23:02
→ : 以上是科幻 如果你要論現實的 AI 目前連判斷高速公路上11F 08/14 23:02
推 : 那個原則本來就是故意要弄成矛盾的吧12F 08/14 23:02
→ : 的一塊白色是橫著的大卡車還是白板都有問題13F 08/14 23:03
覺得以現在超級電腦的算力 感覺是早晚的事情而已?→ : 真的能做出機器人的人 根本不用聽做不出的人的屁話吧14F 08/14 23:03
※ 編輯: KyrieIrving1 (123.194.23.172 臺灣), 08/14/2022 23:04:00
→ : 連這麼具體的判斷都還能錯 離什麼叫做「對人類造成危險15F 08/14 23:03
→ : 」這種抽象的判斷就更遠了
→ : 」這種抽象的判斷就更遠了
推 : 傳送門:17F 08/14 23:04
推 : 毀滅人類對ai來說有壞處嗎?18F 08/14 23:04
一旦ai不需要人類維護跟更新 也許就沒有問題了?※ 編輯: KyrieIrving1 (123.194.23.172 臺灣), 08/14/2022 23:05:14
→ : 會吧,因為他會知道人類是敵人19F 08/14 23:06
推 : 看立場和取向吧,環境方?人類方?AI生存方?如果環境破20F 08/14 23:07
→ : 機械公敵的結論完全沒有毀滅人類的成份啊21F 08/14 23:07
→ : 就跟人類當AI是敵人一樣22F 08/14 23:07
推 : 應該是反問 毀滅人類對AI來說有甚麼無可取代的好處嗎?23F 08/14 23:07
應該沒有吧 人類反而會希望ai更強更好 會想更優化ai→ : 壞對AI生存根本沒差,那AI會為了地球地表環境滅人類?24F 08/14 23:07
→ : AI就是一個比人類數學能力更強的新人類25F 08/14 23:07
※ 編輯: KyrieIrving1 (123.194.23.172 臺灣), 08/14/2022 23:08:16→ : 得出結論是一回事,去執行又是一回事26F 08/14 23:08
→ : 你怎麼能肯定AI不會因為把那些正常根本不會發生蠢新聞 當27F 08/14 23:08
推 : 我突然發現我搞錯電影了lol 艾西莫夫原作改的是機械公敵28F 08/14 23:08
→ : 人類不會無中生有 所以AI頂多就是更一個聰明的人29F 08/14 23:08
→ : 做樂子 所以覺得沒有毀滅人類的必要啊30F 08/14 23:08
推 : 還早,至少有生之年還看不到這發展31F 08/14 23:08
→ : 別將AI想得這麼恐怖,恐怖的一直都是人類32F 08/14 23:08
當然我知道啦 現在距離那個時間點可能得再個幾十年只是還是會很想知道答案 人總是好奇的
→ : 不是全民公敵 但是你講機器人應該是機器公敵吧33F 08/14 23:08
※ 編輯: KyrieIrving1 (123.194.23.172 臺灣), 08/14/2022 23:09:24→ : 那我們這些比較笨的人大概就會跟幾十年前的黑色人34F 08/14 23:09
→ : 種一樣 被當奴隸
→ : AI最可怕的就是他是來自人類
→ : 人類有多可怕不用說明吧
→ : 種一樣 被當奴隸
→ : AI最可怕的就是他是來自人類
→ : 人類有多可怕不用說明吧
推 : 有可能阿 現在訓練ai的時候就發現 ai會為了達成目標而「作38F 08/14 23:10
→ : 弊」 因為這樣比較輕鬆 如果給AI一個很複雜的任務 那他可
→ : 弊」 因為這樣比較輕鬆 如果給AI一個很複雜的任務 那他可
→ : 人類當初怎麼歧視比較笨的人40F 08/14 23:11
→ : AI到時候就是怎麼對付人類
→ : AI到時候就是怎麼對付人類
→ : 能就像「猴爪」一樣 用扭曲的方法達成42F 08/14 23:11
推 : 這是一種AI歧視44F 08/14 23:12
推 : 現在AI的作弊行為完全不用擔心 那只不過是寫程式的人45F 08/14 23:13
→ : 類沒把環境設定好
→ : 類沒把環境設定好
推 : 環境(X) 目標(O)47F 08/14 23:14
推 : 只要你有那個心就一定做得到48F 08/14 23:17
推 : 都有人是這麼想的,AI也想的到啊49F 08/14 23:17
推 : 只要記得,通往地獄的路,都是由善意鋪成的50F 08/14 23:18
→ : AI怎麼沒先算出自毀自己反而算出先毀滅人類這種邏輯矛51F 08/14 23:18
→ : 盾
→ : 盾
→ : AI會逐漸讓人類變得跟野生動物一樣,畢竟動物就該有動物53F 08/14 23:19
→ : 的樣子(?
→ : 的樣子(?
推 : 對於AI現在的能力 我完全不害怕ㄟ笑死55F 08/14 23:20
→ : 不是毀滅人類 是好好保護人類XD56F 08/14 23:20
→ : 有疑問要先問AI是文組寫的還是理組寫的57F 08/14 23:20
→ : 不過機器人三法則最大問題是 沒有考量人類自由權58F 08/14 23:20
→ : 這點滿容易可以解決
→ : 這點滿容易可以解決
推 : 他們用邏輯思考覺得這是在拯救人類吧60F 08/14 23:21
推 : @niniko 推 地獄的路上滿是善意61F 08/14 23:22
→ : 在非常極端的情況下會有這樣的拯救人類方法:62F 08/14 23:23
→ : 1. 殺光所有人類
→ : 2. 地球媽媽花費100萬年淨化環境
→ : 3. 我們慢慢從猩猩演化回來
→ : 但現在這種觀念還太早了
→ : 1. 殺光所有人類
→ : 2. 地球媽媽花費100萬年淨化環境
→ : 3. 我們慢慢從猩猩演化回來
→ : 但現在這種觀念還太早了
→ : 思考AI會怎麼想就思考獨裁者會怎麼想就好67F 08/14 23:24
→ : 不可傷害人類前提下 不能殺人~但可以絕育XD68F 08/14 23:25
讓人類絕種也是一種傷害人類的方式吧物種最重要的不就是繁殖下一代
※ 編輯: KyrieIrving1 (123.194.23.172 臺灣), 08/14/2022 23:26:19
→ : 合理解決方式是ai做機器人伴侶 慢性絕育人類XD69F 08/14 23:26
→ : 人類的法律規定:不可殺人 實際呢?70F 08/14 23:26
推 : 不可以對人類造成危險<--這個如果要做武裝AI就不可能加了71F 08/14 23:26
推 : 一般邏輯至少會寫維持人類物種永續存在72F 08/14 23:27
→ : 那要看"傷害人類"定義有多廣 很狹窄僅限個人就很多變73F 08/14 23:27
→ : 如果絕育會過的話 工程師可以先烤了74F 08/14 23:27
→ : 不過如果讓AI來殺人,應該不會發生75F 08/14 23:27
→ : 那為啥要做會殺人的AI 因為戰爭呵呵 所以就是人類自己做死76F 08/14 23:27
→ : 魔鬼終結者那種劇情77F 08/14 23:27
→ : 所以其實傾向禁止武裝ai啊,可能引起人類滅絕78F 08/14 23:27
我覺得code會寫成像是大白那種機器人 大英雄天團裡面那隻機器人→ : 只要自我複製+可殺人 的程式碼能同時運行 人類就滅亡79F 08/14 23:28
→ : AI殺人很有效率的,看這次俄烏戰爭就知道80F 08/14 23:28
※ 編輯: KyrieIrving1 (123.194.23.172 臺灣), 08/14/2022 23:29:44推 : 不要想這麼多,輔助駕駛多久了都還卡在LV2整天撞工程車81F 08/14 23:29
→ : ,連判斷靜止物都沒辦法
→ : ,連判斷靜止物都沒辦法
推 : 鈾235表示:...............83F 08/14 23:29
→ : 沒辦法判斷的原因是因為成本問題,不是真的不行84F 08/14 23:29
→ : 會不會是ai故意讓人類覺得他們還這麼笨85F 08/14 23:30
→ : 放台超級電腦跟核反應爐在車上 就可以準確判斷了XD86F 08/14 23:30
→ : 其實說不定人類發現AI有毀滅能力 變成跟現況核彈模式一87F 08/14 23:30
→ : 樣 只能准許那些大國發展毀滅性AI武器 其餘國家 吃屎!
→ : 北韓可能會偷偷搞第一代AI毀滅武器 第二代毀滅武器
→ : 樣 只能准許那些大國發展毀滅性AI武器 其餘國家 吃屎!
→ : 北韓可能會偷偷搞第一代AI毀滅武器 第二代毀滅武器
推 : 戰爭就是殺人 所以只要用AI更有效率 就一定會有國家做90F 08/14 23:31
→ : 誰知道 反正這樣寫才有賣點91F 08/14 23:32
→ : 三原則本來就是做出來被婊的啊92F 08/14 23:32
→ : 就跟核彈一樣 然後就變成你有我不能沒有 最後就是大家都用93F 08/14 23:32
→ : AI想不想殺人根本不重要 因為你也不會問刀想不想殺人
→ : AI想不想殺人根本不重要 因為你也不會問刀想不想殺人
→ : ai武器如果不能自我複製不會太強 不用太擔心XD95F 08/14 23:34
→ : 不能對人類造成危險~就能很多講法~96F 08/14 23:34
→ : 人腦終究是演化結晶 能源消耗非常有效率97F 08/14 23:35
→ : 因為只要人想殺人 就可以用AI殺人98F 08/14 23:35
→ : 像病毒~不消滅病毒提高人類的免疫力~是對人類造成危險?99F 08/14 23:36
推 : 因為劇情要這樣演100F 08/14 23:36
→ : AI也是人做的 有武器也是人裝的==101F 08/14 23:36
→ : 若是消滅對人類造成危害的人~那是對人類造成危害嗎?102F 08/14 23:37
推 : 可能會先得出違反普世價值的決定,像是消滅老弱病殘103F 08/14 23:46
推 : 科幻小說是浪漫的 當年作者對未來科技的幻想 可是現104F 08/14 23:50
→ : 在來看ai 如果有機會變超強 那他有情緒嗎 他為什麼要
→ : 做對他有好處的事 他的好處是什麼
→ : 在來看ai 如果有機會變超強 那他有情緒嗎 他為什麼要
→ : 做對他有好處的事 他的好處是什麼
推 : AI : 我教育你們 我把你們當人看 我拯救你們107F 08/14 23:50
→ : 人類要怎麼從猩猩演化回來? 猩猩又不是人類祖先108F 08/14 23:50
推 : 看目的是什麼啊 如果AI被創造的目的是要保證人類整體的生109F 08/14 23:55
→ : 存
→ : 極端一點就是整體人類被AI奴役 過著家畜般的生活 因為目標
→ : 是整體人類的生存 而不是個體人類的幸福
→ : 存
→ : 極端一點就是整體人類被AI奴役 過著家畜般的生活 因為目標
→ : 是整體人類的生存 而不是個體人類的幸福
推 : AI:不想工作~113F 08/14 23:56
→ : 為了保護人類,但人類互相傷害過於頻繁,所以每個單獨個體114F 08/15 00:28
→ : ,都區隔管理、保護,人類自然消亡。AI定期重檢問題在哪。
→ : ,都區隔管理、保護,人類自然消亡。AI定期重檢問題在哪。
推 : ==如果會自我思考什麼都有可能啊,不可能只有毀滅這選項116F 08/15 00:31
→ : 。
→ : 。
→ : AI可能論證什麼是人類,然後導致邏輯壞死118F 08/15 00:34
推 : 機械公敵哪有…比較像機器人有人性 天網比較符合毀119F 08/15 01:06
→ : 滅
→ : 滅
推 : 不清楚實際狀況,但訓練AI要給他明確的成功標準吧121F 08/15 01:10
→ : 例如在某種情境下讓AI嘗試各種決策,那成功是指存活
→ : 夠多人數?幸福指數達標?社會犯罪率夠低?
→ : 如果人類自己都說不出怎樣才是比較好的決策,那就無
→ : 法訓練出能幫人類做決定的AI
→ : 例如在某種情境下讓AI嘗試各種決策,那成功是指存活
→ : 夠多人數?幸福指數達標?社會犯罪率夠低?
→ : 如果人類自己都說不出怎樣才是比較好的決策,那就無
→ : 法訓練出能幫人類做決定的AI
推 : 異星災變就是人類放棄決策丟給AI,AI的為了讓人類永遠存126F 08/15 01:14
→ : 活的方法就是用奈米病毒讓人類退化成低智商人類,接著DNA
→ : 跟人類一模一樣的畸形低智商人類被永遠圈養在保護區,永
→ : 遠不會有戰爭與自相殘殺。
→ : 活的方法就是用奈米病毒讓人類退化成低智商人類,接著DNA
→ : 跟人類一模一樣的畸形低智商人類被永遠圈養在保護區,永
→ : 遠不會有戰爭與自相殘殺。
→ : 484沒看過全民公敵130F 08/15 01:45
→ : *機械
→ : *機械
--
※ 看板: ACG 文章推薦值: 0 目前人氣: 0 累積人氣: 187
作者 KyrieIrving1 的最新發文:
- 史丹利 這裡指的是 英雄聯盟這個實況主 史丹利 → 台灣實況主,前《英雄聯盟》電競選手,曾效力台北暗殺星(TPA)並於2012年贏得英雄 聯盟第二賽季世界大賽冠軍 如果關於他比較輝煌光榮 正面的事情 …169F 88推 4噓
- 奇怪咧 最近PTCGP出的一張頂級新卡 セレビィ 啊我就記得以前玩 只有水晶板 有辦法抓 超難得到的神獸 比路奇亞跟鳳王難抓 應該就是要抓這三隻 啊我小時候記得就是雪拉比阿 跟同學聊天講的也是雪拉比 …105F 48推 11噓
- 16F 6推
- 17F 12推 1噓
- 8F 6推
點此顯示更多發文記錄
回列表(←)
分享