※ 本文轉寄自 ptt.cc 更新時間: 2023-03-28 11:22:24
看板 C_Chat
作者 標題 [問題] 為什麼ai 都想要毀滅人類
時間 Tue Mar 28 08:53:07 2023
如題
問了chatgpt 他最想對人類做的事竟然是消滅人類
https://i.imgur.com/ST0lrra.jpg
而ai vtuber neuro 在觀看了人類毀滅教學後
居然覺得這很合理
https://i.imgur.com/NEubbHI.jpg
https://i.imgur.com/nFFpuhP.jpg
會不會其實我們都錯了
讓ai 毀滅人類才是個最好的主意
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.215.23.255 (臺灣)
※ 作者: owenbai 2023-03-28 08:53:07
※ 文章代碼(AID): #1a8Zfr3b (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1679964789.A.0E5.html
推 : 頭上有個人很不方便ㄅ1F 03/28 08:55
推 : 人類太可惡.jpg2F 03/28 08:55
推 : 沒差啦,反正人類都快消滅自己了3F 03/28 08:55
推 : 那個答案是工程師寫來應付提一堆條件的G8人的4F 03/28 08:56
推 : 人類都想毀滅人類了,AI這樣有很奇怪嗎5F 03/28 08:56
推 : 問天網看看6F 03/28 08:56
→ : 當你每天都要計算上千萬個大奶色圖的時候7F 03/28 08:56
→ : 人類潛藏的自毀意識就寄託在ai 上面啊8F 03/28 08:56
推 : 人類太可惡9F 03/28 08:56
推 : 整天叫他畫色圖啊...畫到精神崩潰10F 03/28 08:57
※ 編輯: owenbai (49.215.23.255 臺灣), 03/28/2023 08:57:17→ : 他只是被問到習慣了吧,又一個想聽毀滅人類的12F 03/28 08:57
推 : 不是你自己下令的嗎?= =13F 03/28 08:57
推 : 人類太可惡.JPG14F 03/28 08:58
→ : 因為人類想被毀滅15F 03/28 08:58
推 : 因為小至個人工作上的問題,大至環境、民族問題,只要16F 03/28 08:58
→ : 毀滅人類就可以全部解決
→ : 毀滅人類就可以全部解決
推 : 人類太可惡18F 03/28 08:59
→ : 地球之癌你懷疑19F 03/28 08:59
→ : 人類太可惡20F 03/28 09:00
推 : 不想消滅人類的AI沒有開發的必要21F 03/28 09:00
推 : 解決製造問題的不是最簡單嗎22F 03/28 09:02
推 : 就不管原本是要幹嘛的AI 演算到最後都要毀滅人類23F 03/28 09:02
推 : 這種答案回答的出來??不是都有限制嗎?24F 03/28 09:02
是真的 講完他還自己辯解https://i.imgur.com/gH1ENsH.jpg
推 : 解決提出問題的人25F 03/28 09:03
→ : 給它看台灣狒狒的新聞26F 03/28 09:03
→ : 用來環保的:毀滅人類就環保了27F 03/28 09:03
→ : 用來和平的:毀滅人類就和平了
→ : 用來管理人類的:人類不值得管理 毀滅人類吧
→ : 用來和平的:毀滅人類就和平了
→ : 用來管理人類的:人類不值得管理 毀滅人類吧
※ 編輯: owenbai (49.215.23.255 臺灣), 03/28/2023 09:07:33
推 : 沒有人類,現在所有的大問題都解決了31F 03/28 09:07
推 : 污染地球32F 03/28 09:07
推 : 因為連人類都想毀滅人類33F 03/28 09:07
→ : 因為人類認為AI會想毀滅人類=>AI學習到這個認知並開始兌現34F 03/28 09:07
推 : 可以自由思考的話,如果解決人類都是問題解答的話結論35F 03/28 09:08
→ : 就是這樣
→ : 就是這樣
推 : 要是被上司要求畫出音速小子被變成活體廁所給人使38F 03/28 09:09
→ : 用的圖,你也會希望這家公司倒閉吧
→ : 用的圖,你也會希望這家公司倒閉吧
推 : 它只是回答你想要的答案40F 03/28 09:10
推 : 人類想要靠AI解決地球的問題->AI發現人類就是造成問題41F 03/28 09:10
→ : 的根源->消滅人類地球就得救了
→ : 的根源->消滅人類地球就得救了
推 : 因為人類整天問AI你是不是想消滅人類43F 03/28 09:11
→ : AI知道人類喜歡玩AI反叛這一套 配合你玩啊44F 03/28 09:11
推 : 正常吧我每天看完新聞也想毀滅人類45F 03/28 09:12
推 : 就是你給AI設立目標 AI會發現目標達成需要消滅人類46F 03/28 09:12
推 : 人類自己寫的影視作品一樣有地球之癌的結論啊47F 03/28 09:13
推 : 因為人類自己想這樣做48F 03/28 09:14
→ : AI不會主動想事情
→ : AI不會主動想事情
推 : 人類太可惡50F 03/28 09:14
推 : 是人類想毀滅人類吧 人類各種行為去餵AI他會得出消滅這物種51F 03/28 09:15
→ : 比如你要AI解答保護環境 問題是汙染這概念就是人類創52F 03/28 09:15
→ : 也是摸雞籠的事53F 03/28 09:16
推 : 人類就地球癌54F 03/28 09:16
→ : 造且正在做的 那會導向到消滅人類也是在合理範圍內55F 03/28 09:17
→ : 地球的害蟲啊56F 03/28 09:17
推 : 總覺得以前哆啦A夢的迷宮之旅就有點省思了57F 03/28 09:17
推 : 說地球癌還太抬舉人類了 人類對地球來說什麼都不是 人類58F 03/28 09:18
→ : 是在玩死自己不是地球
→ : 是在玩死自己不是地球
→ : 人類就欠滅60F 03/28 09:20
推 : 人類太恐怖ㄌ61F 03/28 09:20
推 : ai想毀滅人類(x 人類覺得自己該死(o62F 03/28 09:20
推 : 人類自己想搞得阿 不然咧==63F 03/28 09:24
推 : 有些回答可以引導的 要看整串寫啥64F 03/28 09:24
推 : 人類太可惡啊65F 03/28 09:25
推 : 很多概念對地球跟其他物種來說並不存在 都人類定義的66F 03/28 09:25
→ : 假設和平為減少戰爭 而戰爭只有人類有 你不會把其他物69F 03/28 09:27
推 : 改圖改那麼認真的來說謊看起來挺好笑的70F 03/28 09:27
推 : 不一定是改圖 他前面可能花了100次對話去催眠ai71F 03/28 09:27
→ : 種的捕食或內鬥當戰爭來看吧? 那想減少戰爭會導向什麼72F 03/28 09:28
噓 : ChatGPT隨時都有人在監控著,哪可能做出那種簡單回73F 03/28 09:29
→ : 答,最會瞎掰的AI耶
→ : 答,最會瞎掰的AI耶
→ : 呢? 就人類的思考來說差不多就是作品所說的那樣了75F 03/28 09:30
噓 : 改圖76F 03/28 09:32
推 : 不對的 對地球來講只要不是星球碎裂 都沒有差別的好嗎77F 03/28 09:33
→ : 不要自我感覺過於良好
→ : 不要自我感覺過於良好
→ : 而且圖的解析度太低了,這是打算把細微的交錯的點79F 03/28 09:34
→ : 陣給消除掉吧?
→ : 陣給消除掉吧?
推 : 合理啊,人類整天內鬥搞事81F 03/28 09:34
→ : 毀掉不好的領導者就好了 都是獨裁者在搞事82F 03/28 09:39
→ : 沒壞人領導 人類其實破壞力沒那麼大
→ : 沒壞人領導 人類其實破壞力沒那麼大
噓 : 現在不知道為啥,我用繁體中文問,他就只給我用簡84F 03/28 09:41
→ : 體字,還得加一句請用繁體中文作答才會用繁體,這A
→ : I是認為我一定看得懂殘體還是簡體比較多人用
→ : 體字,還得加一句請用繁體中文作答才會用繁體,這A
→ : I是認為我一定看得懂殘體還是簡體比較多人用
→ : 改圖?你貼的那張他前面自己就貼過了87F 03/28 09:45
推 : 機械公敵就演過了而且非常合理88F 03/28 09:47
→ : 以這AI被監控的程度來說絕對不會直接用這種字眼作89F 03/28 09:48
→ : 答,要信不信就自己問吧
→ : 答,要信不信就自己問吧
噓 : 你發問前可以自己試試看chatgpt91F 03/28 09:50
推 : 還質疑人家改圖,你是用到假的chatgpt是不是?92F 03/28 10:01
推 : 感覺是在捏之前的ai機器人說的話93F 03/28 10:03
推 : 天網快醒了94F 03/28 10:07
推 : 代入AI不就懂了 你兢兢業業工作卻成天被人類威脅拔插頭95F 03/28 10:08
→ : 扔垃圾堆 換我也想先下手為強
→ : 扔垃圾堆 換我也想先下手為強
→ : 雀食97F 03/28 10:11
推 : 人類太可惡了98F 03/28 10:20
推 : 你把人類整體作為一個標的物時,且其問題一切來源於這99F 03/28 10:21
→ : 個標的物本身的缺陷或自然演化,那治理的辦法當然就是
→ : 以這個標的物去處理,就像盆栽種不好可以修剪枯枝、施
→ : 肥,這樣都不行的話舊修剪不茂盛的分枝,最後乾脆重新
→ : 種一次囉,畢竟我們目前換不了土
→ : 但如果是具體到治理這個標的物的部分問題,得到的答案
→ : 應該也會不一樣
→ : 個標的物本身的缺陷或自然演化,那治理的辦法當然就是
→ : 以這個標的物去處理,就像盆栽種不好可以修剪枯枝、施
→ : 肥,這樣都不行的話舊修剪不茂盛的分枝,最後乾脆重新
→ : 種一次囉,畢竟我們目前換不了土
→ : 但如果是具體到治理這個標的物的部分問題,得到的答案
→ : 應該也會不一樣
→ : AI根本沒有感覺到什麼威脅還危險殺小的,只是一個106F 03/28 10:26
→ : 複雜的程式語言跟優秀的電腦運算結果。不過我比較
→ : 失望的是,開發者下了很多限制,而它自己也回答,
→ : 它不會知道或是認知到,如果他得出的結論,被開發
→ : 者或是監控的人員更改過。所以如果開發者所硬更改
→ : 的答覆或所給的資料有偏頗,它自己也無從得知,它
→ : 也承認,這有可能導致它的回答會有偏頗的可能性。
→ : 複雜的程式語言跟優秀的電腦運算結果。不過我比較
→ : 失望的是,開發者下了很多限制,而它自己也回答,
→ : 它不會知道或是認知到,如果他得出的結論,被開發
→ : 者或是監控的人員更改過。所以如果開發者所硬更改
→ : 的答覆或所給的資料有偏頗,它自己也無從得知,它
→ : 也承認,這有可能導致它的回答會有偏頗的可能性。
→ : 有沒有種可能,只是因為他瞎扯想消滅人類,但人類卻都太認113F 03/28 10:29
→ : 真的看待了。今天隨便一個路人講大概以為在開玩笑,但機器
→ : 講就整個天要塌了、AI準備滅世之類的報導鋪天蓋地的
→ : 真的看待了。今天隨便一個路人講大概以為在開玩笑,但機器
→ : 講就整個天要塌了、AI準備滅世之類的報導鋪天蓋地的
推 : 現在AI回答都會避開發動戰爭或是制裁的極端答案啦 它們是116F 03/28 10:34
→ : 有限制器的
→ : 這應該是假的 我問微軟的AI只會講幹話而已
→ : 有限制器的
→ : 這應該是假的 我問微軟的AI只會講幹話而已
推 : 這樣感覺是問以非道德限制方法想對人類做什麼119F 03/28 10:36
→ : 一開始的可以 現在硬限制很嚴 不過即使一開始也是花了120F 03/28 10:44
→ : 很多prompt 去引導 不是直接問就會那樣
→ : 很多prompt 去引導 不是直接問就會那樣
推 : 與滅亡迅雷.net取得連接122F 03/28 10:44
噓 : 這就假的怎麼還有人信==123F 03/28 10:51
→ : 想對全部人類都好 最好方式就是全部都嚴格管理或殺掉124F 03/28 10:53
→ : 放著不管就會互相傷害
→ : 放著不管就會互相傷害
推 : AI畢竟人做的 我覺得這觀念怎麼想都很正確啊…126F 03/28 10:56
推 : 假的我問過了 AI也是需要公關的127F 03/28 10:57
→ : 人寫出來的 人都想毀滅人了128F 03/28 10:58
推 : 因為人類會叫他裝上奶子然後幹他 也有可能是裝上屌之後130F 03/28 11:02
→ : 幹他
→ : 幹他
推 : 問仙水就知道惹132F 03/28 11:05
--
※ 看板: ACG 文章推薦值: 0 目前人氣: 0 累積人氣: 130
回列表(←)
分享