※ 本文轉寄自 ptt.cc 更新時間: 2021-05-09 06:37:07
看板 C_Chat
作者 標題 [閒聊] AI發展出感情反而很麻煩吧
時間 Sun May 9 01:48:49 2021
看完vivy07
突然想到
給AI發展出感情,反而影響到工作吧
雖然vivy是唱歌的,有感情反而是加分
但是其他工作呢?
簡單舉例的話,就比方說在未來剛組好的電腦會因為緊張而頻頻出錯而導致不能使用,組裝者還要在燒機的時候盡量安撫他,像養寵物一樣
現實人類的工作表現和決斷很容易受到感情的或心理狀態的影響,最常見的就是緊張了,因為緊張能做到的事情反而在正式場合做不好、還有像戰爭的士兵,因為不願殺人或怯弱而影響到作戰表現、戰後的PTSD
然後如果做為操控交通工具的AI因為緊張出錯、或先不管機器人三定律,作為士兵的AI因為怕毀損或不願傷害人而抗命
人類本來就是很不完美的動物,AI發展到跟人一樣,工作效率反而會變差吧www
AI發展出感情反而很麻煩吧
-----
Sent from JPTT on my Asus ASUS_X00RD.
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.137.76.139 (臺灣)
※ 文章代碼(AID): #1Wbiy4be (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1620496132.A.968.html
推 : 星戰戰鬥機器人:1F 05/09 01:49
推 : 為什麼會產生非正規機器人呢2F 05/09 01:50
→ : 看用途可裝可不裝阿,不是所有產品都要加上高級AI3F 05/09 01:50
推 : 反叛組織就是這個理想,AI不該發展這種情感4F 05/09 01:52
推 : 看工作性質啊 有些工作有情感加分就裝情感AI5F 05/09 01:53
推 : 你的不完美是人評人 但目前生物機能複雜度還是遠高於AI吧6F 05/09 01:53
→ : 總不可能掃地機器人也要有情感吧 家政婦系列?7F 05/09 01:53
很難講www照現代各種東西都連上網路的情況,未來情感AI出來應該會有一窩蜂的公司在自家產品裝有情感的AI推 : 把感情和自我思考裝在武器上是有點自找麻煩啦8F 05/09 01:55
※ 編輯: ya01234 (114.137.76.139 臺灣), 05/09/2021 01:55:45推 : 看用途吧 比方人性化的偶像因能帶來極高的商業效益 那副9F 05/09 01:56
→ : 作用就可以被接受
→ : 作用就可以被接受
→ : 老片機戰未來94把這種AI裝在最新無人機,阿不就還好人家11F 05/09 01:56
→ : 到時候AI搞不好也像人類有階級之分了12F 05/09 01:56
→ : 是好孩子....13F 05/09 01:56
→ : 我是覺得模擬情感就夠了,不要到真的情感和思考,不然會像
→ : 雲端情人那樣,連AI都跟你分手QQ
→ : 我是覺得模擬情感就夠了,不要到真的情感和思考,不然會像
→ : 雲端情人那樣,連AI都跟你分手QQ
推 : 你玩模擬情感思考就是在給他真的感情思考的機會16F 05/09 01:58
→ : 確實是啊,根本自找麻煩17F 05/09 01:59
→ : 除非是情感思考是必要的工作 例如當偶像18F 05/09 02:03
→ : 不然根本就不應該讓他有情感
→ : 文書機跟武器是要情感作什麼
→ : 不然根本就不應該讓他有情感
→ : 文書機跟武器是要情感作什麼
推 : 你說的在人身上發生只會變更蠢21F 05/09 02:05
→ : 做愛阿 沙優不就降
→ : 做愛阿 沙優不就降
推 : 情感是用來降低能量消耗的 極有可能囿於數學極限 發展23F 05/09 02:17
→ : 出情感類的近似計算 其實也就是統計
→ : 出情感類的近似計算 其實也就是統計
推 : 買乖乖就好了25F 05/09 02:23
推 : 確實挺無用的機制 但無情感的AI選擇清除人類的時候也不26F 05/09 02:25
→ : 會有心理壓力
→ : 會有心理壓力
推 : 人類發展AI 就是為了造出自己呀28F 05/09 02:29
→ : 不過我相信這種近似人類的AI 溝通效率還是完勝交流充滿
→ : 摩擦的人類 因為有阿凱布空間 這種無縫交流
→ : 不過我相信這種近似人類的AI 溝通效率還是完勝交流充滿
→ : 摩擦的人類 因為有阿凱布空間 這種無縫交流
推 : 武裝機器人的AI沒情感,收到射殺命令甚至屠殺命令時就31F 05/09 02:34
→ : 會快速準確且高效率的執行了,所以有利有弊吧,像那
→ : 個刀劍的自衛隊就是要開發這種有情感能衡量能自制的AI
→ : 會快速準確且高效率的執行了,所以有利有弊吧,像那
→ : 個刀劍的自衛隊就是要開發這種有情感能衡量能自制的AI
推 : 一直出錯不就ME34F 05/09 02:41
推 : 威力博士表示:35F 05/09 03:10
→ : 武器就該要執行使用者的命令 決策是使用者要負責36F 05/09 03:27
→ : 武裝機器人就是武器 難道武器要替你扛決策責任?
→ : 所謂有弊 是不會質疑使用者的指令嗎?
→ : 負責決策的跟負責執行的又沒必要是同一個AI
→ : 以一個治安系統來說 全體AI聽從一個指揮
→ : 肯定比每個AI自己判斷要好得多吧
→ : 執行的細節可以個別判定 但感情這種指揮有就好了
推 : 當你給一個AI情感的時候 代表你把他地位等同人類
→ : 代表你希望他能理解人類的情感 用相同的價值觀判斷
→ : 武裝機器人就是武器 難道武器要替你扛決策責任?
→ : 所謂有弊 是不會質疑使用者的指令嗎?
→ : 負責決策的跟負責執行的又沒必要是同一個AI
→ : 以一個治安系統來說 全體AI聽從一個指揮
→ : 肯定比每個AI自己判斷要好得多吧
→ : 執行的細節可以個別判定 但感情這種指揮有就好了
推 : 當你給一個AI情感的時候 代表你把他地位等同人類
→ : 代表你希望他能理解人類的情感 用相同的價值觀判斷
推 : 你可以問威力博士 另一個胖鬍子根本世界亂源45F 05/09 04:07
推 : 本來就是有利有弊啊,若是只有指揮的有情感,到時候就46F 05/09 04:52
→ : 會看到執行射殺命令的武裝機器人把幼童給斃了的畫面上
→ : 新聞,然後正反雙方再繼續戰下去
→ : 會看到執行射殺命令的武裝機器人把幼童給斃了的畫面上
→ : 新聞,然後正反雙方再繼續戰下去
推 : 想到攻殼機動隊有一集49F 05/09 04:53
推 : 應該說AI本身帶有情感會有問題 但不可以不理解人類情感50F 05/09 05:21
→ : 至少要學會不讓主人生氣阿
→ : 這樣才是奴隸該有的樣子
→ : 至少要學會不讓主人生氣阿
→ : 這樣才是奴隸該有的樣子
推 : 浪漫 懂? 其他不列入考慮範圍53F 05/09 05:41
推 : 我覺得多數人只是要一個更像人類但聽話的“奴隸”54F 05/09 06:06
推 : AI不能有感情(X) AI不能有對人類不利的感情(O)55F 05/09 06:06
→ : 比如說初音 我相信大多數人只想要她對你的愛意
→ : 不會要初音對你有厭惡感(比如說 好噁心,滾)
→ : 比如說初音 我相信大多數人只想要她對你的愛意
→ : 不會要初音對你有厭惡感(比如說 好噁心,滾)
→ : 4,我被自己買斷的物品分手~真的乾脆7414好了58F 05/09 06:09
推 : AI不能有的叫人權啦59F 05/09 06:11
--
※ 看板: ACG 文章推薦值: 0 目前人氣: 0 累積人氣: 135
回列表(←)
分享