看板 Stock作者 xa9277178 (楓曦)標題 Re: [新聞] ChatGPT的「幻覺」根本無法解時間 Thu Aug 10 10:25:36 2023
※ 引述《breeze0817 ()》之銘言:
: 原文標題:
: 技術專家:ChatGPT的「幻覺」根本無法解決
: 原文連結:
: https://reurl.cc/N0KRy6
: 發布時間:
: 2023/08/09 15:58
: 記者署名:
: 鉅亨網新聞中心
: 原文內容:
: 掀起 AI 浪潮的 ChatGPT 儘管可以協助解決很多事情,但也因為會產生虛假的訊息,或
: 誤導性的內容,產生「人工智慧幻覺」(hallucinations) 而飽受批評,專家認為這種「
: 幻覺」受到技術與需求之間的限制,根本無法被解決。
: 財富網中文網報導,與 ChatGPT 或其他 AI 聊天機器人相處足夠長的時間,很快就會發
: 現它們有時會「編造答案」,這種現象被稱為「幻覺」,即機器人做出的捏造或純粹的編
: 造,對於那些試圖讓 AI 系統編寫文檔並完成工作的企業、組織甚至學生,這是一個致命
: 的問題。
: 聊天機器人 Claude 2 的製造商 Anthropic 共同創始人 Daniela Amodei 認為,現在沒
: 有任何一種模型能夠完全避免產生幻覺,因為它們的設計初衷只是用來預測下一個單詞,
: 因此模型肯定會有一定的錯誤率。
: 包括 ChatGPT 的製造商 OpenAI、Anthropic 及其他大型語言模型的 AI 系統主要開發者
: 都表示,他們正努力讓這些系統變得更準確,但目前尚不清楚需要多長時間才能達到足夠
: 的可靠性。
: 不過,華盛頓大學計算語言學實驗室的主任、語言學教授 Emily Bender 認為,「這個問
: 題無法完全解決,因為技術與實際需求之間存在固有的不匹配。」
: Google 已向新聞機構推銷一款新聞寫作 AI 產品,而作為與 OpenAI 合作的一部分,美
: 聯社也在探索使用這項技術,而 OpenAI 正在付費使用美聯社的部分存檔文本來改進其 A
: I 係統。因此,生成式 AI 的可靠性至關重要,麥肯錫全球研究院(McKinsey)預計,這
: 將為全球經濟帶來相當於 2.6 兆至 4.4 兆美元的收入。
: 心得/評論:
: chatGPT訪問量一再下滑
: 一窩蜂投資ai伺服器去訓練語言模型的
: 越來越有元宇宙的fu糗了
: 散戶:這次不一樣!!
純論AI的話 這個問題是一定可以被解決的
討論chatGPT肯定是無解 頂多提升準確度 提升到你認知不到「錯覺」
我自己是覺得用錯覺這個詞來闡述這個問題 好像滿奇怪的
簡單思考一下就知道了
假設AI是個人 他肯定會有他自己的認知
他的認知來自於他的資料庫
但誰能保證資料庫裡面的資料100%是對的?
畢竟資料庫的資料也是人為產出,或是他的開發者灌入的
最終都會限縮於:「什麼是對的」的這個命題
並且有一個很弔詭的事情是這樣的
「你憑什麼認為AI給出的答案是錯的,便稱作幻覺,難道就是基於人類的共同認知嗎?」
這個東西討論到後面就變成哲學問題了,所以不贅述。
但核心概念是這樣
一個人,老師,教授,都會有認知錯誤,都會出錯,為什麼人工智能不會
基於什麼樣的原因,你覺得他能掌握100%的真理,這樣想想不就知道了
但是基於網速科技提升,資料處理能力加強,程序優化肯定能再進步
回歸前面所說的,只要把AI的範圍侷限性拉大,就能提升正確率阿
比如你設定這個AI就叫做金融投資機器人,甚至叫做台灣金融投資機器人
並且串聯所有台灣銀行、投資平台、各大當鋪的內部資料
那肯定是強的沒話說。
你期待一個AI機器人,能貫通世界上所有領域的事情,給你都是正確的答案
那肯定是不切實際。
更何況一定一堆人是這樣:「請給我一個完美的python程序。」
「幹,你這個根本不完美」
你自己都定義不出來,都不知道什麼叫做完美了,AI怎麼可能會知道
你怎麼連話都說不清楚~
我自己是覺得AI很神啦,沒有戰文組的意思,但對於邏輯思考,表述能力不好的人來說
可能不好用
我在某平台上面,買了好幾次程式課,每次都沒有耐心看完,把作業做完。
chatgpt用了兩三天,已經弄出了兩個簡單的小程式,改善我工作上面的需求
平心而論,我就算認真把課程都上完,自己寫,寫個1個月,大概都弄不出來。
AI最強大的,就是他給你的資訊裡面,是有一定程度的正確率的,
你本來就要能分辨,什麼東西對你有用,然後再引導他幫助你,給出更多有用的資訊,
最後幫助你完成你的目標。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 220.136.194.220 (臺灣)
※ 作者: xa9277178 2023-08-10 10:25:36
※ 文章代碼(AID): #1ar4gZ_5 (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1691634339.A.FC5.html
※ 同主題文章:
Re: [新聞] ChatGPT的「幻覺」根本無法解
08-10 10:25 xa9277178
我舉個簡單的例子給你聽
我們弄個AI加法機器人,並且只接受0~3,4個數字
那麼這個機器人的正確率 就是100%
※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:28:41
→ y2468101216: 比如日本二戰被兩顆原子彈轟炸,他會有機率說錯
回歸到程式面的話,簡單的程式也會幻覺。
比如一個程式函數只接受一個參數,他會寫兩個2F 08/10 10:27
推 Isopod: 你是不是不知道它幻覺產生的內容是什麼?有一些根本錯誤的離譜。而且當你跟他要參考資料時,好一點會跟你說它理解錯了。可怕一點的會生成不存在的參考資料出來
他根本不是只參考資料庫給答案,是給出根本不在資料庫中自己幻想的答案5F 08/10 10:29
承上述加法機器人的例子
你key了4和5進去,他會告訴你9
但也有可能,你key柯+大麻進去,他會回答你無罪
所以就看你有沒有要賦予他「創造」的能力
你要說他的思辨結果是不對的,一樣是看後面的演算法怎麼設定的
※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:33:37
推 strlen: 生成不存在的東西 這個人類最拿手的勒 打開電視隨便11F 08/10 10:32
推 shawkwei: 4909新復興營收月增跟年增都100%12F 08/10 10:32
→ strlen: 轉一間新聞台都是生成不存在的東西R XD13F 08/10 10:33
推 Isopod: 我覺得你要先把你的程式課上好,再來討論耶QQ14F 08/10 10:34
你就 去用 加法機器人就好了嘛 是不是肯定不會錯
→ strlen: 股板一堆財經新聞 你能分辨哪些是真哪些是假嗎 嘻嘻15F 08/10 10:34
推 kkithh: 敎授那等級的人會知道他講的話是不是準確,就算表面堅持是準確但內心會有底,但AI目前根本無法判斷自己講的內容是否準確16F 08/10 10:35
→ strlen: 齁齁 所以你就能判斷你眼前看到每件資訊都為真嗎XD19F 08/10 10:35
→ kkithh: 所以你會看到它一本正經在講幹話20F 08/10 10:36
範圍縮限就能解決這個問題
因為chatgpt目前的設定範圍,是無限
→ IBIZA: 會說是幻覺, 就是因為這些不是資料生成21F 08/10 10:36
→ kkithh: 我會知道我不確定阿,知道差別嗎?22F 08/10 10:36
→ strlen: 每天晚上隨便打開一台政論節目 不也都在講幹話
收視率還高到要命 大家愛看得要死 XDDDDD23F 08/10 10:36
→ IBIZA: 比方說 他叫他寫程式, 他會丟給一個不存在的套件
一本正經的用這個套件開發程式碼25F 08/10 10:37
※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:38:18
→ IBIZA: 這已經不是錯不錯的問題27F 08/10 10:37
→ strlen: 你跟不同信仰跟政治的人說話 感覺根本想平行宇宙
怎麼 判斷你的說法是正確 他的說法是錯誤?28F 08/10 10:38
→ IBIZA: 你先了解一下為什麼會用「幻覺」來形容30F 08/10 10:38
我理解會什麼叫做幻覺 也理解錯誤和無中生有的差距
但只是因為他對於人類共同認知的答案 在不熟悉的環境下 有不精準的回答
這個回答來自於他的資料庫不夠精準 也來自於他的程式設計有問題
你要解決所謂幻覺 暴力破解法就是載入所有的問題和答案
但極端例子來說 11111111111111111111111111+1111111111111111111111111111
他可能就回答不了你了
→ z7956234: 大型網頁版siri,一樣撈資料回答一樣會出錯,都一樣。31F 08/10 10:39
→ strlen: 要捏造一個不存在的東西 這個人類更拿手 而且生活中33F 08/10 10:39
※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:41:15
→ IBIZA: 人類也會有類似的錯覺, 例如曼德拉效應之類的34F 08/10 10:39
噓 Isopod: 設定的範圍怎麼會是無限,就是餵給他的資料而已。雖然龐大但不是無限。35F 08/10 10:39
據我所知 ghatgpt並沒有縮限 可以問他什麼問題 頂多犯法類型的東西
他會告訴你不能回答 而不是他不會回答
→ strlen: 這種案例比你想像中的還要多 你用google搜也不一定正確 一堆內容農場東拼西湊 wiki也是亂寫一通37F 08/10 10:39
推 yuzulee: 推文都滿溫和的耶...39F 08/10 10:39
→ Isopod: 文章嘴文組,結果自己對於AI的理解也是幻想40F 08/10 10:39
→ twistfist: 老師教授可以直接說這我也不確定,ai 會不懂裝懂41F 08/10 10:40
→ strlen: 正確性這種東西 人類自己都沒辦法保證了 還要求才剛有點小發展的AI43F 08/10 10:40
→ IBIZA: 幻覺跟正確性不完全是同一個議題45F 08/10 10:40
→ Isopod: 那個str也在亂扯,就是知道瞎掰不對,所以才希望AI不要瞎掰。46F 08/10 10:40
→ IBIZA: 政論節目的幹話 大多數還是在有所本的基礎上扭曲48F 08/10 10:41
※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:42:05
→ strlen: 問題在於 你怎麼定義瞎掰?49F 08/10 10:41
→ IBIZA: 事實來的 AI的幻覺就不知道哪來的50F 08/10 10:41
→ Isopod: 他可以根據資料庫理解錯誤,這是可以修正的。但是瞎掰不存在於資料庫的東西,這個就是現在的問題52F 08/10 10:41
→ strlen: 你先定義瞎掰是什麼 我們再來談瞎掰對不對嘛 合理阿我就說即使你用google 上面一堆東西也都瞎掰54F 08/10 10:41
→ IBIZA: 我想我前面已經對於AI幻覺有很清楚地描述56F 08/10 10:42
推 stosto: Ai 大部分都是最佳近似解….到底要怎麼不講幹話57F 08/10 10:42
→ strlen: 但google搜尋就沒用了嗎?你打開電視上面一堆假新聞58F 08/10 10:42
→ IBIZA: 瞎掰的範疇很大 有所本跟無所本 是兩回事
瞎掰的範疇很大 有所本跟無所本 是兩回事59F 08/10 10:42
→ strlen: 那新聞就通通可以關一關了是嗎61F 08/10 10:42
→ Isopod: 是呀 就是因為有不懂裝懂的人自己胡扯呀62F 08/10 10:43
→ stosto: 一堆幹話連人類都講不出來63F 08/10 10:43
→ IBIZA: 假新聞也是 在有所本的新聞上亂寫 跟 報導一則完全虛構的新聞是兩回事64F 08/10 10:43
這是哲學問題
因為你覺得他無所本
他認為他有所本
說到底 就是程式問題 一樣是範圍設定的問題
只要能限縮知識範圍的框架 這個問題一定會減少很多
幻覺來自於 創造力 基本的程式都有一定的創造力 AI只是更人性化
讓你覺得他有幻覺而已
→ strlen: AI的瞎掰當然也是有所本啊 它的模式跟人一模一樣66F 08/10 10:43
※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:45:03
→ IBIZA: 就跟你說 AI幻覺 是無所本67F 08/10 10:43
噓 aynmeow5566: 問題是無中生有捏造資料 為了湊答案捏造論文出處 要他驗算等號左邊明顯不等於右邊還能說是相等的 快點解決啦68F 08/10 10:43
→ strlen: 人要瞎掰 不就是東拼西湊 假新聞和政論名嘴也是71F 08/10 10:43
→ SiFox: 瞎掰扯謊憑空幻覺,只要有0.001%的可能,AI就玩完72F 08/10 10:43
→ IBIZA: 我前面舉的例子你看了嗎
我前面舉的例子你看了嗎73F 08/10 10:43
→ strlen: 一本正經瞎掰 你去看看LBJ嘛 收視多好 資訊都正確嗎75F 08/10 10:44
→ stosto: Ai核心都是資料集小辦法去生成一個f(x), 你就算帶入一個從未出現的x大部分也都可以得到一個y76F 08/10 10:44
→ Isopod: 沒有人說AI沒有用,只是在討論他瞎掰的問題有點嚴重。就像google出來的東西,很多也是垃圾,所以才要使用者才要自己找方法判讀。但AI目前沒有辦法找方法判讀自己輸出的資料是不是瞎掰的。這樣你懂嗎78F 08/10 10:44
我一直都知道這個事情哦 所以我也只是說 這個問題不需要討論
因為他本身就是必然的
→ stosto: 這個y扯不扯是另外一回事,幻覺就是這個y82F 08/10 10:45
→ SiFox: 政客扯謊帶來多少美好崇景,謊言搓破帶來多少痛苦83F 08/10 10:45
推 ckp4131025: AI會自創api很正常啊,因為人類也會
咁,這個api沒有嗎,我以為會有84F 08/10 10:45
→ SiFox: 人類有政客就夠了,不需要AI來自尋煩惱甚至帶來毀滅86F 08/10 10:45
→ stosto: 一堆人不懂演算法在那邊扯幻覺87F 08/10 10:45
→ IBIZA: 對 人類也會無中生有 但目前無法理解為什麼AI會
而且無法解決 所以只好縮限AI回答能力88F 08/10 10:45
→ stosto: 就不是無中生有,而是帶入一個x以他建造出來的模型就是會丟出一個y給妳90F 08/10 10:46
※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:47:08
推 deadair: 我問他變形記他跟我講悲慘世界 整個不知道在幹嘛XD92F 08/10 10:47
這個我覺得你有在扯 你應該是前後文沒有定義清楚 他在回答你前面的東西吧
→ IBIZA: 曼德拉效應我不知道大家知不知道93F 08/10 10:47
※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:48:11
推 Isopod: 不在資料集裡的y就是我們在討論的幻覺啦,自己說從資料集生成,啊生成資料集以外的結果怎麼說?94F 08/10 10:47
→ stosto: 給你兩組x,y 讓你求一元一方程式,非資料集內的x帶入後就是會幫你算出y96F 08/10 10:48
推 strlen: 反駁不了我就惱羞喔 XD
事實是 我們的現實本來就被巨大的假資訊包圍98F 08/10 10:48
推 kyo55966: 我因為有在釣魚,曾經問過一些氣象紀錄,比如某地歷史最高溫、日出時間、滿潮時間,而這些理論上都能查到正確的紀錄,潮汐懂規律也可以推算,可是gpt常常給我最新2023的數據,我問資料庫不是只有到2021 ?他就回對不起,2023不是紀錄不是推算,完全是瞎掰…那會不會過去某一年其實也是瞎掰?問紀錄查不到不是留白而是欺騙,這不是政治立場或人也會說謊的問題,期待AI對這類基礎的問題回答正確且誠實應該不算太高要求404F 08/10 15:43
推 kilhi: AI幻覺是網軍問題 看看民進黨操作413F 08/10 16:10
--