作者 hvariables (Speculative Male)標題 [新聞] 黃仁勳質疑AI當前信賴度 提醒「幻覺」問題時間 Mon Nov 25 21:54:09 2024
https://ec.ltn.com.tw/article/breakingnews/4874587
黃仁勳質疑AI當前信賴度 提醒「幻覺」問題
2024/11/25 17:24
https://img.ltn.com.tw/Upload/business/page/800/2024/11/25/phpeOZp3r.jpg
輝達執行長黃仁勳在香港科技大學接受採訪時對人工智慧(AI)的現狀表示懷疑,他稱還
須數年時間才能擁有可信任的AI系統。(彭博)
吳孟峰/核稿編輯
〔財經頻道/綜合報導〕輝達執行長黃仁勳在香港科技大學接受採訪時對人工智慧(AI)
的現狀表示懷疑,他稱我們還須數年的時間才能擁有可信任的AI系統。
黃仁勳表示,今天的人工智慧並不總是可給出可靠答案,我們可能還需要幾年時間,才能
擁有一個可以在很大程度上信任的人工智慧系統。他說:「與此同時,我們必須不斷增加
我們的運算能力」。
黃仁勳也強調人工智慧中的「幻覺」(hallucination)問題。他稱,使用者不應該質疑
人工智慧的反應是「幻覺還是非幻覺」、「明智還是不明智」。他用「幻覺」來指涉人工
智慧給予虛假或虛構訊息的情況。
對於ChatGPT等高階語言模型來說,這一直是一個主要問題,儘管它們在過去幾年中,在
回應複雜查詢能力取得令人難以置信的進展。
OpenAI因人工智慧「幻覺」而面臨法律訴訟,人工智慧的幻覺問題已經引發法律糾紛。去
年,一名電台主持人在其ChatGPT模型對他提出虛假法律投訴後,該名媒體人起訴OpenAI
。這事件凸顯人工智慧缺陷對現實世界的影響,以及科技公司在使其可靠方面遇到的困難
。
黃仁勳也質疑,在為特定任務開發人工智慧模型之前在大型、多樣化的資料集上進行預訓
練的有效性。他認為這種方法不足以創造可靠的人工智慧系統。
黃仁勳的評論凸顯科技業正進行的關於如何改進大型語言模型(LLM),而不僅僅依賴大
量數據的爭論。
--
佛沒說小乘和大乘 上座部佛教馬哈希尊者具戒經講記拆穿假佛教大乘妙法蓮華經的騙局
上座部佛教明昆《南傳菩薩道》是真釋迦牟尼佛的菩薩成佛之道 大乘是
假菩薩成佛之道
妙法蓮華經 華嚴經 心經 金剛經 楞伽經 梵網經菩薩戒 圓覺經 楞嚴經 是 大乘假佛經
阿彌陀佛 藥師佛 是 大乘假佛 觀世音 文殊 普賢 維摩詰 龍樹 地藏王 是 大乘假菩薩
https://www.ptt.cc/bbs/soul/M.1523979060.A.68C.html
上座部佛教目犍連子帝須和那先破偽經大乘十方諸佛
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 61.230.148.208 (臺灣)
※ 作者: hvariables 2024-11-25 21:54:09
※ 文章代碼(AID): #1dH8659x (Tech_Job)
※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1732542853.A.27B.html
推 strlen: 你各位就是算力不夠才出現幻覺 買起來買起來2F 11/25 22:46
→ yunf: 做鏟子的就乖乖做鏟子不要管人家鏟子怎麼用這樣才不會得罪那些財團3F 11/25 23:02
推 orzmaster: 你的AI只會講幹話,那一定是算力不夠6F 11/26 00:35
推 miku5566: NV暴跌 是因為老闆在講幹話?7F 11/26 01:27
大型語言模型 - 維基百科,自由的百科全書
大語言模型(英語:large language model,LLM)是一種語言模型,由具有許多參數(通常數十億個權重或更多)的人工神經網絡組成,使用自監督學習或半監督學習對大量未標記文本進行訓練[1]。大語言模型在2018年左右出現,並在各種任務中表現出色[2]。
大型語言模型 - 維基百科,自由的百科全書
大語言模型(英語:large language model,LLM)是一種語言模型,由具有許多參數(通常數十億個權重或更多)的人工神經網絡組成,使用自監督學習或半監督學習對大量未標記文本進行訓練[1]。大語言模型在2018年左右出現,並在各種任務中表現出色[2]。
→ yunf: 就是所有用到LLM的都要好好管管
如果我沒猜錯對岸那邊應該生出什麼怪獸是兩個整併的現在鏟子沒人做的贏nv大家都做軟
軟體可以設計成天馬行空硬體不可能跟得上
對岸可能做出了什麼才會讓老黃感到危機感
百度,阿里雲,騰訊,華為,科大訊飛,商湯,百川,抖音,清華智譜 這些緊追在後
如果他們的力量全部連在一起會變成怎樣?
或許這就是IBM為什麼要撤出的原因
下次他可能直接推出一個快你超級電腦總和100倍的
正在看CSAC
Fundamentally better
出這招就用在元宇宙有用
如果期貨交易在元宇宙裡面進行會發生什麼事?
只有元宇宙裡面才有辦法快轉時光吧
https://tinyurl.com/257o4mgu
https://tinyurl.com/22hfu66w 大概像這樣12F 11/26 02:00
→ yunf: 你能想像有一天大家都接上母體的感覺嗎?
不過增加幻覺某方面也是種好事讓那天不會那麼快來如果我沒猜錯的話阿凡達和侏儸紀公園都有在做
如果哪天擔仔麵從世界上消失剩下麥當勞
你從另一個時空偷擔仔麵的做法回到未來
可能還會被時空管理局抓到
文化被侵蝕才是比較早會遇到的問題29F 11/26 02:30
推 jobintan: AI之所以就有幻覺,那是因為你們現在的鏟子以經不夠力了,我現在有最新的鏟子,保證夠力,要買趁快吶。36F 11/26 07:05
推 yiche: 很真實LLM只負責接龍,根本沒有能力負擔正確性所以有幻覺,期待研究人員開發更新的演算法38F 11/26 07:42
推 tinoooii: 真AI給出自己靠智慧生成的答案,你要怎麼知道是不是幻覺?
假AI給出早就存在無需智慧的答案,你Google 後覆驗反而更容易相信~40F 11/26 08:20
→ DrTech: 人都不能解決的問題,網路上,或ptt都一堆錯誤或幻覺資訊了。一堆人都難以分辨。AI只會更慘。LLM本來就不是在生成事實。44F 11/26 08:48
→ Ron51320: 慘的是網路假消息一堆,AI也不能明辨全都吃當大補帖吃47F 11/26 08:53
推 motan: 你需要更多鏟子50F 11/26 12:10
推 yudofu: 賣車的叫大家開車注意安全又不表示他的車不好,因為大部分都是駕駛的問題。51F 11/26 12:21
噓 alvinlin: 不然你發明另一個信賴度高的53F 11/26 12:36
--