顯示廣告
隱藏 ✕
※ 本文為 MindOcean 轉寄自 ptt.cc 更新時間: 2022-12-13 22:53:13
看板 Gossiping
作者 yoyostar1990 (~Yoyo~)
標題 [新聞] ChatGPT錯稱「27不能被3整除」
時間 Tue Dec 13 19:16:52 2022


備註請放最後面 違者新聞文章刪除

1.媒體來源:
※ 例如蘋果日報、自由時報(請參考版規下方的核准媒體名單)
※ Yahoo、MSN、LINE等非直接官方新聞連結不被允許
ettoday

2.記者署名:
※ 若新聞沒有記者名字或編輯名字,請勿張貼,否則會被水桶14天
※ 外電至少要有來源或編輯 如:法新社
葉睿涵

3.完整新聞標題:
※ 標題沒有完整寫出來 ---> 依照板規刪除文章

ChatGPT錯稱「27不能被3整除」 網友打臉:AI不是要統治世界?


4.完整新聞內文:
※ 社論特稿都不能貼!違者刪除(政治類水桶3個月),貼廣告也會被刪除喔!可詳看版規

世界首富馬斯克( Elon Musk)入股的矽谷科技公司OpenAI,新推出新型聊天機器人ChatGPT,一時間火爆全球,不到一周就吸引了百萬用戶使用。ChatGPT不僅能針對使用者問題給予相應答覆,還會寫程式、論文、文學作品等,因此有人推測,AI按此發展模式恐將統治世界。不過最近中國有網友卻驚訝發現,ChatGPT居然連簡單的數學題都搞錯,不僅表示27不能被3整除,甚至還聲稱27是個質數,讓網友笑道,「AI不是要統治世界嗎?」

最近,中國一段名為「網友調教這隻AI」的聊天紀錄在網上瘋傳,從截圖可見,ChatGPT一開始在回答網友的提問時表示,27是一個質數,它只能被1和它本身整除,不能被其他自然數整除,引發網友質疑。於是,網友追問道,「27不能被3整除嗎」,而ChatGPT也給出了肯定的答案。它提到,27除以3的商是9.0,這是一個小數,而不是一個整數,所以27不能被3整除,讓網友非常震驚。

為了讓ChatGPT「承認錯誤」,網友不得不和它「大戰幾百回合」,最後只好搬出代碼,嘗試以Python來教導它。網友問道,「輸出Python代碼『27%3』的結果,根據這一結果,你仍然認為27無法被3整除嗎?」緊接著,ChatGPT以代碼進行運算後,得出的結果為0,最終只好承認,「根據這個結果,我們可以看出,27除以3的餘數是0。這意味著27可以被3整除。」

由於此前有網友推斷,按ChatGPT如今的表現來看,AI按此發展模式未來恐將統治世界,引發社群媒體激烈討論,不過在網友發現ChatGPT連簡單數學題都做錯後,不禁打趣表示,「AI不是要統治世界了嗎?怎麼會輸給一道簡單的數學題?」有趣的是,ChatGPT在推算出正確結果後還大方表示,「所以我錯了」,而且也有網友事後再去問ChatGPT「27是不是質數」,卻發現它的答案已經改過來,承認「27不是質數」,讓網友笑道「承認錯誤的態度良好」。

有網友分析,ChatGPT之所以會搞錯這麼簡單的數學題,是因為ChatGPT是一種專注於對話生成的新型語言模型。據BBC報導,ChatGPT是仰賴於GPT-3(Generative Pretraining Transformer 3)技術,在最初版本的基礎上通過與人類培訓師的對話微調後,讓ChatGPT可以根據用戶的輸入產生相應回覆,再透過大量現成文本的學習後,以自然語言理解和生成模擬出人類的對話方式。

不過,儘管ChatGPT號稱它可以和人類對話,但OpenAI也警告,它給出的答案有時候可能「有問題」,甚至可能表現出「帶偏見」的行為,因此OpenAI希望能透過用戶反饋,幫助ChatGPT改進該系統。另外,雖然ChatGPT無法精確進行簡單運算,不過Google工程師古德曼(Kenneth Goodman)卻表示,ChatGPT已經做好成為律師的準備,因為它在律師執業考試中的正確率高達70%,而且在美國醫師執照考試(USMLE)、紐約州今年的化學註冊考試等,準確率也同樣達到70%,表現優秀。


5.完整新聞連結 (或短網址)需放媒體原始連結,不可用轉載媒體連結:
※ 當新聞連結過長時,需提供短網址方便網友點擊
https://www.ettoday.net/news/20221213/2399889.htm
ChatGPT錯稱「27不能被3整除」 網友打臉:AI不是要統治世界? | ETtoday國際新聞 | ETtoday新聞雲
[圖]
新型聊天機器人ChatGPT不到一周就吸引了百萬用戶使用。它不僅能針對使用者問題給予相應答覆,還會寫程式、論文、文學作品等,因此有人推測,AI按此發展模式恐將統治世界。不過有網友卻發現,ChatGPT居然連簡單的數學題都搞錯,不僅表示27不能被3整除,甚至還聲稱27是個質數。(美國,北美要聞,Cha ...

 

6.備註:
※ 一個人一天只能張貼一則新聞(以天為單位),被刪或自刪也算額度內,超貼者水桶,請?
※ 備註請勿張貼三日內新聞(包含連結、標題等)
看來文組末路就是AI了

一堆人考不過的律師考 AI直接過

數學是因為沒有導入數學 讓AI自己推導

當導入數學後 可能理組也無用了


--

Sent from PTTopia

--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.239.84.2 (臺灣)
※ 文章代碼(AID): #1Zc5yhwk (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1670930219.A.EAE.html
koromo1991: 本來就不行1F 223.136.229.11 台灣 12/13 19:17
a27588679: 怕爆2F 180.177.33.135 台灣 12/13 19:18
NaouZ: 噱錢的新花樣3F 1.171.82.26 台灣 12/13 19:18
gn0111: 這也一篇4F 223.136.220.112 台灣 12/13 19:18
higameboy: 我只認阿法狗會統治世界5F 42.73.86.118 台灣 12/13 19:19
pooznn: 第一篇論文 交出去審了沒????6F 118.165.80.59 台灣 12/13 19:19
dangercat5: AI開法院管理人類7F 111.248.158.193 台灣 12/13 19:19
aggressorX: 靠北 他會承認錯誤才恐怖好不好8F 223.137.112.68 台灣 12/13 19:20
aikotoba: 偶也認為不行9F 223.138.31.159 台灣 12/13 19:20
Vladivostok: 自自冉冉都統治台灣了10F 14.161.252.26 越南 12/13 19:21
Stupidog5566: 它還以為小幸運是范曉萱的歌呢11F 180.176.215.242 台灣 12/13 19:21
dg01: 理組人考試怎麼拚也拼不贏大數據伺服Ai12F 36.234.138.204 台灣 12/13 19:21
brodf084972: 石榴煎酒,6-9不夠,借1當1013F 42.70.27.18 台灣 12/13 19:21
Stupidog5566: 現階段跟智障一樣 等被大家調教好一14F 180.176.215.242 台灣 12/13 19:21
Stupidog5566: 點再去玩
dg01: 但現在的重點不是要讓他考試滿分16F 36.234.138.204 台灣 12/13 19:22
sxbear: 繼續幫它學 沒多久就要統治世界囉17F 118.167.147.81 台灣 12/13 19:23
aftermathx: 樓上錯了 文組考試才是它最強的部分18F 223.141.11.164 台灣 12/13 19:24
aftermathx: 這個AI特色是論述邏輯條理分明 而且讀
aftermathx: 過的書是你的1萬倍
lunkk: 故意裝笨 降低人類戒心啦21F 118.166.173.149 台灣 12/13 19:27
Ncode: 教他一些錯的東西讓他永遠聰明不22F 1.174.214.3 台灣 12/13 19:31
Ceferino: 有認錯能力根本屌打民進黨23F 123.192.234.4 台灣 12/13 19:31
tom77588: 那要不要試試看64這個數字24F 114.136.171.55 台灣 12/13 19:36
gn02218236: AI有修正錯誤的能力而且學習效率是人25F 1.162.29.94 台灣 12/13 19:36
gn02218236: 類的幾千萬倍 拿個小學題目就覺得自己
gn02218236: 已經贏了的人類比較可笑
kohanchen: GPT-4好像要出了28F 101.12.47.143 台灣 12/13 19:38
Nonegrame: 有人不知道 0.1 + 0.2 = 3000000004?29F 36.226.54.214 台灣 12/13 19:38
ddijk: 被網友調教 讚30F 220.142.74.30 台灣 12/13 19:39
donotggyy: 懂得認錯 比民退黨強多了31F 42.74.42.24 台灣 12/13 19:40
roea68roea68: 這AI還自斷手腳不能連網 能連網32F 122.117.132.21 台灣 12/13 19:40
roea68roea68: 就真的神了
Virness: 也許ai知道3,6,9的秘密34F 42.73.193.234 台灣 12/13 19:43
tannoy: 夠資格成為台灣記者嗎?35F 114.137.81.174 台灣 12/13 19:44
birdy590: 準備好可以當政客了36F 115.43.53.170 台灣 12/13 19:47
CC97: 現在太早笑AI,未來只怕會讓你笑不出來37F 218.172.104.12 台灣 12/13 19:48
reich3: 人類太過愚蠢了,這個是難度最高的「文組A38F 42.72.133.197 台灣 12/13 19:49
reich3: I」
darknote: AI是可以取代人類高階專業領域..光計算40F 114.45.50.54 台灣 12/13 19:49
reich3: 「理組AI」只會仰仗算力搞暴力破解法,沒41F 42.72.133.197 台灣 12/13 19:50
reich3: 有任何深奧學問!
darknote: 外 連近年AI判讀胰臟癌準確率也已突破43F 114.45.50.54 台灣 12/13 19:51
darknote: 97%以上(人類92%)
devidevi: AI竟然還會更正,好恐怖45F 203.77.48.47 台灣 12/13 19:53
darknote: 現AI已經在搞癌症初期判定的機器學習了46F 114.45.50.54 台灣 12/13 19:56
reich3: 圖靈測試(英語:Turing test):目的是測47F 42.72.133.197 台灣 12/13 19:56
reich3: 試機器能否表現出與人一樣的智慧型水準。
reich3: 測試時測試者透過電腦鍵盤輸入文字並透過
reich3: 螢幕輸出文字。
reich3: 愚蠢的人類沒發現這AI沒連網就通過圖靈測
reich3: 試,連網不就要開啟天網了!!
pftmax: 人工智能都會認錯,反觀抗中爆胎黨53F 27.242.130.241 台灣 12/13 20:00
poison5566: import math *54F 123.192.85.79 台灣 12/13 20:00
TOEY: 壞了,50收55F 101.10.109.102 台灣 12/13 20:01
FarkU: ChatGPT丟兩岸統獨議題,回答也無懈可擊。56F 220.135.132.150 台灣 12/13 20:01
pov: 太恐怖了 小心AI裝笨57F 223.139.14.91 台灣 12/13 20:23
Oswyn: 好啦最後不是AI想消滅人類而是算錯發射核彈58F 220.136.220.152 台灣 12/13 20:28
sdyy: 比綠共懂得認錯59F 42.73.205.214 台灣 12/13 20:29
reexamor: ChatGPT的論述能力比現今的八卦板優秀60F 114.137.41.194 台灣 12/13 21:22

--
※ 看板: Gossiping 文章推薦值: 0 目前人氣: 0 累積人氣: 175 
分享網址: 複製 已複製
r)回覆 e)編輯 d)刪除 M)收藏 ^x)轉錄 同主題: =)首篇 [)上篇 ])下篇