※ 本文轉寄自 ptt.cc 更新時間: 2025-01-29 23:55:14
看板 Stock
作者 標題 Re: [新聞] 市值蒸發19.7兆!輝達聲明:DeepSeek未
時間 Tue Jan 28 20:07:21 2025
※ 引述《huabandd (我是阿肥巴你頭)》之銘言:
: 沒什麼好恐慌的
: 中國算法優秀,還是需要有硬體來使用
: 除非可以做到不需要專用晶片依然能有成效
: 到時候再來跑也來得及
: 該恐慌的是那些投入大量資源搞AI軟體的公司
: 不過話說回來,禁令似乎也沒什麼意義了
: 反正中國有的是辦法搞到這些晶片
需要算力沒錯
只是根本不需要這麼多
原本預估要10000台才能學完
但我發現只需要將資料先預處理
挑出重點再去學習
發現只需要500台就能學完了
所以結論就是我的確需要更快的GPU跟內存容量
但我不需要買那麼多了
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.233.228.11 (臺灣)
※ 作者: su35 2025-01-28 20:07:21
※ 文章代碼(AID): #1dcCX-br (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1738066046.A.975.html
※ 同主題文章:
01-28 06:29 ■ [新聞] 市值蒸發19.7兆!輝達聲明:DeepSeek未
01-28 08:56 ■ Re: [新聞] 市值蒸發19.7兆!輝達聲明:DeepSeek未
01-28 13:22 ■ Re: [新聞] 市值蒸發19.7兆!輝達聲明:DeepSeek未
01-28 16:08 ■ Re: [新聞] 市值蒸發19.7兆!輝達聲明:DeepSeek未
● 01-28 20:07 ■ Re: [新聞] 市值蒸發19.7兆!輝達聲明:DeepSeek未
推 : 所以會有更多公司加入AI行列1F 01/28 20:09
推 : 好還要更好 對那些想走前面的公司,還是會想買2F 01/28 20:09
推 : 會嗎?3F 01/28 20:10
→ : 先定義"學完"4F 01/28 20:10
推 : 原本是3巨頭*1000台 現在是人人有功練100家*50台5F 01/28 20:10
我猜是10000家*50 接著變成50*10→ : 現在又不是終點 如果有新的應用出來 更多人用 還是6F 01/28 20:11
→ : 要有算力
→ : 要有算力
推 : AI不只LLM,可以拿去算其他項目8F 01/28 20:11
→ : 確實 現在就反應 寫寫文章 到底要什麼算力9F 01/28 20:11
→ : 人家小米家庭已經飽和了,apple生態圈就那點東西
※ 編輯: su35 (36.233.228.11 臺灣), 01/28/2025 20:20:11→ : 人家小米家庭已經飽和了,apple生態圈就那點東西
→ : 深度跟廣度 自己選一個 不要跟applevision一樣11F 01/28 20:12
推 : 學完了歸學完了,要面對數億人還是需要大量鏟子,不12F 01/28 20:12
→ : 然就是當機還裝成被駭客攻擊
→ : 然就是當機還裝成被駭客攻擊
→ : 弄一個好棒棒的結果沒人要買14F 01/28 20:12
推 : AI軍備競賽開打 算力這種硬實力越高越好吧15F 01/28 20:13
→ : 穩16F 01/28 20:13
推 : 搞不好是特定題目算的很厲害而已17F 01/28 20:13
推 : iPhone停在16就夠用了 s25當最後一代差不多了 製程18F 01/28 20:14
→ : 不用推什麼2nm 也許14nm就夠了
→ : 不用推什麼2nm 也許14nm就夠了
→ : 拿DS預處理資料然後餵給其他AI練功 選我正解!20F 01/28 20:15
推 : 用什麼iPhone 照某些人的說法 用小米就好了21F 01/28 20:16
推 : 根本不需要每個人都有100台,怎麼還停留在硬體,ai22F 01/28 20:16
→ : 全新算法
→ : 全新算法
推 : 這邏輯就好像說任何晶片根本沒必要繼續研發24F 01/28 20:16
→ : 台肯,大家應該用14400 bps modem上網就好25F 01/28 20:16
推 : 再多的小公司都買不到原本七巨頭要買的26F 01/28 20:16
推 : 看了傑文斯悖論後…大膽抄底27F 01/28 20:16
→ : 14400 bps可能還太快?28F 01/28 20:16
→ : 你用微積分難道是100計算機算出來的?什麼叫算法跟29F 01/28 20:17
→ : 算力
→ : 別人是空間到空間,你還在光速要多久
→ : 算力
→ : 別人是空間到空間,你還在光速要多久
噓 : 你說的是訓練 還有推理晶片這東西好嗎 = =32F 01/28 20:20
推 : 誰知道後續AI會用多少?大家也只是囤貨而已33F 01/28 20:20
→ : 後面你還是要買推理晶片34F 01/28 20:20
推 : 用99乘法表能解的題目跟實際運算還是有差別35F 01/28 20:20
→ : 學完怎麼定義? AI這麼快就到盡頭了嗎?36F 01/28 20:21
→ : 而且廣範圍運用的話也要很多伺服器或工作站啊
→ : 而且廣範圍運用的話也要很多伺服器或工作站啊
→ : 推理晶片對的,所以我買世芯沒有買NV38F 01/28 20:21
噓 : 你是不是沒搞懂AI39F 01/28 20:22
推 : 算力還是需要,只是大家會思考有沒有必要溢價去追40F 01/28 20:26
→ : 求算力,尤其是現在買進最新的硬體,不到兩年可能
→ : 打骨折都沒人要
→ : 求算力,尤其是現在買進最新的硬體,不到兩年可能
→ : 打骨折都沒人要
推 : 除了學,你還要有提供服務的算力支援43F 01/28 20:26
→ : 不然就是像DS當機
→ : 不然就是像DS當機
→ : 很壯喔45F 01/28 20:27
推 : 跟我念三次 AGI AGI AGI46F 01/28 20:28
噓 : 學完什麼?你的大一微積分嗎???????????????????????47F 01/28 20:28
→ : 念AGI要幹嘛48F 01/28 20:30
推 : AI這種東西快一步只會快更多,美國算法落後,再多49F 01/28 20:30
→ : 計算機也無用
→ : 計算機也無用
噓 : 老黃每年都在提升硬體性能大家GPT有越買越少嗎51F 01/28 20:31
→ : 美國算法不會落後 這種東西就是一家找出方法52F 01/28 20:31
→ : 其他家很快就會跟上
→ : 其他家很快就會跟上
→ : *GPU54F 01/28 20:32
推 : 實際兩者使用就知道差別,一個像似前5篇文章統合結55F 01/28 20:33
→ : 果,另一個前100篇文章分析統合,如果前5篇文章就是
→ : 重點,那後者分析確實浪費資源與時間,資料庫與資訊
→ : 來源變成節省算力的主因。
→ : 果,另一個前100篇文章分析統合,如果前5篇文章就是
→ : 重點,那後者分析確實浪費資源與時間,資料庫與資訊
→ : 來源變成節省算力的主因。
推 : 同意 市場為什麼會恐慌 不就是這個原因原先輝逹估價59F 01/28 20:33
→ : 價 就是依據市場需要那麼多GPU去估的 現在看起來
→ : 就是可以不需要那麼多 除非有什麼其他依據跌不會停
→ : 價 就是依據市場需要那麼多GPU去估的 現在看起來
→ : 就是可以不需要那麼多 除非有什麼其他依據跌不會停
噓 : 現在根本沒法預估5-10年後ai需要多大的硬體規模。62F 01/28 20:34
→ : 巨頭之前給出的天文數字其實也是主觀判斷
→ : 巨頭之前給出的天文數字其實也是主觀判斷
→ : DeepSeek並不是靠什麼統合文章節省算力 不要胡說64F 01/28 20:35
→ : 要能估算個大概,至少要等商業模式和應用層的探索65F 01/28 20:35
→ : 都進行得差不多
→ : 都進行得差不多
推 : 什麼叫「學完」 我期待的完全自動駕駛和ai機器人67F 01/28 20:35
→ : 幫我煮菜洗衣服都還沒看到耶
→ : 幫我煮菜洗衣服都還沒看到耶
推 : 中國放開源 注定無法賺錢 中國繼續捲死自己69F 01/28 20:35
→ : 你以為的學完的ai是什麼樣子?70F 01/28 20:36
→ : DeepSeek是用了有別於OpenAI開創出來的訓練方式71F 01/28 20:36
→ : 把結果給7巨白嫖 簡直佛72F 01/28 20:36
→ : 我能不能用ai描述一個世界 就用vision pro讓我在73F 01/28 20:36
→ : 裡面探索呢 現在還差得遠吧
→ : 裡面探索呢 現在還差得遠吧
→ : 這個結論是ai已經是成熟的產品 已經沒辦法有太大進75F 01/28 20:37
→ : 步 問題是ai剛起步欸
→ : 步 問題是ai剛起步欸
→ : 老闆如果可以只請一個馬斯克,會請100個留美的嗎?77F 01/28 20:38
→ : OpenAI的訓練分成四個階段78F 01/28 20:38
→ : 預先訓練 監督微調 獎勵建模 強化學習
→ : 預先訓練 監督微調 獎勵建模 強化學習
→ : 幾百個臭皮匠敵不過一個諸葛亮,差別就在於腦袋(80F 01/28 20:38
→ : 算法)
→ : 算法)
→ : 預先訓練就是給AI大量文本 讓他學習語言跟知識82F 01/28 20:39
→ : 公司還是需要臭皮匠阿,廢話,但不需要這麼多了83F 01/28 20:39
→ : 監督微調 就是用人工貼標籤的方式 去糾正預先訓練中84F 01/28 20:39
→ : AI產生的認知
→ : AI產生的認知
推 : 昨天看到一種說法說開源也是無奈之舉,不開源沒人信86F 01/28 20:39
推 : DS離AGI還扯不上邊 除非小女孩能低成本用演算法搞87F 01/28 20:40
→ : 出AGI 那才是真的了不起
→ : 出AGI 那才是真的了不起
→ : 只好開源讓大家抄來證明實力89F 01/28 20:40
→ : 獎勵建模 就是 建立一個獎勵模型 當AI做出正確推理90F 01/28 20:40
→ : 機制獎勵他
→ : 機制獎勵他
→ : 開源只是他也有用別人開源的東西……少講得好像很92F 01/28 20:41
→ : 委屈
→ : 委屈
→ : 強化學習就是讓AI模型自己跟自己練習94F 01/28 20:41
推 : 距離AI無所不在 還有很長的距離95F 01/28 20:41
→ : 這個是OpenAI建立的訓練方法 OpenAI出台之後 各家96F 01/28 20:41
→ : 硬體需求變低,相對就能讓原本負擔不起的公司變成97F 01/28 20:41
→ : 負擔的起,簡單的說,就是更好銷售硬體了,不再只
→ : 有那幾家客戶才會買
→ : 負擔的起,簡單的說,就是更好銷售硬體了,不再只
→ : 有那幾家客戶才會買
推 : 如果你覺得ai現在已經很成熟沒什麼新把戲 那算力100F 01/28 20:41
→ : 才會嫌多吧
→ : 才會嫌多吧
→ : LLM基本上都照做102F 01/28 20:41
推 : 原本以為要大撒幣才能玩AI 現在發現好像小資族也可103F 01/28 20:42
→ : 以了
→ : 以了
→ : 像汽車 或是手機這樣105F 01/28 20:42
→ : DeepSeek是把四個步驟的監督微調拿掉 不人為介入106F 01/28 20:42
→ : 告訴AI怎樣才是對的 而是用強化學習讓AI自己跟自己
→ : 練習 自己找出怎樣是對的
→ : 告訴AI怎樣才是對的 而是用強化學習讓AI自己跟自己
→ : 練習 自己找出怎樣是對的
推 : NV的digits迷你超級電腦會大賣吧 三千美元而已 中109F 01/28 20:43
→ : 國也會想辦法走私
→ : 國也會想辦法走私
→ : 這個基本上就是AlphaGo跟AlphaZero的差別111F 01/28 20:43
→ : 開源又不只它一家,meta也推出過開源模型,怎麼就112F 01/28 20:43
→ : 這次藉口特別多,還有外行的在吹開源代表它領先競
→ : 爭對手好幾代
→ : 這次藉口特別多,還有外行的在吹開源代表它領先競
→ : 爭對手好幾代
→ : 現在的AI你覺得已經是終點了???115F 01/28 20:43
→ : 現在就看小資族AI夠不夠用 但沒人知道什麼叫夠用116F 01/28 20:43
→ : AlphaGo是用大量人類棋手的棋譜訓練的117F 01/28 20:43
推 : 學完?AI的極限已經到了哦?短短兩年118F 01/28 20:43
→ : 他的棋路就是會照人類棋手的思路119F 01/28 20:44
→ : AlphaGo是自己跟自己練習出來的 所以會走出人類覺得
→ : 不合理的棋
→ : AlphaGo是自己跟自己練習出來的 所以會走出人類覺得
→ : 不合理的棋
→ : 馬斯克有說AI已經學完人類的資料,現在都是自己生122F 01/28 20:44
→ : 成自己學習
→ : 成自己學習
→ : 但結果是AlphaGO棋力更強124F 01/28 20:44
→ : 打錯 但結果是AlphaZero棋力更強
→ : DeepSeek的訓練方式也是一樣 電腦自己跟自己練習
→ : 不人為介入告訴電腦對錯
→ : 打錯 但結果是AlphaZero棋力更強
→ : DeepSeek的訓練方式也是一樣 電腦自己跟自己練習
→ : 不人為介入告訴電腦對錯
推 : 學完人類的資料只是記住而已 那他自動駕駛怎麼還128F 01/28 20:45
→ : 沒完成
→ : 沒完成
→ : 我認為,我以為,我…,好了啦130F 01/28 20:46
→ : 結果照論文裡頭描述的 一開始DeepSeek的推理能力131F 01/28 20:46
推 : 你以為會跟你聊天就學完了嗎?132F 01/28 20:46
→ : 有這deepseek我覺得還會加速哩133F 01/28 20:46
→ : 發展很慢 結果有一天就開竅了 論文稱為aha moment134F 01/28 20:46
→ : 中國那邊翻譯做頓悟時刻
→ : 中國那邊翻譯做頓悟時刻
→ : 問題其實就是那個aha moment是不是人動了手腳136F 01/28 20:47
推 : 如果沒有給AI道德觀,繼續發展下去蠻可怕的137F 01/28 20:47
推 : 讓AI自己訓練自己 我自己猜 OpenAI早就已經在做了138F 01/28 20:47
→ : DeepSeek就是不人為介入啊139F 01/28 20:47
→ : 又或者你其他問題上誰知道花多少算力時間才aha140F 01/28 20:48
→ : 要介入就是OpenAI的訓練了141F 01/28 20:48
→ : 花了多少算力時間V3是有公布的
→ : 用2美元一小時算 就是580萬美元
→ : 花了多少算力時間V3是有公布的
→ : 用2美元一小時算 就是580萬美元
→ : 去年聖誕節時期釋出o3 工程師就再興奮要AI自己產程144F 01/28 20:48
推 : 這個概念特斯拉幾年前的ai day也有講過145F 01/28 20:48
→ : 然後他aha出來的搞不好很突破人類下限 就(ry146F 01/28 20:49
→ : 式自己改進 他這樣講是已經在做了 奧特曼聽到嚇尿147F 01/28 20:49
→ : 只是比誰做得更好148F 01/28 20:49
→ : 怎摸把作法不小心公開 母湯喔 又要被學走了 XD149F 01/28 20:49
推 : 沒有最好,只有更好;科技產業就是如此。150F 01/28 20:50
→ : 自動駕駛也需要ai自己生成場景去訓練 不然靠人類151F 01/28 20:50
→ : 的駕駛很多極端狀況的數據根本不夠
→ : 也不是科技業都這樣 像手機車子就沒啥新把戲 ai
→ : 可是起步中的起步
→ : 的駕駛很多極端狀況的數據根本不夠
→ : 也不是科技業都這樣 像手機車子就沒啥新把戲 ai
→ : 可是起步中的起步
→ : 然後他就aha出水溝蓋可以跑(ry155F 01/28 20:51
推 : 很多問題 包含那個aha 反正他號稱是開源 自然會有156F 01/28 20:51
→ : 人去嘗試然後公布 讓子彈飛
→ : 人去嘗試然後公布 讓子彈飛
→ : 除非DS的成果是大家認為的AI極限,不然還是要靠算力158F 01/28 20:51
→ : 往前推進
→ : 往前推進
→ : 不是580萬 是557.6萬160F 01/28 20:51
→ : 今天你要拼命想才有一個很雞肋的新點子 那ai才是161F 01/28 20:52
→ : 成熟了 像什麼小米汽車可以跳過坑洞那種
→ : 成熟了 像什麼小米汽車可以跳過坑洞那種
→ : 要說DS對整體降本增效有功絕對同意 但極限 遠遠不及163F 01/28 20:52
→ : 這篇其實講錯 不是甚麼學完164F 01/28 20:53
→ : 我測太多東西了 真的不行 差得遠了 o1都不太滿意了165F 01/28 20:53
→ : 而是如果各家開始學習DeepSeek的方法 各家AI的效率166F 01/28 20:53
→ : 我講白一點 覺得r1夠用的人 其實只要用臉書的拉馬167F 01/28 20:54
→ : 都提升 那目前佈的算力是不是已經超過短期的商業需168F 01/28 20:54
→ : 也夠用了 根本一毛錢都不用花 超輕度用戶169F 01/28 20:54
→ : 求170F 01/28 20:54
→ : DS就小模型== 到時你要接起來還是要大量算力171F 01/28 20:54
→ : 事實上大部分的算力並不是用來開發AI模型172F 01/28 20:54
→ : 提升要看程度 先讓國中數學解得出來再談173F 01/28 20:54
→ : 是模型建立之後 把模型佈在平台上 提供商業應用cal174F 01/28 20:55
→ : l的
→ : l的
→ : 大多數算力就是拿來推論的 但推論便宜了就有更多算176F 01/28 20:55
→ : 昨天就說過 以Meta來講 訓練的成本不過30億177F 01/28 20:55
→ : 但平台的資本支出是650億
→ : 但平台的資本支出是650億
→ : 力來研發 可以越快訓練出可以解決國中數學的AI179F 01/28 20:55
→ : 絕大部分的資本支出 其實是提供商業應用 而不是訓練180F 01/28 20:56
→ : 核心
→ : 核心
→ : 那些爛AI拿來商用 難怪沒人要用182F 01/28 20:56
→ : 算力效率變好 那應用需求能不能跟上?183F 01/28 20:57
→ : 原本預計每年投入多少資本支出 商業應用還是供不應
→ : 求 但現在效率變好 會不會幾年內算力過剩?
→ : 原本預計每年投入多少資本支出 商業應用還是供不應
→ : 求 但現在效率變好 會不會幾年內算力過剩?
→ : 不能 因為AI就是蠢 不好用 便宜也沒用186F 01/28 20:58
→ : 大部分其實不是訓練 是應用端場景一直加進來改187F 01/28 20:58
→ : 這才是問題 不是甚麼10000片能學完 現在只要200片188F 01/28 20:58
→ : AI蠢不蠢 目前都已經開始有應用了
→ : AI蠢不蠢 目前都已經開始有應用了
→ : 企業要的是能滿足需求 再來談價錢 現在連需求都沒有190F 01/28 20:58
→ : 滿足 爛
→ : 有 但根本沒辦法普及 因為太蠢了
→ : 滿足 爛
→ : 有 但根本沒辦法普及 因為太蠢了
→ : DS並沒有帶來質的提升193F 01/28 20:59
→ : 現在就連o1的質也遠遠不及商務需求194F 01/28 21:00
→ : LLM也不一定是通往AGI的正確道路195F 01/28 21:01
→ : 也許有一天會發現走錯了 目前佈的都是錯的
→ : 也許有一天會發現走錯了 目前佈的都是錯的
→ : 如果好用 AI商用早就普及了 現在各行各業才在用....197F 01/28 21:01
→ : *誰
→ : *誰
推 : 我開100匹馬力的車也可以為啥需要200匹馬力的 你以199F 01/28 21:02
→ : 為需求是有終點的喔
→ : 為需求是有終點的喔
→ : 就連麥當勞當年套個AI點餐機就被罵爆201F 01/28 21:02
推 : 你可以說人不懂AI 但你也不懂老闆要的AI202F 01/28 21:02
→ : o1我看連麥當勞點餐都沒辦法 蠢得要命 還早得很203F 01/28 21:02
→ : 要是有用 夠用 麥當勞早就去談了 店員全裁光
→ : 要是有用 夠用 麥當勞早就去談了 店員全裁光
→ : 算力永遠不夠205F 01/28 21:03
→ : 現在AI的需求沒看到終點 事實上連終點都還不知道在206F 01/28 21:03
→ : 巨頭囤貨就是在壟斷資源及價高後進者門檻.結果207F 01/28 21:03
→ : 問題就現在AI太蠢了 超廢 連點餐都處理不了208F 01/28 21:03
→ : 哪 但 真正的問題應該是 這幾年的需求是不是飽和了209F 01/28 21:03
→ : 學完不用?210F 01/28 21:03
→ : 畢竟現在AI能做的有限211F 01/28 21:03
推 : 所以我說那個醬汁呢 (X)212F 01/28 21:03
→ : 所以我說那個應用呢 (O)
→ : 所以我說那個應用呢 (O)
→ : 太多東西 材料 蛋白 病毒 基本上算不完214F 01/28 21:03
→ : 誰agi先出來就能吃下市場215F 01/28 21:04
→ : 這個就像2000年的時候216F 01/28 21:04
推 : 需求飽和還是要繼續研發啊217F 01/28 21:04
→ : 不是需求飽和 是你的產品根本沒達到需求218F 01/28 21:04
→ : 那時候你能用網路做的事情不多219F 01/28 21:04
→ : 是網路沒用嗎? 不是 是應用沒開發出來
→ : 是網路沒用嗎? 不是 是應用沒開發出來
→ : 你要先有別人幫你整理才能分類221F 01/28 21:04
→ : 2000年那之後的兩三年的泡沫 不是因為網路沒用222F 01/28 21:04
推 : 2000年網路應用沒開發出來,部分原因是不夠快223F 01/28 21:05
→ : 而是當時的應用不夠 所以當時的網路需求上不來224F 01/28 21:05
→ : 等到應用出來才去搞算力就不知道落後多少了225F 01/28 21:05
→ : 不是 當時就真的沒甚麼應用226F 01/28 21:05
→ : 我想到個老笑話: PC只需要640kb的記憶體227F 01/28 21:05
→ : 2000年的網路,能想像視訊通話、Netflix嗎?228F 01/28 21:05
→ : 那時候就是e-mail 簡單的靜態web229F 01/28 21:06
→ : 嗯 那時候網路一部分是不夠快沒法讓影音起來230F 01/28 21:06
噓 : 你知道agi需要的算力嗎231F 01/28 21:06
噓 : 學完是什?232F 01/28 21:06
→ : 講AGI都講太遠235F 01/28 21:06
噓 : 講得很好,以後不要再講了236F 01/28 21:06
→ : 現在LLM的方向是不是對的都不知道 就在講AGI237F 01/28 21:06
→ : 影音的應用是不知道嗎 不是 是用起來卡死不好應用238F 01/28 21:06
→ : 2000年那時候是真的很多技術都還沒有239F 01/28 21:07
噓 : 用常識屁股想也知道 agi 需要的算力240F 01/28 21:07
→ : 沒有點對點的話 其實影音應用 到現在還是起不來241F 01/28 21:07
→ : 串流
→ : 你手機頻寬可能100M吧
→ : 你能接受下載一部片再看嗎
→ : 串流
→ : 你手機頻寬可能100M吧
→ : 你能接受下載一部片再看嗎
→ : 但很明顯現在的頻寬也可以暴力支撐老技術(ry245F 01/28 21:08
→ : 當年下載色圖或mp3等多久都有人應用(X
→ : 當年下載色圖或mp3等多久都有人應用(X
→ : 雖然不會太久 可能10幾分鐘247F 01/28 21:09
→ : 當然 也是有人願意等 但等的人就少
→ : 當然 也是有人願意等 但等的人就少
→ : 總之力大磚飛不見得不行 但DS幫他加速了進程249F 01/28 21:10
→ : 不然固網其實很早就100M了啊250F 01/28 21:10
推 : 成本降才能普及 頂尖的繼續去追求超高算力 一般人251F 01/28 21:11
→ : 用不到那麼多算力 總不可能要一般人都去吃頂尖等級
→ : 的成本 智慧型手機也是靠中低階大量普及
→ : 用不到那麼多算力 總不可能要一般人都去吃頂尖等級
→ : 的成本 智慧型手機也是靠中低階大量普及
推 : 你看小了,演算法是可以進步的,才開始而已,並不254F 01/28 21:11
→ : 像人腦受智力上限限制
→ : 像人腦受智力上限限制
→ : 其實不見得有甚麼進程256F 01/28 21:11
推 : 下一步是AI AGENT257F 01/28 21:11
→ : 現在是要達到70B 也就是有意義的訓練量要很久258F 01/28 21:11
→ : 要花很多GPU時間
→ : DeepSeek是大量減少需要的時間
→ : 要花很多GPU時間
→ : DeepSeek是大量減少需要的時間
推 : 有了技術,成本又能普及,資本市場自然會找到使用他261F 01/28 21:12
→ : 的方式。
→ : 的方式。
→ : 但並沒有優化263F 01/28 21:12
→ : 達到一定的訓練量 能力成長就有限
→ : 你灌幾倍的算力下去 也不會有甚麼進步
→ : 達到一定的訓練量 能力成長就有限
→ : 你灌幾倍的算力下去 也不會有甚麼進步
→ : 所以說只有加速 LLM是不是朝向AGI也還不知道啊266F 01/28 21:13
→ : 要真的有進步 可能還要找到其他方法267F 01/28 21:13
→ : 能力成長有限 但並聯其實能增加覆蓋問題範疇就夠了268F 01/28 21:13
→ : 也許根本不是LLM269F 01/28 21:13
→ : 大概比喻就是你雇用一百個小學畢業工人跟雇用一千個270F 01/28 21:14
→ : 他就是沒法提供研究所智力 但可能可以做到便宜事了
→ : 他就是沒法提供研究所智力 但可能可以做到便宜事了
→ : 是 現在的問題就是 市場有沒有需要這麼多勞動力272F 01/28 21:16
→ : 以前勞動力供不應求 但現在一個工人可以做10倍的
→ : 事情 會不會工人過剩
→ : 以前勞動力供不應求 但現在一個工人可以做10倍的
→ : 事情 會不會工人過剩
推 : 一堆東西沒學,當然砍半訓練275F 01/28 21:16
→ : 一堆東西沒學(X) 現在的LLM模型能力就這樣(O)276F 01/28 21:17
→ : 並不是算力丟下去 LLM就會飛天遁地
→ : 現在LLM的智力就是4歲 你強迫他念研究所的書也沒用
→ : 並不是算力丟下去 LLM就會飛天遁地
→ : 現在LLM的智力就是4歲 你強迫他念研究所的書也沒用
→ : 網路泡沫要到一堆空殼公司連產品都沒有就拿到資金279F 01/28 21:18
→ : 4歲小孩多看一點書會聰明一點 但總是有上限280F 01/28 21:18
→ : 然後股市裡一堆中小AI群魔亂舞281F 01/28 21:18
→ : 總之看記憶能力還能怎麼發展282F 01/28 21:18
→ : 成本計算的真實性是個謎,但投資肯定是先閃為妙283F 01/28 21:18
→ : 這兩年股票根本只漲七巨頭 中小死在地上284F 01/28 21:18
推 : 重點是"學完了"嗎285F 01/28 21:19
→ : 但感覺需要的不是HBM 而是CPO到硬碟怎麼辦(ry286F 01/28 21:19
→ : 除七巨頭哪家AI公司股價飛天的?還不就那些有業績的287F 01/28 21:19
→ : 看你學完怎麼定義 如果以4歲智商能念的書288F 01/28 21:19
→ : 應該是差不多唸完了
→ : 蠻多AI公司飛天的啊
→ : 應該是差不多唸完了
→ : 蠻多AI公司飛天的啊
噓 : 什麼算力不用那麼多 ?你知道自己在說殺小嗎?拼命291F 01/28 21:20
→ : 獻曝耶
→ : 獻曝耶
→ : 沒看到阿斯拉或賈維斯出來前一律當作沒念完(O)293F 01/28 21:20
→ : 哪一間空殼沒產品的股票噴飛天?294F 01/28 21:20
→ : 結論:all in tsmc295F 01/28 21:20
→ : 像各種機器人公司 從低點算漲三四倍不算多296F 01/28 21:20
→ : 要看你定義的飛天是怎樣算
→ : 要看你定義的飛天是怎樣算
推 : 特斯拉跌到200那時候更慘,一堆人說賣車的估值這麼298F 01/28 21:21
→ : 高不合理
→ : 高不合理
推 : DS節省的訓練的算力,沒有提到推論節省多少算力吧?300F 01/28 21:21
→ : RBOT也是還沒產品 但從低點噴四倍多301F 01/28 21:21
→ : 當然 我是期待他產品真的有用 可以噴100倍啦
→ : 當然 我是期待他產品真的有用 可以噴100倍啦
→ : 2000年納指四年漲五倍 現在兩年連一倍也沒有......303F 01/28 21:22
→ : 其實很多喔304F 01/28 21:22
→ : 這種公司數量遠遠不及2000年.....305F 01/28 21:22
→ : 位階差那麼多哪能這樣算306F 01/28 21:22
噓 : 看衰的人 那你們要買什麼 還是要做空呢?307F 01/28 21:22
→ : 10000人的工作500人就能做完?太棒了308F 01/28 21:23
→ : 以後給他們20倍的工作量!
→ : 以後給他們20倍的工作量!
→ : 位階跟這又沒關係 2000年可是沒有QE耶310F 01/28 21:23
推 : 連2000年網路泡沫化都出來了 也太離譜311F 01/28 21:24
→ : 我打開我的AI&Robot自選組合312F 01/28 21:24
→ : 股市在高位沒錯 但泡沫 還早 那時可是一片樂觀313F 01/28 21:24
→ : 我看大概有一半是沒產品 或是產品幾乎沒營收的314F 01/28 21:24
→ : 老黃躺在這半年了 樂觀在哪?質疑聲從沒少過315F 01/28 21:24
→ : 實在可悲 不為難空空的思想了316F 01/28 21:25
→ : QE是在AI爆發前 AI爆發之後一質都是QT317F 01/28 21:25
→ : 看到板上 哪次老黃大跌不是半信半疑 這樣哪來樂觀318F 01/28 21:25
推 : 合理的推論319F 01/28 21:25
推 : 機器人也要考慮中國的競爭呀,他們的機器狼是世界320F 01/28 21:25
→ : 頂尖
→ : 頂尖
→ : 從ChatGPT引發AI爆炸成長到現在 都是高利率+Qt322F 01/28 21:26
→ : 話說八月那次也是拿泡沫出來講 結果勒323F 01/28 21:26
推 : 再來就散戶公司進場,紅海化的速度越快需求越高鏟324F 01/28 21:27
推 : 8月那次喊台積電300-500的人呢325F 01/28 21:27
→ : 子才賣得動326F 01/28 21:27
→ : 重點還很剛好 每次都在財報前 還真的沒一次miss327F 01/28 21:27
→ : 我記得23年底財報前也是狂殺20% 網路泡沫論也是滿天
→ : 我記得23年底財報前也是狂殺20% 網路泡沫論也是滿天
噓 : 一個80分 一個60分 誰會願意花時間在60分那邊329F 01/28 21:28
推 : 4月盤中跌一千點喊一次 8月台指期跌停再喊一次 總330F 01/28 21:28
→ : 有一天喊對AI泡沫
→ : 有一天喊對AI泡沫
→ : 總市值75.53兆 隨便就跌去1/4 台股!?神!!332F 01/28 21:29
→ : 絕對有泡沫爆掉的一天 但到時板上絕不會有任何看空333F 01/28 21:29
→ : 直到那時 就真的完了 哈哈哈
→ : 直到那時 就真的完了 哈哈哈
推 : 絕對是當大家瘋狂買進的時候才會泡沫 現在是一片看335F 01/28 21:30
→ : 空
→ : 空
→ : Cisco在網路泡沫爆掉的時候也沒比軟體股慘337F 01/28 21:30
→ : 基建的基礎就是鏟子賣出去了就回收了
→ : 基建的基礎就是鏟子賣出去了就回收了
→ : 學完XDD339F 01/28 21:33
噓 : 覺得考95夠了就等著被靠120幹死 不懂救繼續當快樂寶340F 01/28 21:34
→ : 貝吧
→ : 貝吧
推 : 但是Cosco 2000年用一年時間從80元崩到20元左右342F 01/28 21:34
→ : *Cisco
→ : *Cisco
→ : 95太抬舉它們了 現在連60分及格都沒有 實用性的話344F 01/28 21:35
→ : GPT3就是個概念 新奇 但垃圾 GPT4改進一點 但沒用
→ : 一直到了o1現在 才非常勉強可以用在特定工作上
→ : GPT4之前胡說八道問題太嚴重 現在越來越少
→ : 我記得幾個月前 也一堆人擔心 AI胡說八道問題沒法解
→ : 那一定會泡沫勒 現在呢........
→ : GPT3就是個概念 新奇 但垃圾 GPT4改進一點 但沒用
→ : 一直到了o1現在 才非常勉強可以用在特定工作上
→ : GPT4之前胡說八道問題太嚴重 現在越來越少
→ : 我記得幾個月前 也一堆人擔心 AI胡說八道問題沒法解
→ : 那一定會泡沫勒 現在呢........
推 : 那原本的1萬台不就可以算更多東西?350F 01/28 21:37
→ : NV先腰斬一次回80吧351F 01/28 21:37
噓 : AI 又不是已經走到極限了,哪來學完352F 01/28 21:37
→ : 你大學學完,腦袋就能丟掉了嗎
→ : 你大學學完,腦袋就能丟掉了嗎
推 : 從openrouter這個網站來看,DS v3 latency 6秒354F 01/28 21:46
噓 : 你覺得現的功能可以嗎?355F 01/28 21:46
→ : 4o latency 0.6秒,這也是成本差距吧356F 01/28 21:47
→ : GPT3都幾年了 這幾天去踹去吹的 也有說就GPT3.5357F 01/28 21:54
噓 : 你不要買啊,你就看別人賺爛就是這樣而已358F 01/28 21:58
→ : 然後大家都從500台開始,一路捲到1萬台,你覺得誰359F 01/28 22:16
→ : 的比較強?
→ : 的比較強?
推 : 使用的人越多越需要買361F 01/28 22:20
→ : 垃圾中國deepseek是面板套用人家gtp當輸出362F 01/28 22:20
→ : 拿人家的結果當成自己的輸出 真他媽白標
→ : 拿人家的結果當成自己的輸出 真他媽白標
噓 : 看到學完就覺得好好笑 拿OPEN AI來當目標的話 那當364F 01/28 22:51
→ : 然有學完的一天 但事實上OPEN AI還有一堆缺陷
→ : 智慧這種東西怎麼可能有學完的一天
→ : 然有學完的一天 但事實上OPEN AI還有一堆缺陷
→ : 智慧這種東西怎麼可能有學完的一天
→ : 講的好像ds已經是最終答案了367F 01/28 22:52
推 : 猜AI練題完存答案 不用再run一遍368F 01/28 23:01
→ : 確定?更多中小企業可以玩自己的i’ll了 算力需求369F 01/28 23:16
→ : 是下降?
→ : llm
→ : 是下降?
→ : llm
→ : 不是喔 資料量只會一直變大372F 01/28 23:24
→ : 就像以前以為電腦進步會越來越小台省電
→ : 就像以前以為電腦進步會越來越小台省電
推 : 看起來就是輝達晶片要賣爛了......人人有you374F 01/28 23:37
→ : gpu
→ : gpu
→ : 除非你覺得現在的AI已經完美不需再進化了,否則硬376F 01/28 23:52
→ : 體需求永遠無法滿足人類的慾望
→ : 體需求永遠無法滿足人類的慾望
噓 : 那你繼續用十年前的顯卡CPU玩遊戲啊378F 01/29 00:00
推 : 為啥18124突然怎麼懂AI啊?379F 01/29 00:43
推 : 直接買10年前的硬體,不是更省成本,為啥買今年的產380F 01/29 00:49
→ : 品?
→ : 10年前的製程成熟到爆炸,為啥買今年新上市的?
→ : 品?
→ : 10年前的製程成熟到爆炸,為啥買今年新上市的?
噓 : 500台不用錢嗎?你以為是一台嗎…383F 01/29 01:15
推 : 更多小公司少量卡都能做 噴384F 01/29 01:39
噓 : 光看到學完就知道沒參考價值385F 01/29 01:42
--
※ 看板: Stock 文章推薦值: 0 目前人氣: 0 累積人氣: 460
→
guest
回列表(←)
分享