作者:
IBIZA (溫一壺月光作酒)
1.169.68.61 (台灣)
2025-01-29 23:20:33 推 lovepork: chatgpt 全名generative pre-trained transformer 22F 01-29 23:35
→ lovepork: 我好奇 deepseek也是transformer architecture嗎? 26F 01-29 23:36
推 lovepork: transformer 其實就是複雜一點的attention model 40F 01-29 23:45
推 lovepork: 我之所以提transformer 是因為它可以做transfer
learning (遷移學習) 45F 01-29 23:52
… 共有 7 則推文,點此顯示
作者:
ng101281 49.215.56.15 (台灣)
2025-01-29 21:03:16 噓 lovepork: 重新定義盜用? 155F 01-29 22:21
作者:
gn02118620 (Howard)
1.200.7.21 (台灣)
2025-01-29 08:59:54 推 lovepork: 我會這麼解讀 1/20等於可以19/20拿去做其他模型訓練搞不好 有其他更成功模型 沒被揭露 細思極恐
中國做AI根本不缺錢和能源
能源他們自己就多少水壩和核能電廠了 249F 01-29 11:48
作者:
Sixigma (六西格瑪)
123.193.249.136 (台灣)
2025-01-27 15:59:11 推 lovepork: gpt的全名Generative Pre-Trained Transformers 22F 01-27 16:11
→ lovepork: transform architecture類似於attention model 25F 01-27 16:11
推 lovepork: 無聊當有趣~ 4F 01-24 13:41
作者:
lovepork (我愛豬肉不愛牛肉)
155.69.168.66 (新加坡)
2025-01-24 09:37:26 → lovepork: 昨天在跟老闆撰寫文章時 他就有提到高鐵是否算價值股 但因為我覺得這個定義不是很明確 所以我也不敢 16F 01-24 09:42
→ lovepork: 說是或者不是 20F 01-24 09:42
→ lovepork: 感謝,00940我看了一下,但似乎沒看到高鐵,中華電 50F 01-24 10:27
作者:
cjol (勤樸)
114.38.147.251 (台灣)
2025-01-13 23:04:21 推 lovepork: 中國謝金河 3F 01-13 23:06
作者:
xephon (並沒有)
124.6.9.125 (台灣)
2025-01-12 07:43:20 推 lovepork: 很恐怖,有2008既視感 66F 01-12 09:00
作者:
davidwales (cluster)
155.69.167.66 (新加坡)
2025-01-08 14:51:05 推 lovepork: 這是代數拓墣的東西
是很嚴謹的學科 可以請教應數系的老師看看 4F 01-08 15:07
推 lovepork: sheaf 包含base space和 fiber bundle兩部份 7F 01-08 15:10
→ lovepork: base space可以是vector space, graph, sets 9F 01-08 15:11
推 lovepork: 小波是時間尺度的分析 我這個比較像空間尺度的分析 13F 01-08 15:15
… 共有 11 則推文,點此顯示
作者:
enouch777 (雷)
101.136.155.10 (台灣)
2024-12-04 11:31:19 推 lovepork: 西門子的既視感 220F 12-04 14:16
作者:
good123456 (網軍吃屎)
101.12.157.4 (台灣)
2024-12-03 12:58:14 推 lovepork: 找印度人到管理階層 就是要關燈了 16F 12-03 13:08
作者:
MOMO0478 (沒死)
59.120.193.115 (台灣)
2024-10-25 12:54:30 推 lovepork: 參數拿到了 剩下就是把老屁股踢掉了 167F 10-25 14:38
作者:
tailop (寧夏)
61.228.237.99 (台灣)
2024-10-22 10:33:28 推 lovepork: 龐氏騙局就是它獲利來源不來自於投資項目本身獲利 179F 10-22 11:11
→ lovepork: 而是來自於後面投資人投入的本金 181F 10-22 11:11