作者:
WeAntiTVBS 106.1.228.28 (台灣)
2023-11-21 14:38:45 → chang1248w: 不怕殺,只怕殺不完 3F 42.72.37.80 11-21 16:02
作者:
E7lijah (insf1rE)
27.247.33.200 (台灣)
2023-11-20 23:50:06 → chang1248w: 這是調度的鍋吧 11F 140.115.212.91 11-21 00:45
作者:
vostro (N/A)
1.169.97.41 (台灣)
2023-11-14 21:38:25 → chang1248w: 強10%? 1F 140.115.212.91 11-14 22:13
→ chang1248w: 抽起來!沒有比較沒有傷害 6F 42.72.232.78 11-12 20:09
作者:
boren (boren)
114.34.254.164 (台灣)
2023-11-04 16:16:41 推 chang1248w: 讚 留言 分享 2F 42.73.187.27 11-04 16:24
作者:
nk11208z (小魯)
1.169.175.158 (台灣)
2023-11-04 13:12:08 → chang1248w: torch和tf都只支援batch-wise的
distribute training吧,一張卡放不下的模型,兩張卡也放不下 34F 42.73.187.27 11-04 14:29
作者:
AreLies (AreL1e5)
36.238.40.59 (台灣)
2023-11-03 22:03:19 推 chang1248w: 奇人共賞 41F 42.73.187.27 11-04 08:43
作者:
yolux (hello)
111.71.212.248 (台灣)
2023-11-03 08:05:53 → chang1248w: 鼓風扇版本上了嗎 12F 42.72.6.60 11-03 09:52
作者:
ultra120 (原廠打手 !!!)
60.249.18.108 (台灣)
2023-11-03 00:01:24 → chang1248w: 以後還出ddr4的cpu嗎 1F 42.72.83.189 11-03 00:07
作者:
E6300 (*靈界偵探*)
223.138.93.198 (台灣)
2023-11-01 14:52:57 → chang1248w: 他背光是幾區? 20F 42.72.3.113 11-01 15:22
作者:
IhateOGC (股海冥燈)
27.52.33.149 (台灣)
2023-11-01 00:59:16 → chang1248w: \新的/ 32F 42.72.3.113 11-01 02:37
作者:
ludashi (魯魯)
27.247.228.233 (台灣)
2023-10-31 09:17:26 噓 chang1248w: simple math 37F 42.72.3.113 10-31 10:28
作者:
oppoR20 (發情豹紋)
220.134.110.213 (台灣)
2023-10-30 22:23:23 推 chang1248w: 給他十年 23F 111.82.103.131 10-30 22:48
→ chang1248w: 樓下推benq 5F 111.82.103.131 10-29 11:37
作者:
d9936679 (shin)
61.227.98.182 (台灣)
2023-10-27 17:19:53 推 chang1248w: 真的真的要組了 10F 123.194.42.50 10-27 17:35
作者:
outzumin (阿呆銘)
70.112.26.186 (美國)
2023-10-25 08:39:39 → chang1248w: 感覺十足的坑,對不起您先請 76F 42.73.128.59 10-25 16:06
作者:
ele162 (ele)
211.75.132.252 (台灣)
2023-10-24 12:55:42 → chang1248w: 有啥是淘寶京東沒法送的 1F 42.73.184.213 10-24 12:56
作者:
curryh (撈ㄙ)
124.155.186.119 (台灣)
2023-10-22 18:15:06 → chang1248w: 再怎麼慘也不至於卡死啊
要馬移植作品和你電腦八字不合 43F 114.137.47.151 10-22 19:42
作者:
CircusWorld (小丑世界)
123.205.143.107 (台灣)
2023-10-22 14:06:15 → chang1248w: 4080 super tight 48F 114.137.47.151 10-22 17:07
作者:
retest75 (再一次)
203.222.0.248 (台灣)
2023-10-21 13:17:34 推 chang1248w: dl主要瓶頸還是在gpu上,python ml底下比較常用的numpy和scipy近年開始往通用的openblas靠,要掛intel的mkl也還是做得到,intel u矩陣乘法在mkl上還是比openblas快了10-15% 5F 114.137.77.216 10-21 14:49
… 共有 10 則推文,點此顯示