顯示廣告
隱藏 ✕
※ 本文轉寄自 ptt.cc 更新時間: 2022-02-08 16:49:08
看板 PC_Shopping
作者 henrychang81 (henrychang81)
標題 [菜單] 200k 左右 Deep Learning 工作站
時間 Tue Feb  8 05:37:56 2022



已買/未買/已付訂金(元): 未買

預算/用途: 200k左右 / 工作用 Deep Learning 工作站

CPU (中央處理器):Intel i7-12700K【12核/20緒】3.6G                $ 12800
MB      (主機板):華擎 Z690 Taichi 太極(ATX/1H2T)                 $ 16900
RAM     (記憶體):芝奇G.SKILL幻鋒戟RGB 16*2 D5-5600 CL36銀        $ 11190
VGA     (顯示卡):技嘉 AORUS RTX 3090 XTERME 24G (31.9cm) *2      $127980
Cooler  (散熱器):貓頭鷹 NH-D15S chromax.black 高16cm             $  3665
SSD   (固態硬碟):Samsung 980 PRO 1TB NVMe Gen4/M.2 PCIe          $  5288
                  Samsung 870 QVO 4TB/2.5吋                       $ 10990
HDD       (硬碟):無
PSU (電源供應器):全漢 CANNON PRO 2000W 雙8/全模                  $ 13900
CHASSIS   (機殼):Fractal Design Define 7 黑 顯卡長46.7/CPU高18.5 $  5590
MONITOR   (螢幕):無
Mouse/KB  (鼠鍵):無
OS    (作業系統):Ubuntu 18.04 LTS / Ubuntu 20.04 LTS

其它  (機殼風扇):貓頭鷹 Noctua NF-A12x25 PWM chromax.black.swap  $  1225
                  ARCTIC P12 PWM 12公分聚流控制風扇 *6            $  2100
總價 (未稅/含稅):                                                $211718

因為工作上的需要,老闆要我開一張200k左右的單子給他(公費)
目前預計會跑 CNN/RNN 的 model,也會用到 CUDA 加速

關於這張單有一些問題想請教電蝦版的版友 <(_ _)>

1.CPU部分,有稍微在版上搜索一下Deep Learning 關鍵字的菜單,看到有些人會建議拿
i9-9900k的CPU,有點好奇Deep Learning 應該都用GPU來訓練,目標把 GPU core 和 GRAM
拉到頂來加速訓練,而CPU的部分應該拿個i7或i5等級的就夠了,為什麼會建議拿i9等級
的呢?

2.關於power的部分,CPU TDP 為125w,顯示卡1張 TDP 435w,2張就870w
MB、RAM、SSD 等估算50w左右

看到power 要拿 「TDP加總後乘以2」的規格
經計算 (125w + 870w + 50w)*2 = 2090w
而台灣目前有2000w 規格的 power 只有全漢
Cooler Master 2000w 只有印度有供貨,振華2000w 經洽詢則未在台灣銷售
感覺power方面有點緊繃,想請問power方面該如何配置比較好?
或是考慮購買機架式工作站?

3.承上,顯示卡的部分,配置2張目的是為了加快訓練,或是下不同的hyper parameter
同時訓練2個model,這部份希望能維持2張顯示卡。
另外也想請教顯示卡拿FE 或是一般市售版本是否在訓練上有所差異?

4. 硬碟的部分,目前規劃980 PRO 1TB (M2 SSD)當系統碟,870 QVO 4TB (SATA SSD)當
資料碟,存放dataset,請問這部分是否有需要更動的地方?

以上
謝謝電蝦版 <(_ _)>

注意1:自稱小妹或會透露自己性別的舉動要注意可能會引來不必要的紛擾,請注意。
注意2:標題是否有寫明"預算"、"用途"? 沒有請按Ctrl+x 然後按T改標題
注意3:請多加利用線上估價系統來進行估價以及價格查詢 (僅供參考)
注意4:若遇新品問題請勿發除錯文,請直接回原購買處處理。

※ 禁止任何估價系統的連結、單號、網址數字等等。
※ 相關包含手寫、excel、估價系統的擷圖連結。
※ 購買套裝電腦者,發文及回應請自行打上原廠產品型號。
※ 請勿張貼包含yahoo、pchome、udn、momo、autobuy、燦坤、三井、順發、良興等
   國內網路通路連結。請以文字敘述。
※ 以上只限制於本板相關物品,有爭議者由板務認定。

   菜單文與情報文,禁止任何估價系統連結與擷圖、包含文字估價單號碼。
   (參閱板規1-2-3、1-3-9)
   違反者:刪文、水桶十日。

注意5:為保障您的權益,購物消費請索取統一發票,並盡量以含稅價取貨
注意6:若有任何問題請先洽詢板務。

--
znmkhxrw: 樓上RFG認證的帥哥11/29 23:47
znmkhxrw: 幹 插屁
acer5738G: 樓下才是開實況把妹的juzam11/29 23:47
znmkhxrw: 樓上變態11/29 23:48
acer5738G: 樓下才是變態11/29 23:49
acer5738G: 不對 樓上才是

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.243.37.99 (臺灣)
※ 文章代碼(AID): #1Y0P59ql (PC_Shopping)
※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1644269897.A.D2F.html
arrenwu     : 現在用雲端計算平台不會比較划算嗎?1F 98.45.135.233 美國 02/08 05:57
gamewgs     : XTERME厚度四個卡槽,就算插的進去2F 61.224.158.111 台灣 02/08 06:07
gamewgs     : 兩張貼著散熱應該也不太好
sma1033     : 你應該要用ubuntu吧,你確定12代支4F 1.163.101.233 台灣 02/08 06:14
sma1033     : 援沒問題?
sma1033     : 而且你的記憶體太小了,資料前處理
sma1033     : 很容易爆記憶體
sma1033     : 32g記憶體你可能要load dataset都
sma1033     : 不夠
DEVILFIGHT  : CPU影響不大吧,我以前實驗室那爛U10F 125.228.99.40 台灣 02/08 06:33
DEVILFIGHT  : 都照跑了,RAM拿大一點倒是,電供
DEVILFIGHT  : 我覺得不超頻1300W夠了,怕的話可以
DEVILFIGHT  : 降點壓
fu1vu03     : 還有nvlink要另外買吧14F 223.137.60.57 台灣 02/08 07:17
ScottOAO    : 雲端很盤15F 67.22.22.217 美國 02/08 08:03
ScottOAO    : RAM 插到64 or 128
soulgem     : 有點懷疑店家會甘願給組1CPU+2GPU..17F 140.112.30.35 台灣 02/08 08:20
soulgem     : 的確, RAM 還是該比 VRAM 多.
soulgem     : 雲端是乍看很盤,實際上維運成本不低
yoyololicon : 1300w就夠了 誰跟你x220F 27.242.137.70 台灣 02/08 08:34
soulgem     : 把雲端服務維運視為理所當然很危險.21F 140.112.30.35 台灣 02/08 08:34
yoyololicon : 顯卡沒差吧 都同個晶片22F 27.242.137.70 台灣 02/08 08:35
Merkle      : 1500W就夠了 記憶體太少了 128GB請23F 42.72.45.80 台灣 02/08 08:36
Merkle      : 插滿
meicon5566  : DL我不太熟 有需要用到DDR5嗎?25F 60.249.251.228 台灣 02/08 08:46
yoyololicon : 不用nvlink26F 27.242.137.70 台灣 02/08 08:47
arrenwu     : 我之前閒著沒事去搜尋了一下現在27F 98.45.135.233 美國 02/08 09:06
arrenwu     : 深度學習運算在 on-premise 和
arrenwu     : 雲端服務 的差異
arrenwu     : 感覺很多文章都認為雲端服務較便宜
henrylin8086: CPU的問題是有預算就上去i9,沒預31F 223.139.108.248 台灣 02/08 09:35
henrylin8086: 算依你的想法也不算錯。
as6633208   : 中小工作站用雲端便宜,大工作站還33F 42.72.22.165 台灣 02/08 09:35
as6633208   : 在用雲端就不划算了
tomsawyer   : 分開train不用link吧35F 129.3.138.108 美國 02/08 09:38
bear753951  : 電供怕的話,可以買兩顆1000w的作36F 39.8.9.160 台灣 02/08 09:44
bear753951  : 聯動,不用買單顆2000w的
s3503s      : 兩張塞機殼超燙 記得放機房38F 111.82.26.192 台灣 02/08 09:53
nasa01      : 工作站我覺得I9安全一些39F 61.228.109.191 台灣 02/08 10:10
blackway0226: 別用這電源40F 36.234.193.228 台灣 02/08 10:12
Arbin       : 話說怎麼會想上DDR5?41F 223.141.225.89 台灣 02/08 10:29
Arbin       : 大量運算的話雲端服務是真的頗貴
Arbin       : 偶爾算/算量小CP值的確有出來
henrylin8086: 我們Lab之前用9900K + 雙3090,會44F 223.139.108.248 台灣 02/08 10:48
henrylin8086: 出現太擠3090散熱不良的狀況,你可
henrylin8086: 能要注意一下這個問題,烤甜甜圈沒
henrylin8086: 兩分鐘擋到散熱那一張卡溫度會飛上
henrylin8086: 去
annboy      : 主機板換技嘉 Z690 Aero D49F 111.71.55.144 台灣 02/08 10:53
annboy      : PCIE 間隔4 slots
wonder007   : 直接連絡研華凌華業務報價就好51F 203.66.246.4 台灣 02/08 10:56
wonder007   : 沒事自組工作站幹嘛
xtorker     : 你們有機房 有現成的機架的話 建議53F 61.228.114.191 台灣 02/08 11:13
xtorker     : 直接組機架式的 然後一樣ram請插滿
xtorker     :  ssd容量取決於你們dataset大小
hotlin0709  : 我跑ML, DL都用128g來跑56F 110.28.106.6 台灣 02/08 11:28
a1379       : 這價格直接找廠商吧 不要為了省小錢57F 42.72.203.148 台灣 02/08 11:54
a1379       : 到時候故障叫你自己想辦法
kira60358   : #1SxhRJ80 建議參考前輩的文,另外59F 180.218.139.115 台灣 02/08 12:39
kira60358   : 個人經驗是,在RNN/LSTM情況下GPU沒
kira60358   : 辦法幫你太多,主要loading還是在CP
kira60358   : U上,所以挑i9的高頻cpu有其必要性
kira60358   : ,再者對非gpu類的函式庫的加速也有
kira60358   : 幫助。
kira60358   : 機殼部分實際使用過10900K+3090配FD
kira60358   :  define 7,實際訓練時GPU溫度大概
kira60358   : 是85~90度,雙卡的情況可以想像一下
kira60358   : 。
kira60358   : 另外CPU部分是否真的要使用大小核也
kira60358   : 是個考量點,個人會建議使用全大核
kira60358   : ,減少可能的問題點。
Re: [菜單] 200K深度學習機 - 看板 PC_Shopping - 批踢踢實業坊
原PO後來請廠商報小型工作站是聰明的決定 十萬的單子還上來求建議 表示對硬體的了解度沒有信心 雖然廠商也不一定懂 但讓廠商全權開規格 之後有問題廠商可以協助處理 廠商能除錯的資源還是比個人多些
iplab       : AMD Ryzen Threadripper 3970X72F 111.250.232.155 台灣 02/08 12:57
Ohmy        : 你老闆工作站還要用到RGB…真潮73F 42.73.83.10 台灣 02/08 13:01
lioujeryuan : PSU要TDP加總後乘以2 是看了什麼鬼74F 118.163.2.172 台灣 02/08 14:06
howareuuu   : D5有ECC75F 223.141.3.141 台灣 02/08 16:46

--
※ 看板: PC_Shopping 文章推薦值: 0 目前人氣: 0 累積人氣: 248 
分享網址: 複製 已複製
guest
x)推文 r)回覆 e)編輯 d)刪除 M)收藏 ^x)轉錄 同主題: =)首篇 [)上篇 ])下篇