作者 zczcgery (水藍藍)
標題 [請益] 顯卡挑選
時間 Fri Mar 22 14:18:03 2024


各位前輩好,因為最近在學習 Stable Diffuion AI繪圖

常常都會出現
NansException: A tensor with all NaNs was produced in Unet. This could be
either because there's not enough precision to represent the picture, or
because your video card does not support half type. Try setting the "Upcast
cross attention layer to float32" option in Settings > Stable Diffusion or
using the --no-half commandline argument to fix this. Use --disable-nan-check
commandline argument to disable this check.


半浮點出現問題這個訊息 我研究後覺得是顯卡問題 (顯卡是1660Ti) 配備不夠

所以想要換一張顯卡,預算是10K左右
不知道3060ti 8gb就夠了 還是捏一下上4060比較好呢
我本身主機板和CPU是C6H+3600X

謝謝各位先進

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.9.117.158 (臺灣)
※ 作者: zczcgery 2024-03-22 14:18:03
※ 文章代碼(AID): #1b_IATIv (PC_Shopping)
※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1711088285.A.4B9.html
jasn4560: 捏到16G的4060Ti吧 這需求VRAM大小頗重1F 49.228.253.155 泰國 03/22 14:21
大大我能請教您一下,那個半浮點的問題真的是顯示卡的因素嗎?還是我設定錯了,
1660ti好像無法處理半浮點,謝謝
※ 編輯: zczcgery (101.9.117.158 臺灣), 03/22/2024 14:24:02
cancelpc: 顯示卡的浮點數通常只有半精確度
因為圖像不需那麼精確2F 118.167.145.26 台灣 03/22 14:47
kobe8112: 所以你照錯誤訊息改過參數/設定再試嗎4F 36.230.93.11 台灣 03/22 14:47
cancelpc: 反倒A卡之前AMD認為CPU常用整數,浮點給顯卡負責,所以A顯卡提供高精度浮點單元導致A效能通常輸N卡
参数--medvram和降低分辨率
把VAE關了或改為自動5F 118.167.145.26 台灣 03/22 14:48
abc21086999: 預算這麼低怎麼還想要自己跑10F 61.222.131.212 台灣 03/22 14:57
zczcgery: 我現在是用 --no-half,想先學習,等之慢慢提升配備11F 101.9.117.158 台灣 03/22 14:59
fatfatgigi: 可以改用forge,硬體需求大大降低13F 118.163.224.211 台灣 03/22 15:11
zczcgery: forge第一次聽到 我等下去學習看看,話xformer一定要裝嗎.好像有人不推14F 101.9.117.158 台灣 03/22 15:20
jan58912: 你別在問下去了,會有人來噓16F 223.137.40.83 台灣 03/22 15:23
liknacamgal: 要問去AI_ART板吧,來這裡買新的,低預算買3060 12g17F 42.78.27.182 台灣 03/22 15:26
zczcgery: 好的謝謝各位先進,因為剛學習,知道了19F 101.9.117.141 台灣 03/22 15:29
promaster: 4090捏下去 xformer 不用裝20F 114.43.75.15 台灣 03/22 15:36
Zenryaku: 兩張都8g vram有啥差 都跑不了
12G入門 16G最好
越大越好21F 27.242.224.207 台灣 03/22 15:56
soulgem: 裝一片顯卡不夠就裝兩片解決 (XXXXX)24F 140.112.30.188 台灣 03/22 16:04
Allen0315:     VRAM越大越好 最好找16GB起跳25F 220.141.128.225 台灣 03/22 16:10
oopFoo: https://reurl.cc/WRnr1D
1660好像tensor core的fp16有點問題。
你就加"--no-half"。可以跑,就圖小一點10k就推薦3060 12G。雖然想推薦Arc a770但沒能力處理問題的話就不要冒險了
跑ai就是ram越大麻煩越少26F 111.248.107.41 台灣 03/22 17:09
FP16 inference with Cuda 11.1 returns NaN on Nvidia GTX 1660 ·  Issue #58123 ·  pytorch/pytorch ·  GitHub
[圖]
🐛 Bug Half precision inference returns NaNs for a number of models when run on a 1660 with Cuda 11.1 To Reproduce import torch import urllib from PIL  ...

 
Dcpp2015: 3060 12G或者4060TI 16G。32F 36.238.84.135 台灣 03/22 19:49
pigman1331: 跑ai 有關的顯存越大越好,8g不太夠33F 223.137.66.230 台灣 03/22 20:15
alex01: 看誰的顯存大就選哪個,預算內找個最大的,晶片至少3060ti以上的,效能往下不考慮34F 111.250.49.169 台灣 03/22 20:42
dos01: 但3060TI要往上也就4060TI了吧
往下3060 12G還能說是窮人的選擇 真的捏不上去也不是不能選36F 182.155.78.98 台灣 03/23 00:18

--