作者 MARKMARK (馬克)標題 [討論] AI評論魯肉飯會不會很難...時間 Mon Mar 30 06:38:39 2026
https://ithelp.ithome.com.tw/m/questions/10220070
看到有人做了一個魯肉飯評論器
覺得蠻有趣的..
畢竟我自己也蠻喜歡吃的
不過魯肉飯都長一個樣
AI要區分感覺挺難的
很多細節差異,像是肥瘦比例
醬汁顏色、肉燥顆粒大小、油亮程度,甚至配菜等等..
現在的視覺模型不曉得能不能辨別?或是需要fine-tuning,或重新訓練?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.79.37.3 (臺灣)
※ 作者: MARKMARK 2026-03-30 06:38:39
※ 文章代碼(AID): #1foQdoxy (Soft_Job)
※ 文章網址: https://www.ptt.cc/bbs/Soft_Job/M.1774823922.A.EFC.html
→ DrTech: 看要做到多準而已吧。技術都有。不過很多人半桶水而已,例如這個連結,文字相似度用CLIP?如果是 OpenAI 版本的CLIP,不支援中文。很多人跟本亂用。
用import clip 根本搞笑。OpenAI版本的CLIP完全看不懂中文。
這就是我常說的,claude寫的程式碼很有效率。但專業領域一直很爛,日常工作很難用。連CLIP不支持中文都不知道,亂套。然後一堆外行人,還以為自己程式是對的,覺得很好用。1F 03/30 08:35
→ MARKMARK: 看了一下,這個工具用的CLIP好像是圖對圖的KNN比對,我對這塊比較沒研究9F 03/30 09:23
→ DrTech: 對喔,對店家照片。不過CLIP本身就沒有對店家照片這種資料做訓練,embedding出來,幾乎純亂數,算相似度也沒意義。真的要這樣搞。dinov2, dinov3這種學通用特徵的模型比較適合。11F 03/30 10:17
推 holypiggy: 除非訓練資料也都是用同個裝置拍 不然色調那些就無法校正了吧16F 03/30 12:40
→ MARKMARK: 看作者說照片是自己吃飯拍的,感覺資料量不足18F 03/30 13:12
--