→ otosaka: 要64G怎麼不組126K+DDR4 42.72.140.224 06/25 15:43
您是說intel 12600K嗎? 我不知道AMD的差異,當然也可以換
→ otosaka: 然後你說鎖定4070 結果買4070S..? 42.72.140.224 06/25 15:44
→ otosaka: 跑AI不買大VRAM的4060ti 16G嗎 42.72.140.224 06/25 15:44
回o大,因為以TFLOPS數據來看,跑LLM方面,4070還是比4060系列好一點
請參考國外網站比較
https://reurl.cc/ezlZoj
→ otosaka: 要64G怎麼不組126K+DDR4 42.72.140.224 06/25 15:43
→ otosaka: 然後你說鎖定4070 結果買4070S..? 42.72.140.224 06/25 15:44
→ otosaka: 跑AI不買大VRAM的4060ti 16G嗎 42.72.140.224 06/25 15:44
→ Zenryaku: 要大ram去組ddr4吧,現在d5 64g太貴 27.242.161.33 06/25 15:54
→ Zenryaku: 顯卡挑五年保的 27.242.161.33 06/25 15:55
→ Zenryaku: 記憶體價錢少一半 你顯卡可以上super 27.242.161.33 06/25 15:57
→ Zenryaku: AM5不能用ddr4 所以要換intel 27.242.161.33 06/25 15:57
→ otosaka: 70/70S跑起來一定比4060ti強 但VRAM不夠 42.72.140.224 06/25 15:59
→ otosaka: 就是不夠 42.72.140.224 06/25 15:59
推 RoarLiao: 哥,llama3:8b 就要16G vram 61.216.44.21 06/25 16:01
→ RoarLiao: 您跑LLM 要直接略過llama3 嗎? 61.216.44.21 06/25 16:01
→ RoarLiao: 像上面o大說的,這不是速度問題是門檻 61.216.44.21 06/25 16:02
→ chocoball: 我的怎麼才4.7gb.. 112.78.83.42 06/25 16:03
→ RoarLiao: 還是您先買4070s 然後發現跑不動了 61.216.44.21 06/25 16:03
→ RoarLiao: 我去二手版等您xd 61.216.44.21 06/25 16:03
推 RoarLiao: 樓上c大,您試試在ollama 下這個指令 61.216.44.21 06/25 16:12
→ RoarLiao: ollama run llama3:8b-text-fp16 61.216.44.21 06/25 16:12
→ RoarLiao: 看還是不是 4.7gb 61.216.44.21 06/25 16:12
推 bighta83330: VRAM不夠的情況你模型放不進去效能再 118.163.153.95 06/25 16:18
→ bighta83330: 好都白搭吧 除非你要調整精度 118.163.153.95 06/25 16:18
推 abc0922001: 我4060Ti-16G有試 llama3,超~~慢的 203.66.179.162 06/25 16:36
→ abc0922001: 所以現在還是繼續用ChatGPT= = 203.66.179.162 06/25 16:37
噓 kaltu: 跑車速度肯定比卡車快,但你貨物放不進去有 100.8.245.106 06/26 06:50
→ kaltu: 屁用 100.8.245.106 06/26 06:50