» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


发新话题
打印

5090 32G这卡你觉得现在值多少钱?

posted by wap, platform: Android
引用:
原帖由 @任天狗  于 2026-5-3 11:47 发表
最近真是有点显存焦虑了。
突然感觉本地跑大模型才是正道,用api等于让别人限制你的能力,尤其是国产api。
算力这玩意变得越来越重要,网上到处都是ai生成的东西,不知道未来能干活的显卡会不会越来越贵,6090出来的时候估计会炒上天。
忍不住了,准备预算3万左右堆算力了。
现在手里的5070Ti在AI时代简直是残疾,都想换主板了。
我找ai问了问支持pcie拆分的主板普遍贵得一B。
还看了一些视频说mac跑qwen27 32这种模型慢得很,只是能让你体验,玩的爽还得是N卡。

其他的大厂居然让英伟达发展到这么嚣张,早干嘛去了,被老黄坑苦了。
本地大模型的能力还是差了很多
我觉得对我而言只能作为玩具…
就算用量化版,能力还是和满血版差了太多
虽然我也没用过5090,但是性能数据都是公开的,也有不少测试的数据了
不是专业人员的话,仅仅只为了部署大模型,我觉得真的不需要考虑5090这种


TOP

posted by wap, platform: Android
引用:
原帖由 @richiter  于 2026-5-4 07:32 发表
我跑本地模型也就搞搞翻译,有个十几g显存够了,全靠云端是真不行,一会这个不让翻一会那个不让翻,喷了
好奇你翻译啥了?



TOP

posted by wap, platform: Android
引用:
原帖由 @richiter  于 2026-5-4 13:44 发表
比如galgame,虽然不影响理解剧情但是很蛋疼,我都花钱买token了还tm管那么宽
之前试了硅基流动的deepseek-r1
用API调用
翻译AV完全没问题


TOP

posted by wap, platform: Android
引用:
原帖由 @richiter  于 2026-5-4 15:19 发表
av?那真还不一定够劲爆,233,当然我也不可能一家家都试过,试了两个不行就算了。
试了试让它写刘备
多劲爆的都能写
可能是提示词的关系?

TOP

发新话题