魔头
原帖由 @任天狗 于 2026-5-3 11:47 发表 最近真是有点显存焦虑了。 突然感觉本地跑大模型才是正道,用api等于让别人限制你的能力,尤其是国产api。 算力这玩意变得越来越重要,网上到处都是ai生成的东西,不知道未来能干活的显卡会不会越来越贵,6090出来的时候估计会炒上天。 忍不住了,准备预算3万左右堆算力了。 现在手里的5070Ti在AI时代简直是残疾,都想换主板了。 我找ai问了问支持pcie拆分的主板普遍贵得一B。 还看了一些视频说mac跑qwen27 32这种模型慢得很,只是能让你体验,玩的爽还得是N卡。 其他的大厂居然让英伟达发展到这么嚣张,早干嘛去了,被老黄坑苦了。
查看详细资料
TOP
原帖由 @richiter 于 2026-5-4 07:32 发表 我跑本地模型也就搞搞翻译,有个十几g显存够了,全靠云端是真不行,一会这个不让翻一会那个不让翻,喷了
原帖由 @richiter 于 2026-5-4 13:44 发表 比如galgame,虽然不影响理解剧情但是很蛋疼,我都花钱买token了还tm管那么宽
原帖由 @richiter 于 2026-5-4 15:19 发表 av?那真还不一定够劲爆,233,当然我也不可能一家家都试过,试了两个不行就算了。