魔神至尊
O_O
查看详细资料
TOP
魔王撒旦
原帖由 @richiter 于 2026-5-3 05:37 发表 jd现货都卖到4w了,真特么神奇
原帖由 @第七日魔人 于 2026-5-3 04:46 发表 本地大模型的能力还是差了很多 我觉得对我而言只能作为玩具… 就算用量化版,能力还是和满血版差了太多 虽然我也没用过5090,但是性能数据都是公开的,也有不少测试的数据了 不是专业人员的话,仅仅只为了部署大模型,我觉得真的不需要考虑5090这种
原帖由 @九阴玄女 于 2026-5-3 04:20 发表 前天不是intel发了B70,万元以内的32G,还能四卡互联
魔头
禁止访问
红房子
混世魔头
原帖由 @richiter 于 2026-5-4 07:32 发表 我跑本地模型也就搞搞翻译,有个十几g显存够了,全靠云端是真不行,一会这个不让翻一会那个不让翻,喷了
原帖由 @第七日魔人 于 2026-5-4 11:13 发表 好奇你翻译啥了?
原帖由 @richiter 于 2026-5-4 13:44 发表 比如galgame,虽然不影响理解剧情但是很蛋疼,我都花钱买token了还tm管那么宽
原帖由 @第七日魔人 于 2026-5-4 15:14 发表 之前试了硅基流动的deepseekr1 用API调用 翻译AV完全没问题
原帖由 @richiter 于 2026-5-4 15:19 发表 av?那真还不一定够劲爆,233,当然我也不可能一家家都试过,试了两个不行就算了。
原帖由 九阴玄女 于 2026-5-3 12:20 发表 posted by wap, platform: 小米 前天不是intel发了B70,万元以内的32G,还能四卡互联
原帖由 任天狗 于 2026-5-3 11:47 发表 posted by wap, platform: iPhone 最近真是有点显存焦虑了。 突然感觉本地跑大模型才是正道,用api等于让别人限制你的能力,尤其是国产api。 算力这玩意变得越来越重要,网上到处都是ai生成的东西,不知道未来能干 ...