小侠
查看详细资料
TOP
大侠
魔王撒旦
银河飞将
原帖由 @zhufigo 于 2026-3-21 04:32 PM 发表 只有9B那个能跑。前两个模型龙虾很容易内存爆掉,KV CACHE太大
混世魔头
大日本帝国真是了不起啊
魔头
魔神至尊
原帖由 @dzgxg 于 2026-3-21 05:56 PM 发表 我是16g的m1 imac,用ollama接入openclaw的话,基本所有模型都属于不可用的水平,响应极慢甚至一直不响应,前两天试了omlx,感觉更慢,按说应该是比ollama好一些,但确实也是不可用的水平,不过毕竟是很老的电脑了。配置低的话可以用模型跑一些不接入前端的本地任务,24g的话没试过,感觉响应速度能接受的话也行,我拿qwen3:8b接龙虾写过一些脚本,没有问题,如果是接openwebui的话,其实响应速度确实要快很多
原帖由 @lelivre 于 2026-3-21 18:46 发表 是这样的, 首先M1确实比M4慢很多, 然后就是模型选择,GPT OSS 20b和Qwen3.5 35B A3b这种MOE模型,每次只有3b左右的激活参数,所以会比8b、9b这种密集模型要快很多。3b vs 9b这样。