Board logo

标题: 搞了几天,终于在24GB内存的Mac Mini M4比较爽地用上本地龙虾了 [打印本页]

作者: lelivre    时间: 2026-3-20 21:21     标题: 搞了几天,终于在24GB内存的Mac Mini M4比较爽地用上本地龙虾了

posted by wap, platform: Android
推理引擎用的是oMLX, 这个目前最快。

本地模型试过了很多个,这个硬件条件下最能用的是:

1. gpt oss 20b 4bit版本,
2. qwen3.5 30b 4bit版本,
3. qwen3.5 9b 4bit版本。

兼顾了速度和质量,还要24GB能装下。

不过我没什么应用场合,感觉有点无聊,不知干啥。




欢迎光临 TGFC Lifestyle (http://bbs.tgfcer.com/) Powered by Discuz! 6.0.0