» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


发新话题
打印

搞了几天,终于在24GB内存的Mac Mini M4比较爽地用上本地龙虾了

posted by wap, platform: Android
推理引擎用的是oMLX, 这个目前最快。

本地模型试过了很多个,这个硬件条件下最能用的是:

1. gpt oss 20b 4bit版本,
2. qwen3.5 30b 4bit版本,
3. qwen3.5 9b 4bit版本。

兼顾了速度和质量,还要24GB能装下。

不过我没什么应用场合,感觉有点无聊,不知干啥。


TOP

posted by wap, platform: Android
8g的m2一样安装,不过基本上闲置了



TOP

千问线上都弱智了,这本地岂不是弱智的跟傻逼一样


TOP

posted by wap, platform: iPhone
这种小模型只能做些基础的重复性的工具使用,不用想去做推理研究和制作。不过本地的智能家居,nas下载管理,本地翻译等轻量级任务应该是可以的。

TOP

posted by wap, platform: Firefox
nas上也就docker pull一下的事情,没花多长时间。
我大部分时间花在飞书推送上了,然后发现其实是我傻了,它自己能解决。
装好就吃灰了,没需求=没啥用

TOP

发新话题