»
首页
|
手机数码
|
汽车资讯
|
游戏硬件
|
评测专题
|
求职招聘
|
广告联系
» 您尚未登录:请
登录
|
注册
|
标签
|
帮助
|
小黑屋
|
TGFC Lifestyle
»
完全数码讨论区
» 搞了几天,终于在24GB内存的Mac Mini M4比较爽地用上本地龙虾了
发新话题
发布投票
发布商品
发布悬赏
发布活动
发布辩论
发布视频
打印
搞了几天,终于在24GB内存的Mac Mini M4比较爽地用上本地龙虾了
lelivre
小侠
帖子
122
精华
0
积分
139
激骚
0 度
爱车
主机
相机
手机
注册时间
2025-3-4
发短消息
加为好友
当前离线
1
#
大
中
小
发表于 2026-3-20 21:21
只看该作者
posted by wap, platform: Android
推理引擎用的是oMLX, 这个目前最快。
本地模型试过了很多个,这个硬件条件下最能用的是:
1. gpt oss 20b 4bit版本,
2. qwen3.5 30b 4bit版本,
3. qwen3.5 9b 4bit版本。
兼顾了速度和质量,还要24GB能装下。
不过我没什么应用场合,感觉有点无聊,不知干啥。
UID
252398
帖子
122
精华
0
积分
139
交易积分
0
阅读权限
10
在线时间
393 小时
注册时间
2025-3-4
最后登录
2026-3-20
查看详细资料
TOP
控制面板首页
密码修改
积分交易
积分记录
公众用户组
基本概况
版块排行
主题排行
发帖排行
积分排行
交易排行
在线时间
管理团队
管理统计