原帖由 @ppigadvance 于 2026-3-25 02:59 发表 果然来了,我去年就认为肯定会出这种专精AI算力的的大内存设备。拿传统电脑来跑本地模型实际上性价比极低。万把块的设备能跑120B本地模型的话AI实用性又要大增了,尤其对有保密需求的工作。