» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


发新话题
打印

[电脑] 喷了,64G内存的确是刚刚够用

开始觉得多了因为3090显存毕竟只有24G,再大的batch也不会把内存撑爆

最近因为圣诞去亲戚家只有一个小笔记本,kaggle的白嫖Xeon+P100只有16G内存,colab类似,有一个AI在线教育的大比赛我12月之前一直在搞目标金牌(现在看来自己之前的模型变baseline银牌都悬)
结果发现云端的白嫖完全无法满足计算需求……

把模型先prototype好回家跑,结果发现幸好有64G

可以一个gradient boosting来个1亿行的数据,再用小batch在GPU上训练网络,还可以再来个CLI中间导出数据 233max

以后别人装机我再也不推荐32G内存了,128G起跳
附件: 您所在的用户组无法下载或查看附件


TOP

引用:
原帖由 kalberte 于 2021-1-7 09:42 发表
posted by wap, platform: Chrome
同觉得看不出发帖的点在哪里,我自己都是在公司的服务器集群上跑模型训练,个人电脑干这些怎么配都拉跨
多个GPU配置得好rollout当然在集群上跑爽,但是prototyping,eda,debug当然是在自己的vscode上跑爽,特别需要自己写很多模块没法用现成的code的情况

比如在kaggle打比赛,这次还有一天截止的的模拟AI老师的比赛自己一个transformer的模型训练为了模拟kaggle给的提交答案的API写了一千多行的train loader来穷尽在EDA里面看到的各种情况,然后validation和test的class各不相同非常精巧
很难想象需要随时checkpoint在远程UI拉胯,不能写json来debug的时候怎样确保这些模型是训练正确了的

玩kaggle绝对是用个人电脑最爽。



TOP

引用:
原帖由 wzjxq 于 2021-1-7 11:00 发表
posted by wap, platform: 小米 红米
这有什么值得发帖的,这么需要存在感吗
个人家用关心这玩意儿干嘛
是的,圣诞憋坏了,发帖找存在感,如果妨碍到你了不好意思哦


TOP

发新话题
     
官方公众号及微博