魔神至尊
原帖由 @elia 于 2020-11-26 15:30 发表 买给你和买给矿主,有什么区别呢?矿主还出钱多点呢
查看个人网站
查看详细资料
TOP
魔王撒旦
魔头
原帖由 @铁观音 于 2020-11-26 13:12 发表 问下,CUDA在游戏里起什么作用?
混世魔头
原帖由 elia 于 2020-11-26 15:30 发表 买给你和买给矿主,有什么区别呢?矿主还出钱多点呢
元始天尊
原帖由 去日留痕 于 2020-11-26 15:44 发表 posted by wap, platform: iPhone 矿主用太狠,维修率高?
开黑车的
原帖由 @铁观音 于 2020-11-26 16:18 发表 矿老板我不管,而且矿老板买卡老黄一样赚钱 我说的是炼丹师,那帮人本来应该是去买专业卡或者计算卡的,那东西老黄赚钱狠 我心疼老黄
任地狱门番犬
原帖由 @Shadd 于 2020-11-26 13:20 发表 没错,现在渲染已经大众化娱乐化,很多卖衣服卖首饰的女的都在学视频剪辑和渲染,发微信发抖音招揽顾客
初级用户
原帖由 ylara 于 2020-11-26 16:15 发表 posted by wap, platform: iPad 物理模拟,DLSS。
原帖由 @Jonsoncao 于 2020-11-27 12:26 发表 实际上生成网格,着色,光栅化等等大规模的小矩阵向量乘法都是由CUDA核心完成的 tensor核心对更大尺寸的矩阵向量16位浮点的运算更快更有效率,所以游戏里面一般负责后处理(DLSS) tensor核心出现后现在训练大型模型可以用所谓的mixed precision爽死了,模型的参数是用FP32存,但是训练求导数用FP16,而且主流软件包都是自动mixed precision不用你调底层API爽歪歪(我用这个https://pytorch.org/docs/master/amp.html)。
原帖由 ylara 于 2020-11-27 16:35 发表 posted by wap, platform: iPhone 我tf 用fp16遇到过frozen weights,估计是numerical issue导致梯度算不出。
原帖由 @Jonsoncao 于 2020-11-27 23:49 发表 如果是tf底层有问题算梯度炸掉了,提供几个比较低效率的暴力的解决办法 每个epoch都存model checkpoint,然后手工写一个梯度norm的callback,大于某个值就触发callback 换回FP32练一个epoch(没用过tf的mixed precision,不知道是不是像pt那样方便切换,amp封装得很好,可以用decorator直接放在模型外面而不用人肉改dtype一类) 如果依然炸了,多半模型有问题。 如果是CNN,先load一个train到比较好的模型,可以试验下freeze前面几层负责feature extraction的层的weights,只用FP16练接近输出的层; 一层一层的往回试验直到把dense的层试验完,哪一层爆了就在那里加一点dropout和batchnorm再试验。 当然这样比较折腾还不如直接FP32,基于RNN的模型(LSTM,GRU或者transformer)都不建议用FP16,因为loss的landscape太陡峭了,FP32练很多模型都需要warmup phase,练好之后很多weights都是10^{7},10^{8}量级的,FP16没法resolve。 个人经验是FP16很适合帮smooth的loss在开始阶段跳出不好的local minimum和saddle point,不用人肉去想learning rate scheduler应该怎么设。
原帖由 ylara 于 2020-11-28 05:06 发表 posted by wap, platform: iPhone Thanks! 话说回来,你最近除了kaggle还在搞哪些dl的研究?我最近在搞些nerf和detr的东西...
原帖由 @Jonsoncao 于 2020-11-28 10:06 发表 最近在憋一个大招,用spectralbased GCN解PDE……
原帖由 ylara 于 2020-11-28 11:19 发表 posted by wap, platform: iPad 太强了,我这种数学不好的只能玩玩应用层面的