Board logo

标题: [电脑] 老黄为啥不阉掉游戏显卡的生产力性能呢? [打印本页]

作者: 铁观音    时间: 2020-11-26 11:53     标题: 老黄为啥不阉掉游戏显卡的生产力性能呢?

搞得那么多炼丹师来抢游戏卡,岂不是断了自己利润丰厚超级溢价的专业卡销路?
我身为一个臭打游戏的替老黄着急啊
作者: shinsuke    时间: 2020-11-26 12:08

posted by wap, platform: iPhone
哈哈哈
作者: Paradoges    时间: 2020-11-26 12:29

先不提可不可行,为啥缺货就要矿老板和炼丹师背锅,必须要有一个巫妖王吗
作者: yfl2    时间: 2020-11-26 12:32

posted by wap, platform: Samsung
实际就是细分定价,真的高端用户还是买专业卡,还可以维持高价,普通用户不会买那么贵的,就留个后门,类似优惠券
作者: defer    时间: 2020-11-26 12:41

卖给穷学生让你上车,和教育折扣一个道理。
作者: Shadd    时间: 2020-11-26 13:01

RTX8000?
现在很多专业软件都转向游戏卡的利用。比如creo,比如Octain,帮大家省了一大笔钱,还能光明正大入手顶级游戏卡,简直菩萨心肠
作者: 临界质量    时间: 2020-11-26 13:06

posted by wap, platform: Chrome
怎么可能,没有cuda运算那谁还买n卡
作者: 铁观音    时间: 2020-11-26 13:12

引用:
原帖由 临界质量 于 2020-11-26 13:06 发表
posted by wap, platform: Chrome
怎么可能,没有cuda运算那谁还买n卡
问下,CUDA在游戏里起什么作用?
作者: manvvvv    时间: 2020-11-26 13:16

谁告诉你显卡只是用来玩游戏的?现在自媒体UP主标配N卡剪片子,需求不要太旺盛。
作者: Shadd    时间: 2020-11-26 13:20

没错,现在渲染已经大众化娱乐化,很多卖衣服卖首饰的女的都在学视频剪辑和渲染,发微信发抖音招揽顾客
作者: 临界质量    时间: 2020-11-26 13:28

posted by wap, platform: Chrome
引用:
原帖由 @铁观音  于 2020-11-26 13:12 发表
问下,CUDA在游戏里起什么作用?
不怎么玩游戏,不过gpu渲染都得靠这玩意,玩游戏的话n卡a卡应该没啥区别
作者: realsquall    时间: 2020-11-26 13:43

现在一张显卡都要6000了,呵呵。。。
1060,1070那会儿上市时候价格是多少?
作者: Wbird    时间: 2020-11-26 15:24

posted by wap, platform: iPhone
玩游戏买A卡不好么?
作者: manvvvv    时间: 2020-11-26 15:26

引用:
原帖由 Wbird 于 2020-11-26 03:24 PM 发表
posted by wap, platform: iPhone
玩游戏买A卡不好么?
A卡可是挖矿的祖宗。。。
作者: elia    时间: 2020-11-26 15:30

买给你和买给矿主,有什么区别呢?矿主还出钱多点呢
作者: 去日留痕    时间: 2020-11-26 15:44

posted by wap, platform: iPhone
引用:
原帖由 @elia  于 2020-11-26 15:30 发表
买给你和买给矿主,有什么区别呢?矿主还出钱多点呢
矿主用太狠,维修率高?
作者: 來福時代    时间: 2020-11-26 15:46

posted by wap, platform: iPhone
成本不划算呗,矿市经常崩掉怎么办
作者: ylara    时间: 2020-11-26 16:15

posted by wap, platform: iPad
引用:
原帖由 @铁观音  于 2020-11-26 13:12 发表
问下,CUDA在游戏里起什么作用?
物理模拟,DLSS。
作者: 铁观音    时间: 2020-11-26 16:18

引用:
原帖由 elia 于 2020-11-26 15:30 发表
买给你和买给矿主,有什么区别呢?矿主还出钱多点呢
矿老板我不管,而且矿老板买卡老黄一样赚钱
我说的是炼丹师,那帮人本来应该是去买专业卡或者计算卡的,那东西老黄赚钱狠
我心疼老黄
作者: arex    时间: 2020-11-26 16:35

引用:
原帖由 去日留痕 于 2020-11-26 15:44 发表
posted by wap, platform: iPhone
矿主用太狠,维修率高?
基本都是保修半年的
作者: Wbird    时间: 2020-11-27 10:52

posted by wap, platform: iPhone
引用:
原帖由 @铁观音  于 2020-11-26 16:18 发表
矿老板我不管,而且矿老板买卡老黄一样赚钱
我说的是炼丹师,那帮人本来应该是去买专业卡或者计算卡的,那东西老黄赚钱狠
我心疼老黄
学生还有自费的怎么办?

现在这样等于变相补贴,降低门槛
万一炼丹失败还可以玩游戏,多么人性化!

商用的卖授权,老黄数钱数到手抽筋
作者: gunsou    时间: 2020-11-27 11:43

posted by wap, platform: Android
引用:
原帖由 @Shadd  于 2020-11-26 13:20 发表
没错,现在渲染已经大众化娱乐化,很多卖衣服卖首饰的女的都在学视频剪辑和渲染,发微信发抖音招揽顾客
不不不后面这些需求剪映足矣…
作者: Jonsoncao    时间: 2020-11-27 12:26

引用:
原帖由 ylara 于 2020-11-26 16:15 发表
posted by wap, platform: iPad
物理模拟,DLSS。
实际上生成网格,着色,光栅化等等大规模的小矩阵向量乘法都是由CUDA核心完成的

tensor核心对更大尺寸的矩阵向量16位浮点的运算更快更有效率,所以游戏里面一般负责后处理(DLSS)

tensor核心出现后现在训练大型模型可以用所谓的mixed precision爽死了,模型的参数是用FP32存,但是训练求导数用FP16,而且主流软件包都是自动mixed precision不用你调底层API爽歪歪(我用这个https://pytorch.org/docs/master/amp.html)。
作者: ylara    时间: 2020-11-27 16:35

posted by wap, platform: iPhone
引用:
原帖由 @Jonsoncao  于 2020-11-27 12:26 发表
实际上生成网格,着色,光栅化等等大规模的小矩阵向量乘法都是由CUDA核心完成的

tensor核心对更大尺寸的矩阵向量16位浮点的运算更快更有效率,所以游戏里面一般负责后处理(DLSS)

tensor核心出现后现在训练大型模型可以用所谓的mixed precision爽死了,模型的参数是用FP32存,但是训练求导数用FP16,而且主流软件包都是自动mixed precision不用你调底层API爽歪歪(我用这个https://pytorch.org/docs/master/amp.html)。
我tf 用fp16遇到过frozen weights,估计是numerical issue导致梯度算不出。
作者: Jonsoncao    时间: 2020-11-27 23:49

引用:
原帖由 ylara 于 2020-11-27 16:35 发表
posted by wap, platform: iPhone
我tf 用fp16遇到过frozen weights,估计是numerical issue导致梯度算不出。
如果是tf底层有问题算梯度炸掉了,提供几个比较低效率的暴力的解决办法

每个epoch都存model checkpoint,然后手工写一个梯度norm的callback,大于某个值就触发callback
换回FP32练一个epoch(没用过tf的mixed precision,不知道是不是像pt那样方便切换,amp封装得很好,可以用decorator直接放在模型外面而不用人肉改dtype一类)
如果依然炸了,多半模型有问题。

如果是CNN,先load一个train到比较好的模型,可以试验下freeze前面几层负责feature extraction的层的weights,只用FP16练接近输出的层;
一层一层的往回试验直到把dense的层试验完,哪一层爆了就在那里加一点dropout和batchnorm再试验。

当然这样比较折腾还不如直接FP32,基于RNN的模型(LSTM,GRU或者transformer)都不建议用FP16,因为loss的landscape太陡峭了,FP32练很多模型都需要warmup phase,练好之后很多weights都是10^{-7},10^{-8}量级的,FP16没法resolve。
个人经验是FP16很适合帮smooth的loss在开始阶段跳出不好的local minimum和saddle point,不用人肉去想learning rate scheduler应该怎么设。
作者: ylara    时间: 2020-11-28 05:06

posted by wap, platform: iPhone
引用:
原帖由 @Jonsoncao  于 2020-11-27 23:49 发表
如果是tf底层有问题算梯度炸掉了,提供几个比较低效率的暴力的解决办法

每个epoch都存model checkpoint,然后手工写一个梯度norm的callback,大于某个值就触发callback
换回FP32练一个epoch(没用过tf的mixed precision,不知道是不是像pt那样方便切换,amp封装得很好,可以用decorator直接放在模型外面而不用人肉改dtype一类)
如果依然炸了,多半模型有问题。

如果是CNN,先load一个train到比较好的模型,可以试验下freeze前面几层负责feature extraction的层的weights,只用FP16练接近输出的层;
一层一层的往回试验直到把dense的层试验完,哪一层爆了就在那里加一点dropout和batchnorm再试验。

当然这样比较折腾还不如直接FP32,基于RNN的模型(LSTM,GRU或者transformer)都不建议用FP16,因为loss的landscape太陡峭了,FP32练很多模型都需要warmup phase,练好之后很多weights都是10^{7},10^{8}量级的,FP16没法resolve。
个人经验是FP16很适合帮smooth的loss在开始阶段跳出不好的local minimum和saddle point,不用人肉去想learning rate scheduler应该怎么设。
Thanks! 话说回来,你最近除了kaggle还在搞哪些dl的研究?我最近在搞些nerf和detr的东西...
作者: Jonsoncao    时间: 2020-11-28 10:06

引用:
原帖由 ylara 于 2020-11-28 05:06 发表
posted by wap, platform: iPhone
Thanks! 话说回来,你最近除了kaggle还在搞哪些dl的研究?我最近在搞些nerf和detr的东西...
最近在憋一个大招,用spectral-based GCN解PDE……
作者: ylara    时间: 2020-11-28 11:19

posted by wap, platform: iPad
引用:
原帖由 @Jonsoncao  于 2020-11-28 10:06 发表
最近在憋一个大招,用spectralbased GCN解PDE……
太强了,我这种数学不好的只能玩玩应用层面的
作者: Jonsoncao    时间: 2020-11-28 23:15

引用:
原帖由 ylara 于 2020-11-28 11:19 发表
posted by wap, platform: iPad
太强了,我这种数学不好的只能玩玩应用层面的
共勉!
作者: hisame    时间: 2020-11-29 22:33

posted by wap, platform: 小米NOTE
老黄就是要让市场认可高价
作者: hftrrt    时间: 2020-11-29 23:11

引用:
原帖由 elia 于 2020-11-26 15:30 发表
买给你和买给矿主,有什么区别呢?矿主还出钱多点呢
Posted by Xiaomi MIX 2
矿主狠艹的情况下,保修期内弄坏4,5张显卡很正常
作者: 億万千    时间: 2020-11-30 12:48

posted by wap, platform: Samsung
引用:
原帖由 @铁观音  于 2020-11-26 16:18 发表
矿老板我不管,而且矿老板买卡老黄一样赚钱
我说的是炼丹师,那帮人本来应该是去买专业卡或者计算卡的,那东西老黄赚钱狠
我心疼老黄
正经企业用的都是专业卡
游戏卡一般是个人(学生)/科研用途,等于教育优惠了




欢迎光临 TGFC Lifestyle (http://bbs.tgfcer.com/) Powered by Discuz! 6.0.0