» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


发新话题
打印

AMD RDNA2系列显卡配置泄漏了,看来PS5显卡频率也不算激进

posted by wap, platform: Android
引用:
原帖由 @ppkkhh  于 2020-9-27 15:37 发表
目前得到的消息,不一定准。如果ps5不是rdna2那xsx那个也不能叫rdna2。
主要是ps5的gpu比xsx的少了不少rdna2上的新特性,ps5不支持vrs和Mesh Shader,这两个是rdna2的重要新特性,ps5把这个给阉了。


TOP

posted by wap, platform: Android
引用:
原帖由 @lakins  于 2020-9-27 17:37 发表
这两个没啥鸟用,前者损失质量,后者有一万种方法可以实现,ue5的nanite就是完全以computer shader的方式实现,效果比mesh shader高多了
你说没用就没用吧,论坛大神比amd更懂显卡系列。



TOP

posted by wap, platform: Android
引用:
原帖由 @ppkkhh  于 2020-9-27 18:10 发表
这是ati吧的人发的东西,我也不是真懂技术,你可以看一看。我认为不支持vrs和mesh shader是dx12u的原因。并不是amd给两个主机的gpu真的不一样。

“第二是支持的特性方面
其实AMD说是两家都是RDNA2,理论上不会有什么区别,但是最近看到有人拿Primitive Shader和Mesh Shader来说事,所以想说一下,其实这两个可能就只是一个名字上的区别而已。众所周知,AMD从Vega这代开始,率先动手对GPU的前端进行改革,引入了Primitive Shader,虽然因为BUG,最终没有实现应有的功能,但是在Navi修补好之后,给Navi的前端性能带来了大幅的提升。同时期Nvidia也引入了功能类似,但更加先进的Mesh Shader,与同时期的Primitive Shader相比,最大的不同点是,Mesh Shader有一套完整的API供程序员使用,而Primitive Shader只能由驱动生成,无法让程序员控制。在此之后Mesh Shader被纳入DX12U的标准,AMD也说会在RDNA2提供支持。那么问题就来了,微软说XSX支持Mesh Shader,这个顺理成章,而SONY之说了Primitive Shader,是不是SONY的就要搓一些?我认为不是,原生的Primitive Shader没有接口给程序员用,SONY这个显然已经是改进过的版本了,为程序员提供了接口,而且同一个架构,没有理由说为类似的API非要限制什么功能。”
Primitive Shader是Mesh Shader的子集,还是不一样的东西。vrs也是没有的。别的不说了,以sony的性子,被大家这么议论,如果真的是被冤枉的,早就跳出来说了,一句话没说,就能说明问题了。

本帖最后由 waller 于 2020-9-27 19:15 通过手机版编辑


TOP

posted by wap, platform: Android
引用:
原帖由 @yfl2  于 2020-9-28 19:06 发表
台式机1066功耗比笔记本1080大吧,应该没人说是超频

本帖最后由 yfl2 于 2020928 19:07 通过手机版编辑
所谓超频,说的就是功耗提升和性能提升不成正比,超过能耗比甜区,达到边际效应区了,这个问题还有必要来胡搅蛮缠么?

TOP

posted by wap, platform: Android
引用:
原帖由 @yfl2  于 2020-9-28 20:13 发表
所以如果本帖为真,amd的新显卡都超频了?

什么桌面高端显卡是在功耗甜点区预设频率的?你拿到手就算增加40趴功耗,增加20性能,你不干?

本帖最后由 yfl2 于 2020928 20:16 通过手机版编辑
等卡出来再说吧,而且如果真的是这个频率,又是这个功耗,那不就反证了ps5用得不是rdna2么?

TOP

posted by wap, platform: Android
引用:
原帖由 @yfl2  于 2020-9-28 20:13 发表
所以如果本帖为真,amd的新显卡都超频了?

什么桌面高端显卡是在功耗甜点区预设频率的?你拿到手就算增加40趴功耗,增加20性能,你不干?

本帖最后由 yfl2 于 2020928 20:16 通过手机版编辑
不是我干不干的问题,我当然干,只要我的电源散热跟得上。但是现在是大法把从核心剩下的钱放在了散热上,得不偿失,所以问题的根源是有限的成本怎么使用合理的问题。

TOP

posted by wap, platform: Android
引用:
原帖由 @yfl2  于 2020-9-28 20:21 发表
你的意思是,xsx 也对不上,所以也反证不是rdna 2?
xsx300w,ps5 350w,你说呢?

TOP

posted by wap, platform: Android
引用:
原帖由 @yfl2  于 2020-9-28 20:23 发表
是不是得不偿失,需要实际散热和芯片制造成本

你怎么不说3080功耗大,散热成本高,不如增加芯片面积降低频率,成本反而可能更低?
你老扯别的卡干嘛?我就说xsx ps5,这两个比。ps5的设计对比xsx是不是得不偿失?

TOP

posted by wap, platform: Android
引用:
原帖由 @yfl2  于 2020-9-28 21:05 发表
我不知道,奇怪的是你为什么能知道?
你知道ps5的soc成本和xsx的差多少?散热电源又差多少?
不知道的情况下,怎么比较?
业内不是爆料了么?

TOP

posted by wap, platform: Android
引用:
原帖由 @yfl2  于 2020-9-28 21:06 发表
对啊...
实际上 ps5和xsx的功耗差异倒是比较像一个系列
反观楼主贴的,xsx频率低那么多,最后功耗反而不比80 cu的高配卡低?
这么算吧,300w的电源,打个85折,实际可用255w,高速ssd按高了算10w,光驱5w,gddr6我知道非常耗电,刨去高速显存的不算,低速那些算20w,cpu 按65w算,gpu剩下只有155w不多啊?同样ps5 350w打个85折,别的都一样,cpu因为频率低,加上动态功率调节,算50w,那gpu还剩202w,高出很多了。

本帖最后由 waller 于 2020-9-28 21:26 通过手机版编辑

TOP

posted by wap, platform: Android
引用:
原帖由 @yfl2  于 2020-9-28 21:23 发表
对啊,因为ps5 频率高,不是正好是一个系列的表现么...
不不不,我回的是你说xsx不符合rdna2的爆料的功耗这句话

TOP

posted by wap, platform: Android
引用:
原帖由 @yfl2  于 2020-9-28 21:27 发表
ps5和xsx要么同时符合,要么同时不符合,有啥不好理解么?
你自己之前说因为ps5拉频率导致功耗比xsx高,现在又忘了?
难道你想说的是,如果ps5和xsx架构一样,即使频率差那么多,功耗也不应该比xsx高?
按那个推算法,xsx 12t 52cu 155w,ps5 36cu 10t 200w,爆料是Navi22 40CU,2.5GHz, 170W,哪个很接近一目了然啊?ps5频率和cu数都不如,功耗还更高。xsx cu多了12组,频率降了,总功耗低15w,怎么看怎么合理啊?

TOP

posted by wap, platform: Android
引用:
原帖由 @mushroom  于 2020-9-28 21:33 发表
https://youtu.be/9Fv5CovLh_s?t=505
XSX额定功率275w,算上电源转换效率、蓝光光驱、SSD、CPU、VRM,GPU上最终能有180w功耗就到顶了,这个包括显存和GPU的VRM。
这个应该是降频降压了用的。
如果额定只有275,那gpu能用的更少了,绝对没有180w。高速ssd,gddr6都不省电的,cpu又是8核,3.8g恒定的。

TOP

posted by wap, platform: Android
引用:
原帖由 @yfl2  于 2020-9-28 21:38 发表
你一方面说ps5 频率过高,一方面说40 cu 最高boost 2.5的功耗170,52cu 频率只有1.8多的功耗155很正常
这么说ps5频率一点不高,频率更高的功耗也低呢
说的不就是这个么?就是因为ps5的能耗比和爆料的rdna2不符才怀疑ps5是不是用的rdna2,为啥cu少4组,频率低不少,功耗缺高不少。你在捣什么浆糊?语文不好还是数学不好?

TOP

posted by wap, platform: Android
引用:
原帖由 @mushroom  于 2020-9-28 21:44 发表
额定功率是按照机器背后的电源插口算的,这个电源插口的电流最高2.5A,北美110V。
我觉得这个CPU用不到65W,应该更接近与笔记本的CPU,一般35w~40w差不多了,不算跑分AVX,只算实际负载下。
移动平台8核,差不多40w吧,如果按275w额定算,那xsx gpu也就160w左右。而ps5 gpu就得又上10w到了212w了。

TOP

发新话题
     
官方公众号及微博