» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


发新话题
打印

【讨论】在插与不插的问题上,是否存在以下几种方式?

纹理分辨率和渲染分辨率没有固定关联,因为两者根本不属于同一个空间,其映射也是动态的。
比如一个256x256的纹理贴在场景某个广告牌上,如果在某个视点下该广告牌对应屏幕中小于256x256的区域,那么这个文理就不会发生欠采样。
假设同样的广告牌,贴上2048x2048的纹理,但比如视点离广告牌很近,整个屏幕只对应广告牌的一小部分,那么同样,纹理会发生欠采样。
所以,对于3D场景,纹理大小永远不能保证任何情况下的不过不欠……
顺便说一下,无论是欠采样还是过采样都会发生影响视觉的失真。改善过采样的方式主要是MIP_Filter。

所谓的拉伸,指的是render target的拉伸,也就是说按照720p的分辨率渲染场景到一个文理(该RT纹理分辨率为720p)然后把这个720p的RT Texture再渲染到1080p的Buffer中,这个过程有一个文理欠采样过程。让图片质量下降。其效果就如同在物理分辨率1366x768的LCD上显示720p的效果。
原生1080p指的是从一开始的几何光栅化就以1080p分辨率进行的方式。
高分辨率的好处一方面是边缘效果改善,另一方面对纹理也有些许改善,就如同SSAA对纹理的改善效果。坏处自然是消耗增加。
拉伸1080p相对于原生720p增加消耗的主要成本就是一次texture mapping,这个成本很低,所以可以基本忽略。
而原生1080p对原生720p的消耗增加就非常大了,一方面是1080p的像素数是720p的2.25倍,也就是说同样一个模型,光栅化为1080p所占的像素数基本就是720p的2.25倍,所以像素操作消耗必然就是2.25倍,同时纹理采样由于du和dv更低,所以倾向于取更高分辨率的MIP层,这样texture cache一般利用率也会下降。
当然对显寸带宽的消耗增加也是可观的。


TOP

问题是Console可利用的带宽有多少?而PC上GPU的带宽利用率不高?
那些只下降1x%的又是些什么显卡?什么CPU?什么游戏?
当然,瓶颈不会总在pixel这块。即使全在pixel方面,性能下降也不可能是完全线性。



TOP

引用:
原帖由 飞坦 于 2006-9-21 16:13 发表


根据以往的经验来看,PC游戏在针对PC GPU做开发的时候肯定不会像对家用机那样优化得那么仔细.

一般的高端卡79  19在对付在HL2  DEMO3  分裂3, MARK06 Q4这些测试中,当打开高AA,高分辨率的时候,
下降幅度比 ...
像什么AlphaBlending操作(典型的耗费显存带宽操作)跟本就属于黑盒式,完全由驱动搞定,程序员有什么优化余地?PC上的低效主要源于诸如调用开销(如PC上的D3D被人诟病之处)和其它部分的运算、传输、通信方面的瓶颈,就显卡本身来说,发挥的还是比较彻底的。
你那些图……除了NFS9的N卡部分以外,其他的没看见下降很小的情况出现。
而且,你列出的任何一款游戏(这些也基本都不算新游戏了)从1280到1600的降幅你不妨算算看……
而且不要忘记,那是7900和1900,一个是256bit显存,另一个可是256bit+Ringbus……

[ 本帖最后由 hourousha 于 2006-9-21 16:46 编辑 ]


TOP

搞了半天,你想说的无非就是PS3可以原生1080p而且可以保证质量?
我前面只是列出了原生1080p的代价,其他的可没说哦。我又没说PS3实现不了原生1080p,我也没提什么画面质量,这是主观的,我所指的是渲染复杂度……

TOP

再多废话两句
1:分辨率越高,显卡Pixel部分的瓶颈越容易显露出来,换句话说,其他部分瓶颈的影响将变小。换句话说,到了高分辨率,拼的主要就是显卡,而在PC和Console两个领域,显卡性能发挥倒都还算充分。
2:游戏的渲染将会更加复杂,PS部分越复杂,对分辨率越敏感,比如HL2:  LC和HL2:Ch1就比HL2对分辨率更敏感,你列出的那三个游戏,HL2出的最早,所以对分辨率敏感性最低(本来HL2就不怎么吃GPU),而Q4和NFS就对分辨率比较敏感了,从1280->1600一般就会下降17%->24%。同样,把HL2换成HL2:  LC,再看看Farcry:HDR,就会发现它们对分辨率同样敏感,更新的一些,如Fear,ES4之类的我就不多说了。
另外顺便说一下。720p->1080p的像素增加比例其实远高于1280x1024->1600x1200,其实接近于1280x1024->2048x1536,这个情况的下降比例,可参考你给出的那个Q4的测试……

TOP

发新话题
     
官方公众号及微博