原帖由 @塌方 于 2013-6-28 22:35 发表
同样的变身我还能进行两次!!!
原帖由 @你老闆 于 2013-6-28 22:59 发表
那就是看開發商的利用率了吧?
原帖由 KoeiSangokushi 于 2013-6-28 23:01 发表
posted by wap, platform: Chrome
利用多少和带宽是多少是两码事
好比班车,不管你搭乘不搭乘,它都按照规定的发车频率和发车数量在跑(除非是桌面模式为了省电降频,但是这不关游戏的事)
原帖由 @你老闆 于 2013-6-28 23:03 发表
那192就是192了吧?
原帖由 wpxgod 于 2013-6-29 00:05 发表
这是理论带宽 但是实际应用的时候因为数据的不同跟大小 肯定达不到理论值的
按这篇的翻译 实际运作也比原来的提高 30% 达到 133GB/s。
http://www.xbox-skyer.com/content.php?r=3785-%E5%BE%AE%E8%BD%AF% ...
原帖由 wpxgod 于 2013-6-29 00:05 发表
这是理论带宽 但是实际应用的时候因为数据的不同跟大小 肯定达不到理论值的
按这篇的翻译 实际运作也比原来的提高 30% 达到 133GB/s。
http://www.xbox-skyer.com/content.php?r=3785-%E5%BE%AE%E8%BD%AF% ...
原帖由 BlackGod 于 2013-6-29 01:07 发表
喷了 原来是读写加起来192GB 那实际gpu频率=96GB/128bit=750MHz 比原先800少了50MHz ms自黑?
原帖由 DarthVadar 于 2013-6-28 23:10 发表
posted by wap, platform: iPhone
也就拨了500斤吧最后还是说性能有差距只是很可能初期显现不出
原帖由 lkig 于 2013-6-29 06:59 发表
Apparently, there are spare processing cycle "holes" that can be utilised for additional operations. Theoretical peak performance is one thing, but in real-life scenarios it's believed that 133GB/s th ...
原帖由 lkig 于 2013-6-29 06:59 发表
Apparently, there are spare processing cycle "holes" that can be utilised for additional operations. Theoretical peak performance is one thing, but in real-life scenarios it's believed that 133GB/s th ...
原帖由 lkig 于 2013-6-29 08:22 发表
看的懂數據跟原理跟是不是開發者完全兩碼事~~~~
記憶體存取這方面的原理其實很久沒有大進展了基本上都是一直疊床架屋下去
跟GPU一代變革過一代相去甚遠矣~~~~
文章最後還有提到GDDR5的高延遲可能對PS4的CPU ...
原帖由 倍舒爽 于 2013-6-29 08:59 发表
我的意思是建立在它的说法上的,这些硬性东西当然不可能会变。。
因为频率一上去,那么esram的等待机会就会增多,哪怕频率只上去那么一点。。
原帖由 west2046 于 2013-6-29 08:07 发表
文章说,虽然现在PS4的游戏表现没有ONE好(索饭对这个不承认吧),虽然PS4的内存延迟严重,虽然PS4的音效芯片可能消耗内存和CPU,但是ONE的DDR3带宽不行,高速缓存即使可以到192GB/S容量不够,硬件参数不行,但开发 ...
原帖由 小僵尸 于 2013-6-29 09:07 发表
音频部分有什么好谈的,PS3要不是为了统一和兼容,游戏支持DTS-HA和TRUEHD的实时输出7.1都可以
难道到了PS4难道还有担心这种资源分配问题,这是开历史的倒车还是咸吃萝卜淡操心
原帖由 @小僵尸 于 2013-6-29 09:20 发表
PS4研发团队的另一个工作重点是将很多基本功能分配到专门的运算单元中,这样就不需要分配资源以处理这些事物,从而提高了主机的灵活性。比如,为音效处理准备专门的硬件单元,这样在游戏内同时进行语音聊天就无需占用游戏的资源。同理还有视频压缩和解压。另外音频单元还负责处理游戏中大量的MP3数据流的解压。
连PS3这种内存匮乏的机器在音视频处理上都不是大问题,PS4上没道理成为问题的.
原帖由 @AngryMulch 于 2013-6-29 09:34 发表
就算这可怜的32MB esram带宽200以上还是还有优势的
而且对编程来说相对麻烦
原帖由 你老闆 于 2013-6-29 02:43 发表
To the best of their knowledge, 800MHz remains the clock speed of the graphics component of the processor, and the main CPU is operating at the target 1.6GHz. In both respects, this represents parit ...
原帖由 @BlackGod 于 2013-6-29 11:12 发表
To the best of their knowledge
ms当然不会告诉他们降频了 我不清楚内存带宽是否能把读写加起来算 就算可以 原来是102 那也该是102X2=204 怎么才192?
老外有个解释
Right, that 204 is the theoretical max if they could just read and write wherever they wanted on every clock cycle. A realworld 133 GB/s would be much more realistic.
However, they gave 192 GB/s as a theoretical max. If this is the accurate figure, there are precisely two possibilities why:
1The methodology they use to simultaneously read and write to the eSRAM is mathematically proven to work, at best, on ~8/9 clock cycles. This would explain the 1.88 factor of increase, as even in a perfect world you could not double the bandwidth.
2The theoretical max assumes with perfect optimization read/write is always possible, but the GPU has been downclocked 50 MHz so the bandwidth in each direction is now 96 GB/s.
The first scenario is less likely, imo, because 8/9 is a really weird ratio for a binary system. Also, there is very rarely a reason to do anything but double the max rate of theoretical access if you discover sometimes simultaneous read/write is possible. In theory, one should be able to read and write completely separate memory adresses exclusively, which would truly double the rate.
I am not an expert, and the article may not be accurate, but this sure looks a lot like a downclock.
原帖由 @KoeiSangokushi 于 2013-6-29 11:14 发表
posted by wap, platform: Chrome
两种可能,一种是降频到750MHz,读写都达到96GB/S
另一种可能,不降频,192GB/S是说读写不能都达到102GB/S,比如读达到102GB/S了,写就只能90GB/S了
本帖最后由 KoeiSangokushi 于 2013629 11:14 通过手机版编辑
原帖由 @madrista7 于 2013-6-29 11:18 发表
posted by wap, platform: Android
肯定是降频了唉
原帖由 @KoeiSangokushi 于 2013-6-29 11:19 发表
posted by wap, platform: Chrome
如果没降频你打算怎么办?
原帖由 @madrista7 于 2013-6-29 11:21 发表
posted by wap, platform: Android
哈哈想得糟糕点还可能有惊喜不是吗?
原帖由 KoeiSangokushi 于 2013-6-29 11:14 发表
posted by wap, platform: Chrome
两种可能,一种是降频到750MHz,读写都达到96GB/S
另一种可能,不降频,192GB/S是说读写不能都达到102GB/S,比如读达到102GB/S了,写就只能90GB/S了
本帖最后由 KoeiSangokushi ...
原帖由 @BlackGod 于 2013-6-29 11:35 发表
没可能像你说的这样工作 只能除以2 这是二进制系统
另外 按照我的理解 内存应该是独占的 怎么可能读写同时进行 这会引起内存泄露![]()
原帖由 @1320581 于 2013-6-29 11:44 发表
索饭巴不得频率降到0,这样ps4好一统宇宙:D
原帖由 @BlackGod 于 2013-6-29 11:35 发表
没可能像你说的这样工作 只能除以2 这是二进制系统
另外 按照我的理解 内存应该是独占的 怎么可能读写同时进行 这会引起内存泄露![]()
原帖由 @madrista7 于 2013-6-29 11:51 发表
posted by wap, platform: Android
SRAM有dualrate i/o,可以在一个时钟里同时读写
原帖由 KoeiSangokushi 于 2013-6-29 08:51 发表
你搞错了,133GB/S只是文章随便列举某一种带宽超过102GB/S时的用法而已
ESRAM支持192GB/S的用法
并不是最高仅支持133GB/S——如果真是这样,那文章也就不会提什么192GB/S了
原帖由 KoeiSangokushi 于 2013-6-29 08:53 发表
PS4的CPU还能怎样缓存?CPU都是一样的美洲豹,一样的缓存规格
反倒是X1的CPU可以通过GPU利用到ESRAM做缓存(理论上)
原帖由 @madrista7 于 2013-6-29 11:18 发表
posted by wap, platform: Android
肯定是降频了唉
原帖由 BlackGod 于 2013-6-29 11:12 发表
To the best of their knowledge
ms当然不会告诉他们降频了 我不清楚内存带宽是否能把读写加起来算 就算可以 原来是102 那也该是102X2=204 怎么才192?
老外有个解释
Right, that 204 is the theoretical max i ...
原帖由 @变色龙 于 2013-6-29 13:10 发表
PS4怎么不降频?微软用了什么火星技术出了这么多问题。。。
现在看来ESRAM变成了潘多拉魔盒了?各种问题接踵而至?
原帖由 KoeiSangokushi 于 2013-6-29 13:41 发表
posted by wap, platform: Chrome
ESRAM目前有什么问题?还接踵而至?
GPU降频现在也没有定论,你就这么肯定一定降了?
原帖由 @madrista7 于 2013-6-29 13:44 发表
DF原文确实没有说,但是如果没降频,不符合192GB的带宽数,DF也没去追问这个,所以很多人都在讨论这个存疑点
原帖由 lkig 于 2013-6-29 08:22 发表
看的懂數據跟原理跟是不是開發者完全兩碼事~~~~
記憶體存取這方面的原理其實很久沒有大進展了基本上都是一直疊床架屋下去
跟GPU一代變革過一代相去甚遠矣~~~~
文章最後還有提到GDDR5的高延遲可能對PS4的CPU ...
原帖由 @倍舒爽 于 2013-6-29 13:48 发表
posted by wap, platform: iPhone
符合,上面lkig解读得十分正确
原帖由 @KoeiSangokushi 于 2013-6-29 13:51 发表
posted by wap, platform: Chrome
没发现有什么符合的,他说PS4可以用CPU缓冲来解决GDDR5不适合当系统内存的问题,我说PS4的CPU和X1一样,凭什么PS4就能解决?
原帖由 @倍舒爽 于 2013-6-29 13:58 发表
posted by wap, platform: iPhone
这是另外一回事
原帖由 @KoeiSangokushi 于 2013-6-29 13:45 发表
posted by wap, platform: Chrome
有可能GPU核心不降频,但是ESRAM降频——为了取得同时读取和写入而付出的代价
GPU核心频率和显存频率一直以来都是两个不同的概念,两者没有必要必须绑定在一个频率上
本帖最后由 KoeiSangokushi 于 2013629 13:46 通过手机版编辑
原帖由 @倍舒爽 于 2013-6-29 14:11 发表
posted by wap, platform: iPhone
不是这个意思,你要确保这1秒内的所有周期都处于同时读写下才能达到192,但这在实际中是根本不可能的,假如这秒内处于完全写的情况下一样是102,但这不常见的,而在最常用的alpha blending下,就是133
原帖由 KoeiSangokushi 于 2013-6-29 13:51 发表
posted by wap, platform: Chrome
没发现有什么符合的,他说PS4可以用CPU缓冲来解决GDDR5不适合当系统内存的问题,我说PS4的CPU和X1一样,凭什么PS4就能解决?
原帖由 @seek 于 2013-6-29 14:22 发表
1. gddr5为什么不适合作系统内存?ddr3比gddr5还适合?
2. 或者说是esram可以被cpu利用?
原帖由 @KoeiSangokushi 于 2013-6-29 14:16 发表
posted by wap, platform: Chrome
现在最常用的133,不代表以后不会出现166 188
原帖由 @BlackGod 于 2013-6-29 14:46 发表
喷了 还在这里扯gddr5的延迟不适合做内存……这挣扎的太难看了
原帖由 KoeiSangokushi 于 2013-6-29 14:13 发表
posted by wap, platform: Chrome
192/102.4=1.875
也就是1又7/8
也就是可能当完全读取102.4GB/s带宽的时候,有4MB的ESRAM不能在此时被写入(28/32=7/8),所以此时写入带宽仅为89.6GB/s
完全符合,不需要降频
原帖由 @BlackGod 于 2013-6-29 14:51 发表
我觉得你还是相信降频的好 哪有这样设计的硬件?xbone sdk是不是还要特意注明一句 使用esram的时候 请判断写入的是28还是4
原帖由 @KoeiSangokushi 于 2013-6-29 14:51 发表
posted by wap, platform: Chrome
六核高频率I7都依然用2133MHz的DDR3
只有APU下一代为了省份显存的钱硬上GDDR5,我敢说这玩意的CPU性能一定会很难看,受到高延迟的拖累太严重了
真当X1用DDR3当主内存是为了省钱?拜托,人家是上了一块ESRAM充当事实上的显存的
更何况英特尔拿出来跟APU竞争的整合核心显卡的CPU新品也是搭载EDRAM的,DDR3/4+EDRAM/ESRAM的综合内存性能必然强于单纯一个傻大粗的既当内存又当显存的高频率GDDR5(注意,不是高端PC的DDR3+GDDR5的组合,DDR3+GDDR5的组合,内存性能三种方案中最强的)
本帖最后由 KoeiSangokushi 于 2013629 14:58 通过手机版编辑
原帖由 @倍舒爽 于 2013-6-29 14:59 发表
posted by wap, platform: iPhone
天!魔戒之吧主归来!
同时也失忆了
原帖由 KoeiSangokushi 于 2013-6-29 14:51 发表
posted by wap, platform: Chrome
六核高频率I7都依然用2133MHz的DDR3
只有APU下一代为了省份显存的钱硬上GDDR5,我敢说这玩意的CPU性能一定会很难看,受到高延迟的拖累太严重了
真当X1用DDR3当主内存是为了省钱? ...
原帖由 KoeiSangokushi 于 2013-6-29 14:27 发表
posted by wap, platform: Chrome
1.GDDR5延迟太大,不适合做系统内存,你看现在的高端PC就算搭配了六核心高频率酷睿i7也还是用高频率DDR3做系统内存,下一代高端PC则是瞄准DDR4,绝不用GDDR5——下一代APU倒是可能 ...
欢迎光临 TGFC Lifestyle (http://bbs.tgfcer.com/) | Powered by Discuz! 6.0.0 |