小黑屋
原帖由 sunix. 于 2014-11-18 15:08 发表 这叫物奴,通常是因为真实生活中很失败,只能在某一物体或品牌上找到寄托和存在感,所以有人要是敢说那东西一点不好就好比杀了他亲妈。 战区的几个极端索索,还有周围的那些极端崇拜偶像的都是这种病
查看详细资料
TOP
魔王撒旦
原帖由 ff_cactus 于 2014-11-18 15:23 发表 我还以为你有多高明的解释呢。那为何400MB以前,每秒速度还是不断提升的,照你的意思应该,在缓存没写满之前,速度应该是恒定的呀。
原帖由 dboy99 于 2014-11-18 15:46 发表 读写速度跟文件大小是相关的,如果你连这个常识都不懂就不要随便发表高论了 自己用atto benchmark测一下你的硬盘看是不是速度恒定? 知识面贫乏不是错,但是出来现就不对了
原帖由 xphi 于 2014-11-18 15:56 发表 楼主和HKEPC都在瞎分析,这个表现和Linux的Page cache一点关系都没有。这个测试的结果相当明显,原因也很简单,熟悉SSD的一眼就能看出来,这明显是用TLC的iPhone使用了数据压缩加速技术。早期SSD上常用,当时以SandF ...
原帖由 ff_cactus 于 2014-11-18 16:02 发表 [root@workstation ~]# dd if=/dev/zero of=/tmp/filename bs=1024K count=10 10+0 records in 10+0 records out 10485760 bytes (10 MB) copied, 0.0219152 s, 478 MB/s [root@workstation ~]# dd if=/dev/ze ...
原帖由 dboy99 于 2014-11-18 16:10 发表 bs=1024K这个参数控制写入块大小,从头到尾都是1024k所以速度也差不多 我能说你是个xx么,这么低级的问题都要反复问
原帖由 ff_cactus 于 2014-11-18 16:08 发表 把数据压缩一下有什么好处? 为什么只在SSD上做压缩,而发展了这么多年的普通硬盘上没采用过?
原帖由 ff_cactus 于 2014-11-18 16:17 发表 count从10变到60你眼睛瞎啦看不到吗? 看你还要装逼到什么时候。
原帖由 dboy99 于 2014-11-18 16:20 发表 小文件写一百遍还是小文件,你的逻辑我是越来越看不懂了
原帖由 dboy99 于 2014-11-18 16:11 发表 我擦,这是我今天看到的第二个神论了,可以跟虚拟内存大神的神论相媲美
天外飞仙
原帖由 xphi 于 2014-11-18 16:21 发表 你就算完全不懂存储好歹也看看原版HKEPC的截图,看看别人的dd命令是怎么写的……