» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


发新话题
打印

[电脑] 关于840系列的tlc,我发现无脑喷子真多啊,完全不懂装懂

引用:
原帖由 zcomic 于 2012-9-27 11:08 发表


别人也没说每次都从最新处开始写啊,这上面推演的都是平均使用情况,
这都不懂你还抬个什么杠,我故意这么问你不就是以毒攻毒,以极端质问极端吗,
这么简单的逻辑都反应不过来?
反证法懂不?
人家都已经说了不适合做SSD, 而且连发明此技术之一的 INTEL 自己都没出 TLC 的 SSD, 你以为大韩棒子真的是宇宙中心吗?


TOP

Intel's joint venture with Micron Technology appears to be bearing fruit at last, with the pair announcing the delivery of 3-bit-per-cell NAND flash memory based around a 25nm process - providing what the companies are claiming is the highest-density flash storage in the world.

Although not in full production, the pair have produced and shipped sample quantities of the memory to "select customers," with mass production slated for the end of the year - meaning that it will be 2011 at the earliest before we can get our grubby mitts on devices based on the new memory.

The 64Gb chips are initially aimed at USB flash drives, Secure Digital cards, and the euphemistically-named "consumer electronics market," with no mention of solid-state drives to be seen in the company's business plan.

The 3-bit-per-cell technology - also known as triple-level cell, or TLC - is the logical progression from the current single-level cell and multi-level cell memory used in current flash storage devices, and reduces the size of the chip by over 20 per cent when compared with current 25nm MLC-based flash memory - resulting in a 131mm² die set in a TSOP package for the 64Gb version.

This means that the chips are cheaper to produce, require less power, and can have higher capacities for the same surface area - all despite being based around the same 25nm process as the venture's existing MLC chips.

Tom Rampone, vice president of Intel's NAND Solutions Group, claims that Intel "plans to use the design and manufacturing leadership of [Intel-Micron Flash Technologies] to deliver higher-density, cost-competitive products to our customers based on the new 8GB TLC 25nm NAND device," although again neglects to mention SSDs.
The first companies likely to create products based around the new chips will be Lexar Media and Micron itself, who will be using the technology to produce higher-capacity SD cards for digital cameras.


不知道楼上几位棒粉看得懂英文不。。。



TOP

posted by wap, platform: iPad

两年前连MLC都不怎么适合做SSD,引来一片骂,民科


TOP

posted by wap, platform: iPhone
引用:
原帖由 @黑暗骑士巫妖王  于 2012-9-27 11:22 发表
posted by wap, platform: iPad

两年前连MLC都不怎么适合做SSD,引来一片骂,民科
就是这个理
等着以后三棒用TLC搅乱廉价市场再看民科怎么说

当然现在这货是没必要买的,这价是坑爹价

TOP

引用:
原帖由 ffcactus 于 2012-9-27 10:34 发表


每天写105G, 对于一般人来说确实是写不了。
但是有很多文件的数据是需要反复写的。 假设有个配置文件,比如说是Windows的注册表,每天这个注册表都需要被修改N次,每次修改难道都把此文件从新删除再创建一个新 ...
所以SSD有缓存,这种反复写的可能写了10次才有一次真正写到硬盘里头,其余9次是写在缓存里的~
而且本身硬盘有算法去控制每一个模块的使用次数是一样的,所以算下来,一块ssd硬盘可以轻易超过十几年使用寿命,所以我觉得根本不需要担心!

TOP

引用:
原帖由 cf3b5 于 2012-9-27 13:17 发表

所以SSD有缓存,这种反复写的可能写了10次才有一次真正写到硬盘里头,其余9次是写在缓存里的~
而且本身硬盘有算法去控制每一个模块的使用次数是一样的,所以算下来,一块ssd硬盘可以轻易超过十几年使用寿命,所以 ...
抛开内存中的缓存不说,普通硬盘自身也有缓存, 比如说现在流行的64M。
系统依旧定期将数据真实写入,就目前Windows系统来说,延迟绝对不会大于1分钟。
另一方面我也没看到缓存大小成为SSD的一个关键指标,因为缓存本身是为了加快速度的。

TOP

引用:
原帖由 ffcactus 于 2012-9-27 13:27 发表

抛开内存中的缓存不说,普通硬盘自身也有缓存, 比如说现在流行的64M。
系统依旧定期将数据真实写入,就目前Windows系统来说,延迟绝对不会大于1分钟。
另一方面我也没看到缓存大小成为SSD的一个关键指标,因为缓 ...
SSD缓存主要目的不是加快速度,而是延长寿命,只是你不知道而已!
再说这些缓存和时间也没啥关系,因为这个缓存本身就是硬盘的一部分,只有满了的时候,才会把数据写入硬盘,平时就一直放在那里都没问题,和系统的缓存根本不是一个概念的东西……

TOP

posted by wap, platform: iPhone

和虚拟内存大神谈技术,你们这不是自找没趣吗?

TOP

引用:
原帖由 cf3b5 于 2012-9-27 13:38 发表

SSD缓存主要目的不是加快速度,而是延长寿命,只是你不知道而已!
再说这些缓存和时间也没啥关系,因为这个缓存本身就是硬盘的一部分,只有满了的时候,才会把数据写入硬盘,平时就一直放在那里都没问题,和系统的 ...
我啥时候说 SSD 的缓存不是为了延长寿命?
我的意思是说既然SSD的缓存这么重要, 为什么没有成为SSD的主要指标?

你比如这图里提都没提。

TOP

既然你说这个指标关系到SSD关键问题之一的使用寿命,而这个指标连提都没提, 那我不免怀疑这SSD里是否是你说的这套机制。

我个人认为以前硬盘里的缓存是为了提高速度而存在的, 而SSD速度本来就够快, 也就不需要这么一个东西(当一段数据要存入硬盘的时候, 可能涉及多个文件, 涉及多个数据区。 以往的机械硬盘还要涉及机械寻址, 所以才需要存下来,慢慢寻。 而SSD不存在机械寻址的问题)。而且你说的什么不掉电就一直存在缓存里也未免太搞笑了, 不懂就去问问你同事吧。。。

TOP

posted by wap, platform: Opera

tlc的话要主控也一并更新,速度很重要,tlc要增加很多次校验,估计大家的主控更新后都要出tlc了
附件: 您所在的用户组无法下载或查看附件

TOP

posted by wap, platform: HTC (Hero)

lz请提供一块样品给我暴力测试,我拿测试数据来抽他们脸

TOP

posted by wap, platform: Android

FF可是虚拟内存大神,当年在战区那可是牛逼,岂是你们跳梁小丑比的了的

TOP

同一个文件的重写,文件系统中的存储位置一般是不变的,但是主控算法实际写入的物理位置会给平衡。
SSD不推荐做碎片整理的原因,操作系统看到的文件位置(根据LBA),和实际的物理位置并不是对应的,主控管理着这个映射表格并且为了写入平衡一直会变化。做下磁盘整理只是让文件在LBA中得顺序好看,对于机械盘来说实际的物理位置也连续了,对于ssd来说实际物理存储反而更碎片化了还浪费写入。

TOP

posted by wap, platform: iPad

大神就是大神。。

TOP

发新话题
     
官方公众号及微博