WindowsServer2012史记4-重复数据删除的魅力
http://blog.51cto.com/jiushu/images/editer/InBlock.gif重复数据删除指的是在数据中查找和删除重复内容,而不会影响其保真度或完整性。目标是通过将文件分割成小的 (32-128 KB) 且可变大小的区块、确定重复的区块,然后保持每个区块一个副本,在更小的空间中存储更多的数据。区块的冗余副本将被单一副本的引用所取代,将区块组织成容器文件,然后将容器压缩进行进一步空间优化。http://blog.51cto.com/jiushu/images/editer/InBlock.gif对某个卷启用重复删除并优化数据之后,该卷包含以下内容:http://blog.51cto.com/jiushu/images/editer/InBlock.gif未优化的文件,即跳过的文件,例如:系统状态文件、加密的文件、具有扩展属性的文件、小于 64KB 的文件以及重分析点文件(之前的已优化文件,包含指向构建该文件所需的区块存储中各个区块的指针)
http://blog.51cto.com/jiushu/images/editer/InBlock.gif已优化的文件(存储为重分析点)
http://blog.51cto.com/jiushu/images/editer/InBlock.gif区块存储(已优化的文件数据)
http://blog.51cto.com/jiushu/images/editer/InBlock.gif其他可用空间(由于已优化的文件和区块存储占用的空间比优化之前占用的空间少很多)
http://blog.51cto.com/jiushu/images/editer/InBlock.gif结果是对每个文件进行了磁盘转换。重复删除之后,文件不再作为独立的数据流进行存储,而是替换为指向存储在通用区块存储位置的数据块的存根。由于这些文件共享块、这些区块仅存储一次,从而减少了存储这些文件所需的磁盘空间。在文件访问期间,正确的区块会采用透明的方式组装以处理数据,而不需要调用应用程序,也无需用户了解文件磁盘转换中的变化。这样管理员便能够对文件应用重复删除,而无需担心对应用程序或访问这些文件的用户的行为有任何影响或改变。
页:
[1]