混合存储是否正在走向灭亡?混合存储的HDD硬盘是否确实是一款垂死的产品品种?业界又将如何审视和面临今天的闪存数据存储所带来的存储简化这一挑战呢?此外,对象级存储越来越多地日渐普及的深层原因又是什么呢?
混合存储阵列走向灭亡的谣言可能不只是炒作
鉴于全闪存阵列市场在当前的高速增长,以及某些AFA(全闪存阵列)供应厂商对于其首次公开募股(IPO)的高调炒作,直接导致了“混合存储是否正在走向灭亡”的这一问题的提出;也使得企业的IT存储管理员们也在努力试图捋清这一切。这个问题看似简单;然而,答案绝对是否定的!
让我们从这一定义开始探讨吧:究竟什么是混合存储?目前,对于一个混合存储阵列(也被称为混合闪存阵列)的传统定义是——作为一款存储数据管理系统,其使用Flash闪存的组合,如固态驱动器(SSD)和较慢的硬盘驱动器(HDD)来控制操作内存,进而提供最符合成本效益的高性能I/O.混合存储尝试通过I/O性能需求来平衡存储介质的成本。Flash闪存可以设置作为一个读缓存、读写缓存或者作为一个高性能存储层,基于诸如数据的年龄、访问频率或数据的重要性等策略,以捕获所有的写操作和数据移动到硬盘驱动器的操作。
Flash SSD固态驱动器容量能力的快速增长,以及每TB存储成本定价的同步快速下跌正为HDD硬盘能否继续作为一种可行的存储介质带来了巨大的市场压力。高容量的Flash SSD固态驱动器和高容量的HDD硬盘之间的价格差距正在缩小。并且,由于Flash NAND 3D技术的显著进步,使得这一价格差距缩小的速度比从前预期的要快得多的多。
高容量的2.5英寸小尺寸规格(SFF)的Flash SSD固态驱动器是在2015年正式上市推出的,约为4 TB.而在2016年年初,小尺寸规格Flash SSD固态驱动器的容量约为16 TB,并将在今年年底迅速达到约32 TB.相比之下,3.5英寸的大型封装HDD硬盘的容量则在2015年和2016年突破了10 TB.
混合存储阵列的核心问题
关于大容量的Flash SSD固态驱动器有一个陷阱。许多高容量的Flash SSD将基于三级单元(Triple Level Cell,TLC)NAND技术。 今天,TLC是最为明确的成本最低的Flash技术,但其有一些显著的问题,例如其相对较短的磨损寿命期限。要知道,Flash SSD读取对于存储驱动器的寿命而言几乎没有成本,反而是写操作会有成本。每次执行写操作,都会对存储材料或多或少的造成一定程度的损耗。磨损寿命期限是编程/擦除(PE)的周期数;而较之多层单元闪存(multi-level cell,MLC),TLC至少具有一个数量级的较低数目的PE周期数。
TLC的写入和读取速度也比MLC相对要慢一些,但他们较之HDD仍然至少有10倍的性能优势。这意味着基于TLC 3D NAND的小尺寸规格SSD固态硬盘更适合读取,而非通常与Flash SSD闪存相关的高强度写操作。对于这种低成本、高容量、高密度,较慢的Flash SSD闪存而言,目前最适合的工作负载与当前正被用在一个混合存储阵列的HDD硬盘是一样的。
混合存储阵列正在从一个内存、闪存SSD和高容量HDD的组合演变为一个内存的混合;高性能、写入优化的闪存SSD;大容量、读取优化的闪存SSD固态硬盘。而思考未来的混合存储的另一种方式是将其视为一个多层次的全闪存阵列。混合存储背后的原则和逻辑是相同的——并非所有的数据都具有相同的价值,并且这些数据的价值应与其所存储的存储介质的成本相匹配。
因此,尽管HDD硬盘混合存储是一个垂死的产品品种,但我们可以期待混合多闪存仍然还会有较长的寿命。
简化数据存储技术是很难的
我曾经想当然的认为,数据存储是一项简单的技术,具有相当合乎逻辑的替代品。然而,事实证明,我当时只是:“图样图森破!”当我了解到当前数据存储的现状之后,我怀疑自己为何曾经一直那样天真。这该死的东西真的是越来越复杂了。
我曾经写过关于在刚刚过去的几年中数据存储领域的可选方案如何获得了急剧性的增长的文章,使得现如今有了比以往任何时候都更多的存储选择,来帮助您解决数据存储问题。各种不同的数据存储技术运行在从传统媒介到阵列设计、再到以软件为中心的方法,以及再到全新的架构。不久前的一段时间,我第一次撰写了关于这一新的数据存储现状的文章,但其只是变得越来越复杂了——这无疑进一步突显了数据存储的发展演变过程中既有好消息,也有坏消息。
有选择当然是不错的。因此这是一个好消息。但是,选择太多也可能会让人感觉扑朔迷离。这可以说是坏消息——至少部分而言是坏消息。许多新的数据存储技术,一旦他们在数据中心实践操作层面完全部署开始采用,可能会对其它部分的存储基础设施产生反射的效果。这是一种类似于打鼹鼠游戏的效果:当旧的问题被消除后,又会导致新的瓶颈问题的弹出。
存储市场的变化
退后一步,看起来似乎数据存储行业仍在努力适应新的“解决方案”。根据IDC的最近报道,全球企业级存储系统的销售与去年同期相比下降了7%(仅仅只有82亿美元)。通过对全球总出货量的考察测得,该行业遭遇了4%的低迷下滑。在所有的存储巨头中,只有惠普企业公司在2016年第一季度获得营收增长(11%)。
而与此同时,鉴于大数据和物联网已经开始主宰了人们的IT交流话题,似乎企业组织实际上正在购买更少的存储是不可思议的。但事实的确如此。我们可以回顾所有这些新的数据存储技术,来看看为什么会发生这样的事情。当前的企业组织机构固然可能比以往任何时候所存储的数据都多——尽管容量图的曲线从来没有向下弯曲,但企业组织在这方面所做的工作更好了,而且也更有效率了。
闪存和超融合存储所带来的影响
例如,全闪存阵列(AFA)通常被认为是一个纯粹的性能发挥。因为其围绕着旋转磁盘运行。但是,当一家企业通过将其从一个基于磁盘的阵列迁移到全闪存系统,以提升一款关键应用程序的性能时,可能也会带来一个安装容量能力的下降。Short-stroked传统硬盘挤出了最后的性能,老硬盘阵列的容量很可能过度配置了。而新的AFA则提供了良好的性能,同时无需过度配置。事实上,因为其甚至能抽出几个周期来对其数据执行重复数据删除,则使得闪存阵列所需要的容量可能要少得多。
同样,我们也可以看到诸如超融合基础架构这样的新架构是如何基于其模块化和易于规模化的特点而带来更高效的存储空间利用的。基于服务器存储的、内置的PCIe和非易失性存储器标准(Non-Volatile Memory Express)闪存的重生,也有助于通过集中于容量和性能,特别是在其需要方面,来降低容量需求。
最近,Evaluator Group公司与存储网络行业协会合作,共同发布了一项关于超融合技术的调查结果。该调查报告指出,在所有的调查受访者中,“47%的受访者表示说,他们所在的企业正在计划使用一种超融合的解决方案,以整合基础设施,并取代传统的计算和存储。”
您企业的数据已经不会再老位置了
当然,有些数据根本就不再企业内部存储了。虽然这一数字有时似乎言过其实,但很明显的是,当前的企业组织机构已经开始更频繁,更深入地采用云存储,进而得以能够将他们自己的数据中心存储从单调乏味的日常数据处理琐事如存储存档中解放出来。这大大帮助减少了企业组织数据中心存储的开销,而随着人们对于云存储的信心逐步增长,这方面的削减很可能会更令人震惊。
使用SaaS和基于云的应用程序,如Salesforce和无数其他类似服务的增加,也有助于将迁移的数据迁出数据中心存储系统。如果您企业不是通过将数据复制到数据中心来备份这些应用程序的话,您企业将创造大量根本不需要任何内部存储的新数据。
这些只是少数几个新的数据存储技术已经接管替代了传统的存储产品的例子。您企业还可以添加软件定义的存储、对象、融合等等新的技术到这一不断增长的名单。
有时,简单即复杂
具有讽刺意味的??是,尽管很多新的数据存储技术和架构可能在部署、使用和管理方面更为简单和容易,但它们可能会在无意中增加了整体存储的复杂性。而且因为很多较新的替代品的设计旨在解决具体问题或工作负荷,很可能最终会导致您企业孤立应用程序和数据的增加,因为您企业需要部署更多的专用系统。
备份也需要一定的反思,特别是如果您所在的企业坚持执着于“经典的”应用程序备份方式的话。借助这一新的多样的存储系统和架构,备份数据可能会有很大的困难,这可能会有助于说服您企业开始考虑使用新的数据保护技术和工具,如flat备份,云到云的备份和擦除编码。
对象级别存储的采用获得迅速普及的九大原因分析现如今,对象级存储比以往任何时候都获得了更为普及的采用。从遵守合规性要求到可扩展性问题和预算限制,对象存储已被充分证明是对传统的文件存储的一种有效的替代方案。如下,有九大原因解释了为什么当前有越来越多的企业组织正在转向采用对象存储技术。
原因1:非结构化数据的增长
根据IDC的调研数据显示,非结构化数据的复合年均增长率约为62%.面向对象存储的细粒度的方法,使其成为了一种有价值的资源,用于处理大量的非结构化的数据。
原因2:可扩展性
对象存储可以规模化扩展到几十乃至几百艾字节的可用容量,而且对于为什么对象级存储不能规模化到泽字节,甚至尧字节并不存在什么技术方面的原因。其利用了高密度的存储,无论是硬盘驱动器,固态驱动器或两者兼而有之。
原因3:无需迁移数据
基于对象的存储是一个无共享的向外扩展的系统,所以其不需要传统意义上的技术更新。当硬件需要更新时,其只是涉及到需要添加新的对象存储节点到通常与标准以太网网络连接的系统中。随之需要的是从系统上删除旧的节点,一次删除一个。无需迁移数据。除了自愈算法,擦除编码或多拷贝镜像,在新的节点上再次创建所需的数据。随着容量的增加,数据跨所有的对象存储节点自动被调整。
原因4:与Hadoop和NoSQL的兼容性
对于Hadoop或NoSQL,对象级的存储往往是一个很好的存储选项。取决于供应商的不同,某些供应商,如Caringo和Cloudian公司,甚至在其对象存储产品本身内置了分析功能。
原因5:取代了传统的文件存储
对象存储获得迅速普及的另一个原因是,其被认为是下一代的文件存储。今天市面上的大多数对象存储系统包括NFS、SMB和内置到系统中的iSCSI接口。地理分布功能和分析功能使对象存储作为文件存储是非常有用和有价值的。
原因6:比磁带效率更高,但成本仍然较低
较之磁带,对象存储是具成本效益的数据存储方式。不过,尽管磁带对于大多数分析、活动归档或从备份中快速恢复而言太慢了,对象存储则速度太快了。不像磁带,对象存储也非常擅长于在地理上分散的人员之间,及使用Hadoop基础设施工作的人员之间共享非结构化数据,并能够非常好的保持所有数据超过30年。磁带和对象存储都可以实现一次写入,多次读取技术,但只有对象存储可以限制对某对象或文件的访问。
原因7:即时一致性的改进
对象级存储的一个缺点是,其是最终一致的。由于数据同时在两个不同的节点或地理位置被更新,这可能会导致错误。然而,几家对象存储提供商,例如Caringo、Cloudian、HGST和三星旗下的Joyent公司,现在均借助对象存储技术提供即时一致性。
原因8:更快的闪存SSD性能
对象存储也容易受到高延迟和较慢的响应时间的影响。更快的战略实施,相对较低的成本,密集的大容量闪存SSD硬盘基于多层存储单元和3D TLC(Triple-Level Cell)已经消除了这一弱点。
原因9:标准化
也许对象级存储的采用迅速被普及的最为突出的原因是亚马逊网络服务(AWS)和亚马逊简单存储服务(S3)的兴起。 Amazon S3是AWS的对象存储,而该S3应用程序编程接口已经成为事实上的标准对象存储API.所有的对象存储供应商——即使是OpenStack Swift和Ceph这样的开源项目甚至也进行了变化——都在一定程度上采用了S3 API,以便使自己能够与那些已经在使用它的应用程序兼容。这带来了大批新的为实现与AWS S3兼容的私有对象存储的应用程序的编写。