hedvig的统一server san比ceph好在哪里?让emc倍感欣慰压力

西瓜哥自从在各地建立本地的“高端存储知识”微信群以来,已经在南宁、南昌、上海、郑州、南京正式给各地群友做过关于高端存储的分享,并参加过杭州的沙龙,可惜还没有机会分享。北京群一直要找一个机会搞分享,正好IC咖啡主办方找到西瓜哥,因此,就定在日周五晚上,地址就在北京中关村创业一条街的IC咖啡馆。西瓜哥提前到达了IC咖啡馆,发现到早了。就出去找给地方吃饭。创业一条街全部是华为公有云的广告,这个好像不是华为以前低调的风格。可惜西瓜哥下周出差,不能现场参会,只能看直播了。有一网友说等他一块吃饭,因此西瓜哥就到旁边的京东奶茶馆碰碰运气,可惜东哥和奶茶妹都不在。和网友吃饭路上,还碰到了中油瑞飞的用户,也是来参加我们的沙龙的。吃完饭回到IC咖啡馆,惊喜发现有热心网友准备了一个大西瓜。这个就是西瓜哥沙龙的惯例了,谢谢这位热心的网友。7点10分,西瓜哥开始忽悠。从这个角度看肚子有点大,这个表示肚子有货,也可以表示是草包,O(∩_∩)O哈!西瓜哥重点介绍狭义的高端存储的定义、市场地位、起源和架构演变。希望参加沙龙的都知道为什么西瓜哥眼里只有这几款高端存储。大量时间都是讲历史,通过时间轴把高端存储的架构演变全部忽悠了一般。为了掩盖西瓜哥技术深度不够的缺陷,西瓜哥演绎了很多的故事,大家感觉参加了一个袁腾飞的百家讲坛似的,O(∩_∩)O哈!一不小心,2小时就过去了,中间把话筒和激光笔都讲坏了,O(∩_∩)O哈!后面针对每个产品的点评就没有时间讲了。以后找机会再说了。因为展开来讲,还需要两个小时。会场大概来了70人左右吧,非常感谢大家的捧场。鞠躬再鞠躬。有人觉得站着听更过瘾,任性啊。会后,还安排了提问环节,主办方还准备了5份礼物给提问的人员,可惜没有人拍照。而且,主办方还给西瓜哥一个“奖状”,西瓜哥已经很长时间没有拿过奖状了,仿佛又回到小学拿三好学生时的样子。会后,坚持到最后的网友合影留念。不错,本次北京沙龙还是有镁铝的,万绿从中一点红啊。然后我们就是相互拍拍,O(∩_∩)O哈!最后,一起消灭西瓜,注意,没有哥。这也是我们的惯例。吃完西瓜,各回各家,各找各妈。回家后看了看朋友圈,感觉一晚上的忽悠还是对大家有点启发的,摘录一下,没有做处理,希望朋友门原谅。作为“高端存储知识”的CHO(首席忽悠官),西瓜哥打算继续把忽悠发扬光大,7月27日(周一)广州继续忽悠,兑现到一个地方忽悠瘸一个地方的承诺。西瓜哥坚持尽量每天都写一篇文章,坚持建立本地微信群,做线下沙龙,关键的关键,这都是免费的。也就是在互联网时代,只要你愿意学习,你需要做的只是投入精力,而不是金钱。因此,西瓜哥感觉自己还是蛮响应国家提倡的“互联网+”精神的嘛,让很多本来没有机会接触高端存储的朋友了解高端存储,这也是体现教育平等吧。【周末游戏:最佳评论】西瓜哥的“高端存储知识”很早就开通赞赏和评论功能了,使得西瓜哥和网友的互动更加方便。也希望大家看完文章后经常回来看看大家的评论。其实评论大家也可以点赞的,但估计很多人不清楚。起来,利用这些功能,可以玩一下好玩的游戏。今天,西瓜哥设计了一个游戏,大家周末来一块玩玩。1、参加游戏的人首先必须赞赏,金额1元起,多随意。2、然后在评论里写上对西瓜哥的评价,一定要写得有趣。比如西瓜哥未婚先有子,简直就是一个忘恩负义郎之类都行。3、在你认为写得最有意思的评论上点赞。4、7.27日(周一)晚上12:00截止,点赞数最高的评论赢得本次所有人赞赏的钱。冠军记得保留截图,然后联系西瓜哥要钱哦,如果西瓜哥忘记截止时间的话。来吧,行动起来。调侃西瓜哥,消费西瓜哥的时候到了。高端存储知识(High-end_Storage) 
 文章为作者独立观点,不代表大不六文章网立场
High-end_Storage普及高端存储知识,西瓜哥原创学习心得每晚分享,聚焦主流高端存储EMC VMAX3、HDS VSP G1000、HP 3PAR StoreServ 10000、IBM DS8870、IBM XIV G3、华为OceanStor 18000等。热门文章最新文章High-end_Storage普及高端存储知识,西瓜哥原创学习心得每晚分享,聚焦主流高端存储EMC VMAX3、HDS VSP G1000、HP 3PAR StoreServ 10000、IBM DS8870、IBM XIV G3、华为OceanStor 18000等。&&&&违法和不良信息举报电话:183-
举报邮箱:
Copyright(C)2016 大不六文章网
京公网安备78Hedvig的统一SERVER SAN比Ceph好在哪里?让EMC倍感压力?-高端存储知识-微转化
普及高端存储知识,西瓜哥原创学习心得每晚分享,聚焦主流高端存储EMC VMAX、HDS VSP G1000、HP 3PAR StoreServ 10000、IBM DS8870、IBM XIV G3、华为OceanStor 18000等.
她的照片引爆了100000评论,接下来的事情更震惊......
[广告]●●●●●●●●●●●
热门公众号Accounts
精彩内容热门推荐
wei-rongxian
微容县时代,为容县商家提供微平台服务~
I_like_Paris
世界顶级名表、名包、各类欧美名牌服装、首饰、珠宝鉴赏;欧美品牌厂商、奥特莱斯店介绍
yanjiaovip
燕郊微分享:为您传播价值,丰富人生.每天都分享有爱、有趣、有价值的燕郊事情和新闻.提供新鲜实用的燕郊资讯,解答你在燕郊生活遇到的问题.
cctvnewscenter
传递有价值的信息!
把妹的目的不是把妞推到,而是增加个人魅力和能力,让你身边人都喜欢和你做朋友.事业爱情双丰收.
terror-corner
搜罗各类恐怖故事、漫画、电影、谜题,如果你够胆,就来关注我吧!
gh_3d77feafd24d
自由职业者、独立思考者吴鹏飞创办的《吴鹏飞手机报》,宗旨是:看到真相,听到真话;老吴说话,不会停下.希望打造当今中国最受欢迎的思想平台.
看搞笑视频为您分享搞笑视频短片;搞笑视频集锦;内含恶搞;爆笑;雷人;愚人;自拍;搞笑等经典搞笑短片;搞笑视频笑死人不偿命哟!只有关注后才能看哦~~;;
参与、沟通、记录时代.
Hedvig的统一SERVER SAN比Ceph好在哪里?让EMC倍感压力?
阅读&27325&发表& 20:51:24
西瓜哥第一次关注Hedvig的时候,是去年学习Docker的时候(参见)。不过,那个时候,SERVER SAN产品见多了,也没有觉得Hedvig怎么样。但今年Gartner把Hedvig评为存储的Cool Vendor,让我有点意外,但还是没有太在意这个厂商。SERVER SAN里面,我关注比较多的还是VMWware VSAN和EMC ScaleIO。关于这两个产品,我也写过很多学习心得,就不再一一列举。但是,就在去年,Hedvig把EMC SacleIO EMEA(欧洲、中东和非洲)的头Bam挖了过去。还有EMC ScaleIO的一个样板点大客户Van Dijk Education也变节了,把EMC的ScaleIO替换为Hedvig。这两件事情,让我突然对Hedvig产生了浓厚的兴趣。为什么这个初创公司这么厉害,其产品到底有什么特点,让EMC ScaleIO怎么难受?从IT Central Station社区看到,由于Hedvig是统一的SERVER SAN资源池,同时支持块、文件和对象,因此大部分用户首先把它和Red Hat Ceph做比较,其次才是Nutanix,ScaleIO等。大家知道,Hedvig是闭源的,而Ceph是开源的。除了开源和闭源,它们还有什么不同吗?从Hedvig自己的比较看,虽然Hedvig和Ceph从大的功能上非常相似,都是统一的资源池,但内部架构大大不同,最重要的不同是Ceph的本质是一个对象存储,其块和文件服务都是基于对象提供的,因此性能上不如Hedvig。Hedvig宣传其块性能要比Ceph高7-8倍。不过,这不是也打击了VMware的vSAN吗?因为其官方宣传其底层也是对象存储(参见)。Hedvig还列举了除了性能外其他很多的优势,具体大家看下图对比吧。看样子,好像Hedvig真是不错,特别是企业特性非常丰富的,比一般的SERVER SAN特性多多了。看来是时候了解一下Hedvig的技术特点了。初创公司的技术背景很重要。我们了解到,Hedvig在2012年创立,其CEO Avinash Lakshman(看名字应该是印度人,存储软件Startup现在都被印度人占领了,而存储硬件Startup则是以色列人的长项,如Moshe Yanai的Infinidat)在技术圈大名鼎鼎,是Amazon Dynamo的联合发明人,Apache Cassandra的发明人。和Nutanix一样,这是一个具有互联网基因的公司(据说Nutanix就是基于大量修改Cassandra而来的)。但Nutanix虽然以SDS为核心,但定位是一个HCI厂商,而Hedvig却定位是一个纯粹的SDS厂商。Hedvig只销售软件,用户购买商用服务器组成一个分布式的统一存储平台,支持超融合部署和两层部署(计算和存储分离)。Hedvig认为自己和市场上的SDS和超融合产品都不同,除了具备Virtual SANs部署灵活特点外,还具有高端存储的企业存储特性。也就是我具有你们所有的优点,这个怎么可能啊?Hedvig在设计的时候,定了7个设计原则。除了具有几乎EMC ScaleIO的优势外,Hedvig还支持ARM服务器,支持文件(NFS,马上支持SMB)和对象(Swift和S3),支持容器(Docker),支持在线重删压缩(ScaleIO有路标支持压缩)、自动分层,支持混合云部署和DR。Hedvig最核心的就是其专利的分布系统引擎(Hedvig Storage Service),它提供数据管理服务和数据保持服务。除了Hedvig Storage Service(类似ScaleIO的SDS),Hedvig还有一个访问层Hedvig Storage Proxy(类似ScaleIO的SDC),如果是VM环境,Storage Proxy部署成VM,如果是物理机器,则Storage Proxy部署为Docker容器形态,提供block,file和object访问支持。为了可靠,Storage Proxy具有HA功能,防止单点故障。这个HA功能也可以利用VM的HA功能实现。还有一个存储的资源抽象叫Hedvig Virtual Disk。这是一个抽象的单位,所有的企业特性都是基于这个粒度来实现,可以理解为主机看到的卷。从配置界面我们可以看到,可以选择这个Virtual Disk的类型(iSCSI或者NFS),可以针对这个Virtual Disk选择是否启动重删和压缩,可以选择是否是全闪存和混合介质(支持自动分层),可以选择块大小(缺省是4K),可以选择复制的策略(是机架冗余还是数据中心冗余),还有复制的因子(原来是2-6,现在改为1-6了,截图是旧的),也就是数据可以保存1份到6份。大家知道,ScaleIO只支持2副本。Hedvig为什么考虑支持1副本形态呢?这不是没有任何冗余吗?其实这里主要针对支持Hadoop的HDFS文件系统场景,虽然Hedvig并没有提供HDFS接口,但Hadoop集群可以利用Hedvig作为存储来建立HDFS,而HDFS本身就是三副本的保护方式,如果Hedvig再做数据复制就太浪费了。Hedvig最多支持6副本的方式,这样可以支持4个活动的数据中心,可以跨全球部署,甚至部署到公有云上去。从下图我们可以看到,主机如果采用对象接口,可以不安装Storage Proxy组件的,直接通过AWS命令行或者OpenStack GUI可以调用相应的接口。目前Hedvig和Cisco合作,我们从其参考架构的文档来看看Hedvig的一些细节部署。Hedvig的存储节点是基于CentOS的,一般要求配置2块系统盘保存Linux系统(镜像),配置2块SSD保存元数据和作为读写Cache,然后就是多块的HDD数据盘。Hedvig把每三块数据盘组成一个存储池,然后把池切成16GB的粒度,Hedvig把它叫Container或者Chunk(为了不和Docker那个容器封装搞混,我后面就用Chunk来代表)。这个Chunk颗粒比较大,16GB,相比ScaleIO的1MB要大多了。复制的单位就是Chunk。一般来说,Chunk太大,对小文件的处理性能就比较差,但估计Hedvig有别的机制来解决这个问题。Chunk可以被多个Virtual Disk共享,而Virtual Disk还切为更小的数据块,因此Chunk大一些估计问题也不大。关于硬盘的重构速度,Hedvig宣传4TB的硬盘重构只需要20分钟,已经是非常快的了。还有,我们看到第三台服务器没有安装Proxy VM,但也可以通过iSCSI和NFS通过第二台服务器的Proxy VM访问存储,这种部署方式就更加灵活了。不管怎么说,采用副本的方式,存储的空间还是太浪费了。现在VMware VSAN支持RAID,而Nutanix开始支持纠删码。但副本的性能肯定是最好的,而且只有副本才能支持跨数据中心的DR部署。因此,Hedvig没有计划支持纠删码,只是建议针对性能要求不高的场景,如对象存储,开启在线压缩和重删,而且无需采用全闪存,这样可以弥补副本造成的空间浪费。虽然Hedvig不需要全闪存,但没有闪存是万万不行的。Hedvig在存储节点利用SSD保持元数据和写优化,可以把随机小I/O变为顺序大I/O,还可以作为自动分层的性能层保存热点数据。客户端的闪存也可以作为读Cache进行加速。大家可以看到,一般的SERVER SAN都不用服务器的DRAM做写cache,因为无法实现掉电保护,如果采用NV-DIMM成本又太高,因此,基本都是采用SSD作为写缓存。因此,SSD基本都是必配的,否则系统性能会非常差。由于Hedvig的元数据和其他数据采用一样,每个存储节点都有,因此是否可以理解为全对称的SERVER SAN?这些元数据可以实现快速而丰富的数据服务,如做快照和克隆的时候,其实只是进行元数据的操作,而元数据全部都在SSD里,因此速度还是非常快的,几乎是实时的。我思故我在1、Hedvig从特性来说,几乎是EMC ScaleIO的超集。可以这么理解,Hedvig=EMC ScaleIO(block)+Isilon(file)+ECS(object),以一敌三。据说Hedvig的价格也很便宜,因此EMC头疼是正常的。现在很多用户,还是特别喜欢统一的存储资源池这个概念的。但Hedvig毕竟是一个新公司,目前案例还不多,性能到底如何,也没有第三方的测试报告。EMC采用这种best of breed产品策略,暂时还是没有什么问题,特别是ScaleIO,可以打击Hedvig的不成熟和性能(就说统一存储的块性能肯定不让专门做块存储的),让客户不敢把关键业务迁到Hedvig上去。而Isilon采用纠删码,可以在存储空间利用率上打击Hedvig的副本方式。但从趋势来看,统一的存储资源池应该是方向,就像在中端存储领域,EMC Unity最终也融合了。Server SAN领域,未来也一样。2、华为其实也存在和EMC一样的问题,块资源池主推FusionStorage,而文件资源池主推OceanStor 9000,对象资源池原来主推OceanStor UDS,现在用OceanStor 9000提供对象接口支持。不过,从华为公布的路标来看,未来FusionStorage会同时提供三种服务,实现融合的存储资源池,类似目前Hedvig的形态。在FusionStorage暂时做不到融合之前,现在可以采用OceanStor DJ(提供服务编排)+FusionStorage(block池)+OceanStor 9000(file+objiect池)来构建融合的资源池方案,满足客户的需求。亲爱的读者,你觉得融合统一的SERVER SAN会在市场上成功吗?
评论Comments
微信公众号更多公众号:High-end_Storage普及高端存储知识,西瓜哥原创学习心得每晚分享,聚焦主流高端存储EMC VMAX3、HDS VSP G1000、HP 3PAR StoreServ 10000、IBM DS8870、IBM XIV G3、华为OceanStor 18000等。最新文章相关作者文章搜狗:感谢您阅读Hedvig的统一SERVER SAN比Ceph好在哪里?让EMC倍感压力?,本文由网友投稿产生,如果侵犯了您的相关权益,请联系管理员。当前位置: > >
你会把ORACLE RAC跑在VMware VSAN上吗?
来源:高端存储知识&&作者:西瓜哥
VMware一直在推动把关键业务也跑到VMware VM上。VMware说,他们支持目前的主流数据库,包括Oracle。
VMware一直在推动把关键业务也跑到VMware VM上。VMware说,他们支持目前的主流数据库,包括Oracle。
根据Oracle的官方声明,Oracle不喜欢用户跑在VMware VM上。如果用户非要用,出了问题怎么办?Oralce说,是自己的问题会解决,但如果是VMware的问题,就不管了。特别针对ORACLE RAC,ORACLE明显说明没有义务支持。
由于支持扯皮的问题,大部分的用户都没有把ORACLE应用虚拟化,特别是金融的客户。还有虚拟化后,性能肯定下降一些,本来一台物理服务器性能就不够。加上ORACLE的License按照物理CPU收费的,要充分利用CPU的资源。
但也有很多VMware的粉丝把Oracle跑在VM上,特别是很多企业的开发测试环境。因为VM的部署更灵活,运维也更方便。少数企业也把ORACLE应用虚拟化用在生产环境上,因为不是所有的数据库都要求很高的性能,或者不是一直要求在峰值运行。
为了推广VMware VSAN,近日VMware在其Blog公布了ORACLE跑在VSAN上的一些测试结果,我们简单来看看。
介绍一下测试环境,VMware用了全闪存的VSAN配置:
Four Intel S2600WT2 systems were used, each with 2 x ES-2699 v3 processors @ 2.3 GHz, 18 cores per socket and 128 GB of RAM.
A 400 GB Intel DCS3700 PCIe flash card was used for caching in each server, complemented by 3 480 GB Intel DCS3500 SATA SSDs used for capacity.
Oracle 11.2.0 RAC was used, running on vSphere 6 on Oracle Linux Server.
首先测试单实例的性能。VMware说没有进行调优,测试结果还不错,平均每分钟7万笔左右的交易。
然后VMware测试了4个节点RAC的性能表现,可以做到每分钟40万笔交易,大约是4倍单实例性能的93%。而且时延只有12ms,这个是从应用层面看的,还算不错。
VMware还一个节点一点节点增加,看性能的变化曲线。测试发现性能几乎是线性增长的。
然后,VMware测试计划停机,即vMotion的表现。在4节点RAC的环境下,把一个节点迁移到另外一个物理机上的时间。
测试结果还不错,19秒就可以把完成vMotion,还是很快的。
但如果是非计划宕机呢?还是在4节点的RAC环境下,VMware模拟一个节点掉电,132s后,另外一台VM起来,然后再花了119s,掉电的实例恢复正常。整个过程大约需要4分多钟时间。
我们看到,VMware VSAN和ORACLE RAC确实可以协调工作,而且性能也还不错。但全闪存配置,应该成本也不低。加上出了问题ORACLE不一定支持,你愿意为了VM的灵活性而采取这种方案吗?
编辑:闫春春
更多相关内容
频道最新文章
热门文章本周本月

我要回帖

更多关于 倍感压力 的文章

 

随机推荐