MD3600I控制器挂了一个,智能阵列控制器ISCSI无法访问

列表网公众号列表活动随时有扫我活动不错过
下次自动登录(公共场合慎用)
使用合作网站账号登录:
收藏成功!
您可在个人中心,查看
类&&&&别:
9500&元&每件
起订数量:
商家地址:
北京 北京市昌平区 王庄工业园2
查看联系方式
查看联系方式
联系我时说明在列表网看到,说不定有意外惊喜哟!
微信扫一扫,快速拨打电话
DELL MD3600I MD3620I M6WPW iSCSI 10GB 控制器 北京众勤业成科技有限公司
联系人:郭逸
QQ:IBM DS3200 控制器电池 39R0 42C2193 IBM DS3200 电源 39R0 IBM DS3200 电源 42C1IBM DS3300 控制器电池 39R3 39R6519
IBM DS3300 控制器电池 42C9 39R6520IBM DS3300 电源 39R0 IBM DS3300 电源 42C1
DELL MD3600I MD3620I M6WPW iSCSI 10GB 控制器 北京众勤业成科技有限公司
联系人:郭逸
QQ:IBM DS3400 控制器电池 39R0 42C2193 IBM DS3400 电源 39R0 IBM DS3400 电源 42C1
IBM DS3500 控制器电池 69Y7 69Y2844IBM DS3500 电源 69Y0IBM DS3512 控制器电池 69Y4 69Y2926 IBM DS3512 电源 69Y1 IBM DS3524 控制器电池 69Y6 69Y2927
DELL MD3600I MD3620I M6WPW iSCSI 10GB 控制器 北京众勤业成科技有限公司
联系人:郭逸
QQ:IBM DS3524 电源 69Y1 IBM DS4100 控制器电池 24P1 24P8063 IBM DS4100 控制器电池 39R3IBM DS4100 电源 19K1289 AA21660IBM DS4200 控制器电池 41Y0679 IBM DS4200 电源 42D5 81Y2437 IBM DS4200 电源 42D0 41Y5154IBM DS4300 控制器电池 24P1 24P8062IBM DS4300 控制器电池 42C9 DELL MD3600I MD3620I M6WPW iSCSI 10GB 控制器 北京众勤业成科技有限公司
联系人:郭逸
QQ:IBM DS4300 电源 19K1289 AA21660IBM DS4500 控制器电池 24P0953IBM DS4500 电源 01K6743 AA20920A IBM DS4700 控制器电池 41Y0679 IBM DS4700 电源 41Y7 42D3346 IBM DS4700 电源 42D4 42D3345 IBM DS4800 控制器电池 23R4 IBM DS4800 控制器电池 22R3DELL MD3600I MD3620I M6WPW iSCSI 10GB 控制器 北京众勤业成科技有限公司
联系人:郭逸
QQ:IBM DS4800 电源 17P9 22R4266 IBM DS4800 电源 22R6 23R0646 IBM DS5020 控制器电池 81Y0
IBM DS5020 电源 59Y1 42D3346 IBM DS5020 电源 41Y7IBM DS5100 控制器电池 59Y2
IBM DS5100 电源 46C3 81Y2436 IBM DS5300 控制器电池 81Y0 DELL MD3600I MD3620I M6WPW iSCSI 10GB 控制器 北京众勤业成科技有限公司
联系人:郭逸
QQ:IBM DS5300 电源 46C6 46C8871
电源 764W 85Y3 85Y6070 IBM V7000
电源 764W 85Y2IBM V7000
电源 580W 85Y6DELL MD3600I MD3620I M6WPW iSCSI 10GB 控制器 北京众勤业成科技有限公司
联系人:郭逸
联系我时,请说是在列表网栏目上看到的,谢谢!
小贴士:DELL MD3600I MD3620I M6WPW iSCSI 10GB 控制信息由列表网网友发布,其真实性及合法性由发布人负责。列表网仅引用以供用户参考。详情请阅读列表网免责条款。
请在查看您收到的留言
手机号码:
获取确认码
已发送(120)
所在城市:
留言内容:
快捷留言:
想了解一下详情,请尽快联系我。
我对您的商品感兴趣,请尽快和我联系。
需要解决域名被墙的问题,需要支持301跳转重定向的服务器,需要国内免备案的服务器,可以联系我24小时在线QQ : 2818460
DELL MD3600I MD3620I M6WPW iSCSI 10GB 控制 相关广告
&2017 列表网&琼ICP备号-12&增值电信业务经营许可证B2-&很多人遇到过服务器RAID5挂掉,往往掉一个盘后,第二个盘也立刻挂掉。
大家都知道RAID5 一次允许一个盘缺失,
RAID 5也是以数据的校验位来保证数据的安全,但它不是以单独硬盘来存放数据的校验位,而是将数据段的校验位交互存放于各个硬盘上。这样,任何一个硬盘损坏,都可以根据其它硬盘上的校验位来重建损坏的数据。硬盘的利用率为n-1。
如果挂掉两个盘,数据就玩完了。理论上两个硬盘同时失效的概率是很低的,但为什么会这样呢?
从数学角度说,每个磁盘的平均无故障时间 (MTBF) 大约为 50 万至 150 万小时(也就是每 50~150 年发生一次硬盘损坏)。实际往往不能达到这种理想的情况,在大多数散热和机械条件下,都会造成硬盘正常工作的时间大幅减少。考虑到每个磁盘的寿命不同,阵列中的任何磁盘都可能出现问题,从统计学角度说,阵列中 N 个磁盘发生故障的机率比单个磁盘发生故障的机率要大 N 倍。结合上述因素,如果阵列中的磁盘数量合理,且这些磁盘的平均无故障时间 (MTBF) 较短,那么在磁盘阵列的预期使用寿命过程中,就很有可能发生磁盘故障(比方说每几个月或每隔几年就会发生一次故障)。
两块磁盘同时损坏的几率有多大呢(&同时&就是指一块磁盘尚未完全修复时另一块磁盘也坏掉了)?如果说 RAID 5 阵列的MTBF相当于MTBF^2,那么这种几率为每隔10^15个小时发生一次(也就是1万多年才出现一次),因此不管工作条件如何,发生这种情况的概率是极低的。从数学理论角度来说,是有这种概率,但在现实情况中我们并不用考虑这一问题。不过有时却是会发生两块磁盘同时损坏的情况,我们不能完全忽略这种可能性,实际两块磁盘同时损坏的原因与MTBF基本没有任何关系。
今天刚好在测试一个ZFS阵列,能清晰地进行数据校验并看到结果,于是正好分析了一下原因。
对这种情况来说,这里首先要引入一个一般人不常接触到的概念:
BER 硬盘误码率,英文是BER(Bit Error Rate),是描述硬盘性能的一个非常重要的参数,是衡量硬盘出错可能性的一个参数。
这个参数代表你写入硬盘的数据,在读取时遇到 不可修复的读错误的概率。
(不能恢复的ECC读取错误)从统计角度来说也比较少见,一般来说是指读取多少位后会出现一次读取错误。
随着硬盘容量增加,驱动器读取数据的误读率就会增加,而硬盘容量暴涨,误码率的比例一直保持相对增加。一个1TB的驱动器是需要更多读取整个驱动器,这是在RAID重建期间发生错误的概率会比300G 驱动器遇到错误的几率大。那这个错误的几率到底有多大呢?或者说,我们写入多少GB数据,才会遇到1byte的读取错误呢?
对于不同类型的硬盘(以前企业级、服务器、数据中心级硬盘用SCSI/光纤,商用、民用级别是IDE;现在对应的则是SAS/SATA;他们的MRBF(平均无故障时间)是接近的,但是BER便宜的SATA硬盘要比昂贵的SCSI硬盘的误码率(BER)要高得多。也就是说,出现某个sector无法读取的情况,SATA要比SCSI严重得多。这两种硬盘(企业级的SCSI/ FC/ SAS 磁盘)/(商用/民用级的IDE/SATA)BER的差距大概是1-2个数量级。
按照文中的计算,一个1TB的硬盘,通常你无法读取所有sector的概率达到了56%,因此你用便宜的大容量SATA盘,在出现硬盘故障的情况下重建RAID的希望是:无法实现。
我们回到RAID5的情况来。在RAID5大行其道之初,硬盘的容量基本不超过100GB.
在过去,做RAID5一般RAID的磁盘容量都不大,比如72GB。无法恢复一个RAID的概率按照文献是1.1%(注意,1.1%已经很不错了,因为你在硬盘故障之后,才需要去恢复RAID。两个概率是要相乘的。
当硬盘容量上升到200GB,假设出现故障的概率是线性增长的[1]。那么失败率有11%,估计负责存储的人就被老板操的厉害了。
但是56%,也就是你用1TB的SATA硬盘做RAID5的话,当你遇到一个硬盘失效的情况,几乎剩下的两个以上硬盘(RAID5最少组合是3个)铁定会遇到一个硬盘读取错误,从而重建失败。
所以,以前小硬盘做RAID5,基本很少遇到同时挂掉两个盘的情况;现在硬盘大了,出问题的概率也越来越大了。
有人会问:56%?文章里面这个数据还是显得有些&不可信&。大概是因为下面两个原因,我们才没有怎么听说过这么高的BER吧。
首先,我们自己用的硬盘都不会跑RAID。虽然现在我们自己的硬盘容量也变得很大(现在主流台式机SATA硬盘应该就是500G),但是这个量级的硬盘上,你往往不会把500G硬盘全部写满;而大多数数据你都很少去读取它。因此从概率上讲,坏道出现在那些没卵味的电影和音乐上的可能性大很多:大多数电影和音乐都没卵味。
但是对于跑RAID的用户,对整个硬盘进行读取的事情经常发生。即使系统足够和谐,知道不对你报告那些出现在你从不读取的文件中的坏道,但是也只是略过了报告这一步:它还是会找到所有的坏道,56%就来了。
其次,虽然你丢了一些sector,一般情况下也没啥关系。还是以电影和音乐为例,大多数的压缩算法都从设计上允许有一些这样或者那样的误码。丢了几个sector的数据,也许对你来说就是松岛枫身上一些无名的马赛克而已,你都不知道是硬盘作祟。
现在还有所谓的监控专用企业级SATA,其原理就是在固件上做手脚,让硬盘即使遇到写入的数据读取错误,也不管三七二十一直接跳过,不再重试读取(标准硬盘的读取方式是遇到某个扇区CRC错误自动重新再去读,直到读到正确的数据为止)。这对监控数据来说是理所当然的(大多数监控的硬盘都是在不停地写入,但是很少需要读取),除非遇到出现问题需要重现影像时。遇到这种情况概率是很低地,我手头的数十个十六路硬盘摄像机,镜头也过百个,基本上几个月才需要用到回放一次,而即使需要回放,也只需要其中的很小一部分数据(比如某几个摄像头,某一天中一个小时的录像)。但是拿这种硬盘来做RAID5就更糟糕了,当RAID5重建需要数据百分百正确时,你压根不可能读到正确的数据。
我们继续来看今天的测试数据:我用FreeBSD 的RAIDZ软阵列创建了一个6X1TB硬盘的RAID5。当然,我没有硬盘损坏,这六个硬盘都是好的;但是我们不管这个,这里用RAIDZ的原因是RAIDZ有数据巡检(scrub)功能,然后又能直观地看到数据巡检的结果。一般的硬件阵列卡,也就是插在主板PCI/PCIX/PCIE/或者主板集成的RAID5,压根就没这项功能;企业级的数据存储,也只有到盘阵级别(比如IBM DS00,DELL MD3000....etc)才有这类功能,但是你也看不到检查的结果,最多能在日志里看到某个硬盘CRC失败,然后跳红灯掉出来,阵列柜告警通知你换硬盘。你别想知道这个硬盘到底是彻底挂了呢,还是有读取错误,还是有坏道。。。总之两眼一抹黑。ZFS的好处之一就在这里了:你在命令行打个 zpool scrub tank (tank就是你创建的raid的名字),它就开工忠实地开始巡检整个阵列了,读取上面的每个字节数据,并与当初写入时的md5值进行比较,发现错误的话就报告,并尝试用冗余数据修复。这个过程是后台进行的,并且用户可以直观地看到巡检的进度、速度/所需时间以及结果。
scan: scrub in progress since Tue Jan 10 16:19:26 2012
4.67T scanned out of 5.02T at 332M/s, 0h18m to go
620K repaired, 92.88% done
READ WRITE CKSUM
mfisyspd0p3
(repairing)
mfisyspd5p3
(repairing)
mfisyspd1p3
(repairing)
mfisyspd4p3
(repairing)
mfisyspd2p3
(repairing)
mfisyspd3p3
(repairing)
errors: No known data errors
哦,我来解释一下上面的数据的意思。为了方便起见,我在前面编了1-9行号。第二行,数据量/阵列容量,剩余时间。因为是测试,我非常BT地把阵列几乎塞满了数据;第三行:读取错误数据量//巡检进度;
7,8,就是阵列状态,第9行以后是6个硬盘的编号和状态。大家要注意的是第9行开始以后6行的最后一列,也就是提示repairing括号前的CKSUM数据。看到墨有?有墨有?有墨有?
每个硬盘都出现了数量不等的读取错误,最少两个盘各两个;最多一个盘8个。
OK。经过整整四个多小时的扫描后,我们的阵列数据修复了620K。这些数据才刚写进去没过多久,最早的数据也没有超过一周。
scan: scrub repaired 620K in 4h25m with 0 errors on Tue Jan 10 20:45:12 2012
READ WRITE CKSUM
mfisyspd0p3
mfisyspd5p3
mfisyspd1p3
mfisyspd4p3
mfisyspd2p3
mfisyspd3p3
但是这个修复的原因是RAID5,并且每个硬盘都是好的状态,有提供足够的CRC冗余。
你别小看这620K&&当你的RAID5挂掉了一个盘(根据MTBF原理,你如果有50个硬盘,每年都可能损坏至少一个);
这620K数据就是致命的了:剩下的5个硬盘,已经无法提供足够的CRC校验数据;除非每个字节都能被顺利读取,否则这个RAID5算是废了,只要有1个扇区错误,你就算用一个全新的硬盘替换掉那个挂掉的硬盘,也无法顺利重建RAID5。对于市面上常见的阵列卡,直接的后果就是,在用热备盘重建时,或者甚至尚未开始重建(RAID5没有热备又没有及时发现硬盘挂掉,或者手头、仓库没有冷备盘,采购途中等)RAID5带病运行时,需要读取数据,偏偏又很不巧读到那个该死的BER扇区,于是BER扇区所在的硬盘直接跳掉。。。又红了。。。。。
嗯嗯,以上数据已经解释了RAID5往往一次挂两个的原因&&不是用户RP问题,从BER 角度来说,是硬盘其实早坏鸟,我们没发现而已。当某个硬盘因为MTBF原因整个挂掉,有问题的BER 扇区开始跳出来作梗,于是RAID5就完蛋鸟。
我们也能总结遇到RAID5一次挂掉俩盘的概率:
1. 使用越大容量的硬盘做RAID5,遇到BER 扇区的概率越大;比如用100G硬盘做RAID5就比用1TB的安全;2. 使用越多盘数的硬盘做RAID5,遇到BER 扇区的概率越大;比如用3个盘做的RAID5,比6个盘做的RAID5安全;3. 使用越便宜的硬盘做RAID5,遇到BER 扇区的概率越大;比如用SCSI/FC/SAS盘比用IDE/SATA的RAID5安全;4. RAID5里面存放的数据越多,塞得越满,遇到BER 扇区的概率越大;比如存了100G数据的比存了1TB数据的RAID5安全;
第四条同时也要看阵列卡,某些卡REBUID时只读取存过数据的扇区,某些卡则不管三七二十一要读完整个盘。
从数据角度来说,ZFS软阵列此时有它独特的优势:即使存在BER扇区,它也能跳过坏扇区继续读取其他数据,从而将损失控制在最小范围内(仅仅是BER扇区所在的文件有问题,而不会整个阵列挂掉)
比如这个例子:
scan: scrub repaired 0 in 9h0m with 4768 errors on Thu Sep 8 08:23:00 2011config:
NAME STATE READ WRITE CKSUMftp ONLINE 0 0 39da2 ONLINE 0 0 156
errors: Permanent errors have been detected in the following files:
ftp:&0x7ef04&ftp:&0x7ef11&ftp:&0x7ef12&ftp:&0x7ee1a&ftp:&0x7ef31&ftp:&0x7ef42&ftp:&0x7ee57&ftp:&0x7ef5e&ftp:&0x7ef6d&ftp:&0x7ee70&ftp:&0x7ee71&ftp:&0x7ef71&ftp:&0x7ee87&
10TB的分区,巡检后发现156个错误,但是损失仅仅是13个文件。而且能指出这13个文件的位置及文件名,并且这13个文件也不是完全不能读取,仅仅是某些字节损坏而已。
也许这13个文件中有些是影音、图像,损失几个字节无伤大雅;也许是其他地方另有备份,可以重新复制过来;也许是某些系统文件,只需重装软件或系统即可恢复,总之,用了zfs 后损失可以控制在能容忍的范围内,这就是zfs软件阵列的优势了。
顺便鼓吹一下,zpool scrub 命令可以定期执行哦,比如每隔1-2周的周六晚上开始运行,自动检查并修复错误。这种数据自动巡检功能我从来没有在任何插卡式或者板载阵列卡上见到过,只有阵列柜级别的存储设备上才有,而且巡检报告也没有精确到文件级别这种程度。
如果用了硬件阵列卡,这个就悲剧了。。。。啥都没有。
OK,原因已经分析了,经验也总结过了,最后一节:怎么做?我是下载狂,一定要要放很多数据,数据量以TB计,即将突破三位数;又是穷人,花不起很多钱,只能用最便宜的SATA盘,最好是最便宜又大碗的西数绿盘;技术有差距啊,折腾不起ZFS;胆子又小,担惊受怕不起,看完这篇文章,想到自己RAID里的数据随时会全部莫有,晚上睡觉都睡不着,伤不起啊肿摸办?解决方案1. 对于不重要的大量数据,比如可以下载来的影音数据,不要做阵列。直接用单盘,每个盘放一批数据。
数据量大到一定程度,目前来说凡是总量在2TB以上的SATA阵列,如果你做了RAID5,不仅数据没保障,万一坏掉一个盘,你有50%以上的概率同时掉第二个盘,那是一定毛都不剩一根。运气好的话,可以通过让第二个挂掉的硬盘强行上线的方式勉强恢复阵列运行,你也必须有同等容量的空间让你腾挪数据;不要说这个数据量的备用空间一般不会有,就算有,来回折腾一次所需要耗费的时间足够让你一个礼拜没个安耽觉睡。有人说不会啊,我这个RAID5读取有300MB/s呢,2TB数据只要两个小时。那是你平时&&RAID5缺盘运行时,性能大概只有平时的1/10-1/20,外加上肯定有读不过去的文件需要跳过。。。。再加上读不过去会掉盘,又要重启重新强制上线&&这样的事件还不止一次,按照前面的测试,6个1T盘一共遇到24个读取错误,也就是你备份的进度得熄火24次&&这些事儿堆一块儿,如果不是一个心理素质非常好的,处理过N起类似事件经验的数据中心老油子,对于第一次遇到这种情况的新手绝对是噩梦般的经历。
解决方案2. 做RAID1阵列。对于重要的、并且经常变动更新数据,比如财务数据、照片、文档资料,建议用RAID1。RAID1多花了一个盘,但是多了一道保障。
解决方案3:光磁介质冷备份。通常我们叫做刻盘,呵呵。或者硬盘冷备&&我两个硬盘各复制一份,拔掉一个硬盘放抽屉里,最适合照片之类数据。
解决方案4:RAID6。不过这个需要高级别的RAID卡支持,这个卡通常会很贵,至少贵出1-2个1TB盘的价值;同等容量还要多加一个硬盘,个人觉得在6个硬盘以内,相对RAID1的方案没有优势。既没有经济优势,又没有性能优势&&啥都没有,不如老老实实做RAID1。优点当然有咯:即使遇到挂一个盘,它还算是一个RAID5&&性能没有大减,数据也还有冗余,我慢慢等硬盘保修回来即可。注意哦,6个1T以上盘。也就是说,你的硬盘总容量少于这个数字,还是不用考虑RAID6了。
假设Raid5的阵列由多块硬盘组成,运行3年了,每天24小时工作,运行这么久硬盘或多或少会有些成长坏道,如果一块硬盘坏了,更换了新硬盘,Rebuild时,其他硬盘的成长坏道将导致Rebuild失败,故有作者"第二块盘坏掉的几率大于70%"一说,实质是疏于管理造成的.自从几个月前吃了亏之后,我格外关注公司几台服务器的Raid的健康状况.这两个月陆续更换了4块存在坏道的硬盘(这些硬盘的使用时间大约是3年多),避免了阵列损坏.我的做法就是抓取Raid阵列卡的日志,查看阵列的"巡读日志"和硬盘的"Midea Error"数量,及时更换存在隐患的硬盘.而且我个人认为hotspare也不是很保险,不能依赖,还是重在管理.
阅读(...) 评论()戴尔统一存储的第一次:PowerVault - TechTarget信息化
戴尔统一存储的第一次:PowerVault
作者:翻译:
来源:TechTarget中国
戴尔在PowerVault NX3500中小企业存储系统中增加了Exanet文件系统,完成了把Exanet集群NAS技术整合到它的存储平台的第一步。   NX3500和PowerVault MD3600i 10-Gigabit以太网 (10 GbE) iSCSI系统可以帮助IT经理从单一存储池中处理文件和模块化数据。戴尔把Exanet技术称为戴尔可扩展文件系统。   戴尔称之为统一存储,虽然NX3500和MD3600i仍然是通过共享普通存储的独立控制台管理的独立产品。
  戴尔从其2010年2月收购的Exanet资产开始了低端的NAS IP。根据戴尔的路线图,将在今年中期把客户扩展文件系统增加……
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
TechTarget中国
戴尔在PowerVault NX3500中小企业存储系统中增加了Exanet文件系统,完成了把Exanet集群NAS技术整合到它的存储平台的第一步。  NX3500和PowerVault MD3600i 10-Gigabit以太网 (10 GbE) iSCSI系统可以帮助IT经理从单一存储池中处理文件和模块化数据。戴尔把Exanet技术称为戴尔可扩展文件系统。  戴尔称之为,虽然NX3500和MD3600i仍然是通过共享普通存储的独立控制台管理的独立产品。  戴尔从其2010年2月收购的Exanet资产开始了低端的NAS IP。根据戴尔的路线图,将在今年中期把客户扩展文件系统增加到它的EqualLogic中端iSCSI SAN陈列中,并最终增加到Compellent光纤通过SAN系统中。  这是统一存储吗?  目前市场上的统一存储系统,也就是多协议存储,没有缺点,其中大部分,例如NetApp的 FAS 平台和EMC的VNX和VNXe系统都支持具有一个管理控制器的计算机上的模块和文件。Dell的NAS和文件存储的产品经理Scott Sinclair说在PowerVault中把文件和模块功能分开可以提升性能。  “从架构的角度来说,统一存储有很多方式。我们所做的不同。我们把处理功能和内存功能分来获得更高的性能。文件处理功能和SAN功能分开了。这样做是为了确保文件的邀请,而不降低SAN性能。”  Evaluator Group的高级合作伙伴和分析师John Webster。他说:“统一存储有很多中定义,也有很多产品叫统一存储。”  Evaluator Group网站最近的一篇博客中,Webster提醒存储经理在购买统一系统之前先认真检查它的架构。  他写到:“存储厂商提出了很多不同的‘统一’存储的执行方法,你必须深入其表面,自己做决定。” Webster在博客里还补充说:“真正的统一存储系统提供独立的用户界面,当存储阵列安装后,或者在其生产过程中,可以管理两个模块或文件系统存储。”  戴尔的系统目前并不满足这些定义,虽然Sinclair说NX3500和MD3600i管理控制器,可以最终联合,现在NX3500管理控制器是Dell PowerVault NAS Manager GUI和命令行界面,而MD3600i采用的是Dell Modular Disk Storage Manager。Dell Modular Disk Storage Manager使用Java界面,而且对服务器和存储阵列之间的冗余数据路径具有多路径的失效备援管理。  Sinclair 说:“在这次发布的产品中,有两个不同的界面的操作方式和外观都很相似。将来,我们将会把他们融合为一个管理工具。”  他说:“我不想说太远的将来。我们不想牺牲性能。但是随着处理器核继续两倍三倍的增加,我们就可能完成这种联合。”  可扩展文件系统  戴尔的可扩展文件系统把存储池作为独立的文件系统和IP地址呈现给客户。  Roscope说除了把可扩展文件系统整合到EqualLogic和 Compellent系统,它还会在存储平台上增加Ocarina的主数据复制功能。  PowerVault NX350可以和Dell PowerVault MD3600i还有MD3620i阵列一起扩展到192TB的原始容量。双控制器可以在激活——激活的环境中镜像到互相的缓存。每个控制其都有1 GbE的前端CIFS和NFS连接端口,以及后端iSCSI连接的1 GbE的端口。  Dell MD3600i可以有一个或者两个控制器。每个控制其都有两个10 GbE iSCSI的端口。3600i使用3.5英寸的驱动,而3620i使用2.5英寸的驱动。
Sonia R. Lelii,存储行业观察者、资深分析师。
IDC和Gartner分别发布了今年第二季度的“全球磁盘存储系统季度追踪报告”和“基于控制器的外部(ECB)磁盘存储市场统计数据”。
TechTarget收集了2010年的五个最佳专家答疑,帮助你的公司了解最重要的数据存储最佳实践。本文的数据存储管理工具和技术包括多协议和统一存储、数据迁移等……
问:我是一家中小企业,我们可以使用集群NAS吗?
答:这决定于你的数据对业务的可用性的重要程度。如果你可以量度……
企业级IT网站群
TechTarget中国 版权所有
All Rights Reserved, Copyright2018
TechTarget中国 版权所有
All Rights Reserved, Copyright2018
我们的网站使用Cookie和其他类似技术(Cookies)来增强您的体验和为您提供相关内容和广告。 使用我们的网站,您同意使用Cookies。 您可以随时更改设置。 .& 前一篇:
后一篇: &
Linux上搭建软件iSCSI存储设备
@ 10/18/2007
[Comp.Tech.]
ISCSI这个概念炒作了很多年了,直到前些天用到了iSCSI设备,才有了个全面了解进而发现,用服务器安装Linux可以充当iSCSI的存储设备linux还真是伟大啊,什么角色都可以做此外,共享的文件系统,借助于iSCSI,可以变成本地磁盘来使用了很多特性终于可以在远程存储上使用了好几个月没写长篇技术文章了,终于又鼓捣出来一篇的说本文全文为PDF格式,转载请注明出处。---------------------------------目 录基于Linux后端的iSCSI配置与使用一、& & iSCSI简介1.& & NAS2.& & SAN3.& & iSCSI架构二、& & 配置Linux存储服务器为iSCSI-target1.& & iscsi-target-enterprise安装2.& & 配置与启动三、& & 配置Windows为iSCSI-initiator1.& & 微软iSCSI-initiator安装2.& & 配置与启动四、& & 配置Linux为iSCSI-inititor1.& & 安装2.& & 配置与启动五、& & 总结一、& & iSCSI简介提到iSCSI,这里需要首先介绍一下目前应用最为广泛的两种数据存储设备:NAS与SAN。1.& & NASNAS的全称是Network-attached storage,即网络连接存储设备。NAS设备通常是一个完整的服务器架构,包含了CPU、内存、网卡、磁盘,其上安装通用操作系统或者精简的专用操作系统,并通过扩展接口连接了大量存储阵列。NAS的访问形式是通过TCP/IP网络进行远程访问,NAS自身的操作系统上运行着相应的网络服务程序,比如Windows文件共享服务、Linux Samba文件共享服务、Linux/Unix的NFS文件系统等。需要访问NAS的设备,通过TCP/IP网络,在远程使用客户端软件来访问。Windows文件共享是操作系统自身已经包含,Linux则需要安装Samba客户端或者NFS客户端来访问NAS设备。NAS主要用途是大容量存储,并带有一定的冗余功能,侧重点在于容量和相对较低的实施成本,对于吞吐量、并发数、冗余性能等通常要求不高。此外,由于NAS的访问形式是文件共享式的访问,操作系统只能将NAS设备挂载成一个网络共享设备,而一些操作系统原生特性是无法在网络共享文件系统上实现的,例如磁盘配额、格式化磁盘、组件磁盘阵列等都不能在远程上实现,这也给NAS的应用造成了一定的局限性。如图,在远程的Windows系统中挂载NAS提供的网络驱动器。如图,在远程Windows服务器上,NAS被作为网络驱动器被映射后,通过磁盘管理器功能是无法获知NAS的任何信息的。对NAS系统的底层操作如磁盘配额、组建阵列、格式化等都需要在NAS服务器本地来实施,不能在远程访问的客户端上进行。2.& & SANSAN的全称是Storage Area Network 。对比于NAS,SAN存储更像是一个外置磁盘阵列,SAN设备本身通常只包含阵列、控制器、接口卡,不包含CPU、内存、通用操作系统。SAN通过标准外置SCSI接口或者光纤SCSI接口连接到服务器上。因此,使用SAN的时候,相应的服务器必须带有外置SCSI、光纤接口等扩展卡。连接到SAN以后,在操作系统上,可以将SAN提供的磁盘阵列直接读取为本地磁盘驱动器,,操作系统不关心这些硬盘是安装在服务器内部的,还是装载SAN设备内的。SAN的侧重点在于高性能、高可靠性,SAN通常容量不是很大,但是提供了光纤、SCSI接口用于同时连接到多个服务器上,SAN所提供的阵列带有RAID5以上的高级冗余功能,确保当部分磁盘故障时,系统性能下降的幅度尽可能的小。SAN的缺点是实施成本比较高,如果采用外置SCSI接口,则需要速度匹配的高性能SCSI接口卡。如果采用光纤接口,还需要光纤交换机等设备。在客户端上使用SAN设备,无论其接口形式是何种,就像使用本地磁盘一样,从磁盘管理器中可以完全看到服务器挂载的SAN设备。如下图,磁盘1和磁盘2分别映射为分区“P”及分区“O” ,即是远程的SAN存储设备。NAS与SAN的特性简单对比如下表:3.& & iSCSI架构从上文的介绍可以看出,NAS和SAN分别有着不同的侧重点。SAN虽然有着很好的性能,但是受限于外置SCSI、光纤通道等连接设备,部署成本较高,且外置SCSI铜缆受到线缆长度的限制,不能远距离部署使用。为了改善SAN的这一缺点,iSCSI协议和规范在2003年被正式确定下来。ISCSI的全称是IP-based SCSI,通过TCP/IP和Internet来传输SCSI的数据包,即基于以太网接口的外置SCSI存储设备。ISCSI分成服务器端和客户端,服务器端叫做iSCSI-target,在实际应用中就是支持iSCSI协议的SAN设备;客户端叫做iSCSI-initiator,在实际应用中就是要访问SAN的服务器。在服务器端和客户端中间,数据的传输通道借助于TCP/IP协议完成,服务器端和客户端都有自己的IP地址,数据传输可通过交换机、路由器进行中继,进而达到在很远的距离上,各种客户端设备依然可以连接到SAN并进行工作。在基于外置SCSI铜缆和光纤SCSI通道的SAN上,SAN连接到的服务器是不需要进行任何特殊配置的,操作系统会将连接上来的SCSI设备视为一个物理磁盘设备。而iSCSI是通过以太网接口连接的,标准的操作系统仅仅将SAN视为一个网络节点,可以通过TCP/IP访问,但不能将其作为物理磁盘设备来使用。这就是为什么需要iSCSI-initiator客户端软件的原因。如图,iSCSI的结构是部署方式:为了进一步降低部署成本,可以在Windows服务器上和Linux服务器上安装iSCSI-target服务器端软件,让现有的服务器变成支持iSCSI协议的SAN存储设备。本文主要讲述的就是如何在一台Linux服务器上安装iSCSI-target服务器端,并分别在二、 Windows、Linux上安装iSCSI-initiator客户端访问SAN。1.& & iscsi-target-enterprise安装ISCSI的安装有多种,可以通过源代码编译安装,也可以直接使用现有的rpm二进制包来完成。首先上传相应的安装包到服务器上,包括iscsi-target的主包和一个内核模块的包。注意,请无比确认上传的版本和当前内核的相匹配。[root@raid ~/iscsi-target]# lsiscsitarget-0.4.12-4_EL.i386.rpm& iscsitarget-kernel-0.4.12-4_2.6.9_22.EL.i386.rpm[root@raid ~/iscsi-target]#执行rpm -ivh 安装iscsi-target相关rpm文件。[root@raid ~/iscsi-target]# rpm -ivh iscsitarget-*.rpmPreparing...& & & & & & & & ########################################### [100%]&
1:iscsitarget-kernel& &
########################################### [ 50%]&
2:iscsitarget& & & & & & ########################################### [100%][root@raid ~/iscsi-target]#将服务设置成自动启动。[root@raid ~/iscsi-target]# chkconfig --add iscsi-target[root@raid ~/iscsi-target]# chkconfig --level 345 iscsi-target on& & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & &
安装完成。2.& & 配置与启动首先将老的配置文件彻底改名,换成新的配置文件。[root@raid ~]# mv /etc/ietd.conf /etc/ietd.conf.old&
编辑/etc/ietd.conf,写入全新的conf配置,内容如下:Target iqn.2007-10.cn.com.swsoft.test.iscsi:testIncomingUser public public123456Lun 0 Path=/dev/sdb1,Type=fileioLun 1 Path=/dev/sdb2,Type=fileioMaxConnections 5这是一个iscsi-target所需要的最小配置。第一行target表示本设备的完全标识,命名方法是iqn.yyyy-dd.domain_name加冒号id。iqn是保留名称,必须用iqn开头,yyyy-dd表示年和日期,表示此SAN设备建立时间。后边的域名和冒号自行起名即可。IncomingUser是授权的用户名和密码,用空格隔开。注意:由于微软的Windows iSCSI-initiator要求密码长度需要在6到12位之间,否则会报错,因此这里设置密码长度要在6到12位之间。Lun 0 这一行表示SAN要提供访问的设备,例如/dev/sda1。如果有多个设备,可以写多行。最后一行MaxConnections 5表示最大并发连接是5。设置完成后启动iscsi-target服务。[root@raid ~]# /etc/init.d/iscsi-target restartStoping iSCSI target service:& & & & & & & & & & & & & & & & & & & & & & &
[& OK& ]Starting iSCSI target service:& & & & & & & & & & & & & & & & & & & & & & &
[& OK& ][root@raid ~]#如果服务启动成功,则检查TCP协议的3260端口,可看到监听。[root@raid ~]# netstat -anp | grep 3260tcp&
0 0.0.0.0:3260& & &
0.0.0.0:*& & &
4860/ietdtcp&
0 :::3260& & & & & & :::*& & & & &
4860/ietd[root@raid ~]#三、& & 配置Windows为iSCSI-initiator1.& & 微软iSCSI-initiator安装微软为Windows2003系统提供了免费的iSCSI-initiator支持,可以从微软官方网站下载到这个组件。将其下载到桌面后,开始安装。 双击执行安装,点击下一步继续。选中所有的安装项目。同意许可协议。安装进行中。安装完成。2.& & 配置与启动双击桌面上的图标启动iSCSI-initiator。启动iSCSI-Initator管理器的界面。选择标签“Discovery”,然后点击Add按钮。输入要连接的iSCSI-target服务器的ip地址和端口。(端口默认是3260)添加设备完成。点击“Targets”标签,可看到这个设备现在是inactive状态。点击屏幕下方的logon按钮,登录到iSCSI-target上。选中第一个选项,再每次系统启动时候自动进行连接。然后点击下边的“高级按钮” 。在高级选项框中,首先选中“CHAP login infomation” ,然后输入用户名和密码。在前文配置iscsi-target过程中,用户名被设置为“public” ,密码设置为“public123456” 。这里输入用户名和密码,然后点击确定。点击确定后,可看到设备的状态变成了“Connected” ,即连接成功了。现在进入Windows的磁盘管理器,可以看到有磁盘1和磁盘2两个没有初始化的磁盘出现,他们就是来自iscsi-target上映射过来的/dev/sdb1和/dev/sdb2设备。在磁盘上点击鼠标右键,首先进行初始化。选中两个磁盘都进行初始化。初始化后的磁盘将可以被调用。创建分区并格式化完毕。设备已经可以使用了。四、& & 配置Linux为iSCSI-inititor1.& & 安装从Redhat Enterprise Linux AS 4.0起,已经提供了对ISCSI的支持。从第四张光盘内可找到名为 iscsi-initiator-utils的rpm包,将其上传到服务器上。执行rpm -ivh 命令安装。[root@test ~]# rpm -ivh iscsi-initiator-utils-4.0.3.0-2.i386.rpm warning: iscsi-initiator-utils-4.0.3.0-2.i386.rpm: V3 DSA signature: NOKEY, key ID db42a60ePreparing...& & & & & & ########################################### [100%]&
1:iscsi-initiator-utils& ########################################### [100%][root@test ~]#将服务设置为自动启动状态。[root@test ~]# chkconfig --add iscsi [root@test ~]# chkconfig --level 345 iscsi on安装完成。2.& & 配置与启动首先将老的配置文件彻底改名,换成新的配置文件。[root@test ~]# mv /etc/iscsi.conf /etc/iscsi.conf.old编辑/etc/iscsi.conf,写入全新的conf配置,内容如下:DiscoveryAddress=192.168.7.100 Username=publicPassword=public123456在这个配置文件中,第一行表示要查找的ISCSI设备的IP地址,下边设置好用户名和密码。保存配置文件并退出。注意:目前的某些版本上,iscsi-initiator在开启CHAP身份验证的时候,会出现拒绝登录的错误。遇到这种情况,请关闭iscsi-target和iscsi-initiator上的所有身份验证选项,并改用防火墙IP地址限制进行访问策略控制。启动iscsi-initiator后台服务。[root@test ~]# /etc/init.d/iscsi restartStopping iscsid:& & & & & & & & & & & & & & & & & & & & &
[& OK& ]Checking iscsi config:& & & & & & & & & & & & & & & & & &
[& OK& ]Loading iscsi driver:& & & & & & & & & & & & & & & & & & & [& OK& ]Starting iscsid:& & & & & & & & & & & & & & & & & & & & &
[& OK& ][root@test ~]#服务启动完成后,检查/var/log/message里边的日志,确认是否加载SAN成功。如果有下边这样的一段,则表示加载成功。Oct 17 18:03:30 vzlinux iscsid[4153]: Connected to Discovery Address 192.168.7.100 Oct 17 18:03:30 vzlinux kernel: iscsi-sfnet:host12: Session establishedOct 17 18:03:30 vzlinux kernel: scsi12 : SFNet iSCSI driverOct 17 18:03:30 vzlinux kernel:&
Vendor: IET& & &
Model: VIRTUAL-DISK& & & Rev: 0&
Oct 17 18:03:30 vzlinux kernel:&
Direct-Access& & & & & & & & & & & ANSI SCSI revision: 04Oct 17 18:03:30 vzlinux kernel: SCSI device sda: -byte hdwr sectors (2147 MB)Oct 17 18:03:30 vzlinux kernel: SCSI device sda: drive cache: write backOct 17 18:03:30 vzlinux kernel: SCSI device sda: -byte hdwr sectors (2147 MB)Oct 17 18:03:30 vzlinux kernel: SCSI device sda: drive cache: write backOct 17 18:03:30 vzlinux kernel:& sda: sda1Oct 17 18:03:30 vzlinux kernel: Attached scsi disk sda at scsi12, channel 0, id 0, lun 0Oct 17 18:03:30 vzlinux scsi.agent[4192]: disk at /devices/platform/host12/target12:0:0/12:0:0:0Oct 17 18:03:30 vzlinux kernel:&
Vendor: IET& & &
Model: VIRTUAL-DISK& & & Rev: 0&
Oct 17 18:03:30 vzlinux kernel:&
Direct-Access& & & & & & & & & & & ANSI SCSI revision: 04Oct 17 18:03:30 vzlinux kernel: SCSI device sdb: -byte hdwr sectors (2147 MB)Oct 17 18:03:30 vzlinux kernel: SCSI device sdb: drive cache: write backOct 17 18:03:30 vzlinux kernel: SCSI device sdb: -byte hdwr sectors (2147 MB)Oct 17 18:03:30 vzlinux kernel: SCSI device sdb: drive cache: write backOct 17 18:03:30 vzlinux kernel:& sdb: sdb1Oct 17 18:03:30 vzlinux kernel: Attached scsi disk sdb at scsi12, channel 0, id 0, lun 1Oct 17 18:03:30 vzlinux scsi.agent[4239]: disk at /devices/platform/host12/target12:0:0/12:0:0:1执行iscsi-ls命令查看刚才连接的设备。[root@vzlinux ~]# iscsi-ls *******************************************************************************SFNet iSCSI Driver Version ...4:0.1.11(12-Jan-2005)*******************************************************************************TARGET NAME& & & & & &
: iqn.2007-10.cn.com.swsoft.test.iscsi:testTARGET ALIAS& & & & & & : HOST ID& & & & & & & &
: 12BUS ID& & & & & & & & & : 0TARGET ID& & & & & & &
: 0TARGET ADDRESS& & & & & : 192.168.7.100:3260,1SESSION STATUS& & & & & : ESTABLISHED AT Wed Oct 17 18:03:30 CST 2007SESSION ID& & & & & & & : ISID
TSIH 100*******************************************************************************[root@vzlinux ~]#能够查看到设备则表示配置成功了。作为客户端的initiator服务器将远程SAN上的磁盘视为了/dev/sdb的标准SCSI磁盘设备。现在可以用fdisk/mkfs等命令来执行分区、格式化等操作了。[root@vzlinux ~]# fdisk -l.........Disk /dev/sda: 2147 MB,
bytes255 heads, 63 sectors/track, 261 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes&
Device Boot& & & Start& & & &
End& & & Blocks&
Id& System/dev/sda1& & & & & & &
7& HPFS/NTFSDisk /dev/sdb: 2147 MB,
bytes255 heads, 63 sectors/track, 261 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes&
Device Boot& & & Start& & & &
End& & & Blocks&
Id& System/dev/sdb1& & & & & & &
7& HPFS/NTFS[root@vzlinux ~]#格式化磁盘为ext3格式。[root@vzlinux ~]# mkfs.ext3 /dev/sdb1 mke2fs 1.35 (28-Feb-2004)Filesystem label=OS type: LinuxBlock size=4096 (log=2)Fragment size=4096 (log=2)261120 inodes, 522104 blocks26105 blocks (5.00%) reserved for the super userFirst data block=0Maximum filesystem blocks=16 block groups32768 blocks per group, 32768 fragments per group16320 inodes per groupSuperblock backups stored on blocks: & & & & 3, Writing inode tables: done& & & & & & & & & & & & & & Creating journal (8192 blocks): doneWriting superblocks and filesystem accounting information: doneThis filesystem will be automatically checked every 24 mounts or180 days, whichever comes first.& Use tune2fs -c or -i to override.[root@vzlinux ~]#挂载这个设备到某目录。[root@vzlinux ~]# mkdir -p /mnt/SAN/sdb1& & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & &
[root@vzlinux ~]# mount /dev/sdb1 /mnt/SAN/sdb1 [root@vzlinux ~]# ls -l /mnt/SAN/sdb1total 16drwx------& 2 root root 16384 Oct 17 18:10 lost+found[root@vzlinux ~]#现在配置完成,磁盘可以使用了。五、& & 总结具有高度灵活性和较低成本的ISCSI出现,为存储领域提供了更多选择。更多文档,请参考iscsi-enterprise-target及iscsi-initiator软件包内自带文档。全文完。powered by pcman.
看帖要回帖...
categories
statistics
网志数:1237
评论数:4608
查看保密网志
好友密码:
收信人:pcman
你的大名:
你的 E-mail:
悄悄话标题:
悄悄话内容:

我要回帖

更多关于 sas阵列控制器 的文章

 

随机推荐