1,Freenas 812盘的Raidz用什么扩展卡性能最好

支持硬件raid没做必要 freenaszfs磁盘系统支持软件raid且数据安全性更ZFS本身数据安全扩展性主设计 用硬件raid 存储数据先要经raid卡经freenaszfs系统丧失ZFS数据完全控制 ZFS自写入技术另外硬件raid卡损坏匹配更换都比较麻烦freenas嵌入式系统装硬盘或U盘整系统备份恢复都相简单情况3块硬盘freenas系统先添加三块硬盘 创建zfs vpool vpool三块硬盘做raidz, 磁盘利用率70%允许块硬盘坏 或者两块做mirror, 另外块普通硬盘添加进 ZFS磁盘系统种组合尝试我试性能每两块硬盘组建mirror镜像读取速度安全性都佳

Freenas 812盘的Raidz用什么扩展卡性能最好

2,hammer和ZFS的优缺点

1,No fsck。fsck是一个很老的问题,人们也投入了很多精力去解决这个问题,比如最常见的日志文件系统,FreeBSD的Soft Update ,还有后台fsck。现在出来的每一个新的文件系统都会号称它不需要fsck。但事实上只是几乎不需要,当需要的时候,痛苦随之而来。就算有后台fsck 的功能,文件系统的性能也大打折扣。其实不是文件系统的代码有问题,而是我们的方法有问题。硬件虽然在飞速发展,但是有一些地方却进展不大,对文件系统来 说有两个尴尬的地方:1,硬件的稳定性还是和当年一样;当硬件发生问题的时候,再好的文件系统也会出错,fsck永远不会过时。2,硬盘的容量虽然迅速膨 胀,每GB的价格越来越便宜,但硬盘的速度确实不成比例的增长,尤其是对于随机/并发读写,几乎没有可见的增长。上面的两个问题说明了,fsck肯定需 要,当fsck需要的时候,检查现在TB级别的文件系统是一个漫长痛苦的过程。说Hammer是No fsck并不是说这个文件系统永不崩溃,而是这个文件系统不需要显式的fsck,更重要的是,fsck的成本很低。它怎么做到这一点的呢?从Hammer 的布局说起。一个Hammer文件系统由多个volume(也就是常见的分区)组成,每个volume由多个cluster组成,每个cluster多个 16KB大小的buffer(也就是block)组成。在Hammer中,每个可能因为故障引发文件系统不一致的操作都局限在一个cluster中。也就 是说,假如出现故障,每个cluster的不一致问题都是独立的;要修正在这个cluster上出现的问题不需要读写另外一个cluster。每当 Hammer打开一个cluster进行读写的时候,都会设置一个mount标志;如果发生意外没有清除这个标志,下次打开这个cluster的时候就会 检查并修复。这样就把需要检查的区域控制在一个可接受的范围内。这个想法并不新鲜,比如这个ChunkFS就提出了类似的想法。2,快照 /历史纪录。快照已经不是什么新鲜玩意了,文件历史纪录也不是没有出现过。但Hammer的处理方式更加独特。默认情况下,Hammer保存每次写入硬盘 的历史纪录,也就是说,每次把buffer cache中的内容刷新到硬盘的时候,都会形成一个新的历史快照,大约30-60秒左右的粒度。这是一个比较有争议的特性(我认为)。在一个频繁改动的系 统中,也许很快就把所有空间用完,所以它并不适合小文件系统使用。但只要应用得当,这个功能会变成一个非常强大的功能,无论对于备份还是删除恢复。而且这 个功能是下一个功能的半个基础。3,镜像。Hammer目前支持一个Master多个slave的镜像功能,能在master基础上做一 个完全一样的镜像,或者多/少一点历史纪录的。这个镜像功能的特别之处是Queue-less,异步的。一个镜像不需要同步地持续地从master中获取 信息;比如可以每天一次,也可以在一个不稳定的网络中;而且只要连接到master,就可以在做镜像的时候同时访问到master上的任何内容,因为这些 内容不需要按照特定的队列顺序传送过来。这是因为Hammer中有所有文件系统的活动历史纪录(假如没有被禁止或者删除的话),每块内容都是只写入一次。 Hammer的目标比这个更远大,它希望将来版本中能支持多Master多Slave的集群和镜像!Hammer还有一些比较琐碎的特 性,比如后台优化文件系统的布局(ext4准备实现的功能之一),数据CRC校验(目前似乎只对meta data做了,将来对数据也做),没有i-node限制(一些老旧的文件系统依然有这个限制,比如ext2/3),最大支持1EB的文件系统,实时扩展 /缩减分区(还没有实现,目标之一)。

hammer和ZFS的优缺点

3,八盘位NAS上几个硬盘能达到万兆

1、主板:超微X10DRL-i2、CPU:E5 2650L v3*22、内存:4*8g DDR4 REG ECC(SK Hynix HMA41GR7MFR8N-TF) 4*16g DDR4 REG ECC(Samsung M393A2G40DB0-CPB)3、阵列卡:LSI 9208-8i IT模式(共有两块,只使用了一块)4、硬盘:8*日立HUS72302CLAR20005、电源:长城巨龙EPS1000DA6、机箱:TT W200(对硬盘散热使用了7把12cm风扇保证散热)软件平台:系统:Ubuntu Server 20.04.1 LTSzfs阵列使用OpenZFS on linux v2.0.4其余raid阵列使用mdadm创建测试脚本:本次测试均使用script命令记录测试结果创建mdadm阵列使用如下脚本:mdadm --create --verbose /dev/md1 -level=$level --raid-devices=$i --chunk=$chunk /dev/sd$j其中$level与$chunk对应raid类型和chunk大小(条带大小),$i和$j则因为有部分测试只使用4块硬盘测试,使用md1因为操作系统安装在由两块ssd(sda、sdb)以raid1组成的md0阵列上创建文件系统,使用ext4文件系统:mkdir -p /pool_0yes | mkfs.ext4 -F /dev/md1yes | mount -t ext4 /dev/md1 /pool_0清理阵列:mdadm --stop /dev/md1mdadm --misc --zero-superblock /dev/sd$j创建zfs阵列使用如下脚本:zpool create pool_0 $raid-level /dev/sdc /dev/sdd /dev/sde /dev/sdf /dev/sdg /dev/sdh /dev/sdi /dev/sdj或zpool create pool_0 $raid-level /dev/sdc /dev/sdd /dev/sde /dev/sdf $raid-level /dev/sdg /dev/sdh /dev/sdi /dev/sdj第二种方式用于组建如raidz0等跨越阵列时使用因为zfs自动创建挂载点,故测试时直接使用默认挂载点测试清理阵列:zpool destroy pool_0sgdisk --zap-all /dev/sd$j测速命令:dd if=/dev/zero of=/pool_0 bs=$bs count=10000$bs为块大小,分别测试了512,4k,8和1m下的速度命令重复5次,去掉最大值和最小值计算平均值作为最终结果另外还进行了每块硬盘单独测速,同样使用ext4文件系统测试结果各硬盘测试结果虽然这批硬盘都是二手贴标盘,但是测试速度还是可以的,除了作为二手盘的一些毛病外(之后会提到)。接下来是阵列速度的测试,以下测试中,以8块硬盘或4块硬盘使用mdadm创建了raid0,5,6,10和使用zfs创建raid z1,z2,z3,2*z1,strip(等于raid0),mirror+strip(等于raid10),分别测试了mdadm设置不同chunk大小对速度的影响(不带chunk的则为zfs阵列),以及使用不同bs大小测试阵列在不同块大小下速度表现。阵列测速 block size = 512这次测试设置的最小块大小为512,此时速度受影响最大的是使用zfs创建的各个阵列,全部只有60m/s出头的速度,而最高速度梯队均被8盘raid0占据,但速度只有140-150,与单盘相比只有不到一倍的提升,迷惑的是chunk大小对应的速度顺序十分混乱,几乎无法总结出规律。阵列测速 block size = 4k4k速度领先的仍然是raid0,zfs的各个阵列排在中间,最低的则变成了4盘组的raid10,速度甚至低于单盘速度,可谓惨不忍睹,而我常用的raid5速度在350左右,只有不到2倍提升。阵列测速 block size = 8k8k速度比较有意思,raid0速度仍然占据前列,而zfs的速度明显提升,尤其是raidz1*2和使用zfs创建的raid10,这两个都是我曾经选择过的方案(raid10使用了16盘)阵列测速 block size = 1M最终来到1M块大小的测试,这次变化比较大,速度最高的是8盘使用zfs创建的raid0,速度达到了1100+,而实际上,我测试12盘速度时,这种方式创建的阵列速度可以到达1300+,而其余成绩几乎没有什么出乎预料的地方,只有上面提到的zfs下raidz1*2和raid10的排名继续上升总结说一下我的感觉,在做这次测试之前我也预料到测试结果就是如此惨淡,因为平时我使用情况便是桌面机和服务器之间使用万兆网卡相连,通过smb共享文件,不过文件性能实在不是很满意,从桌面机的ssd拷贝文件到服务器上速度只有400出头,而且遇到大量零碎文件时响应相当慢,一直以来我便考虑是smb的问题还是磁盘性能就是这样,这个测试说出了答案。测试中,速度最快的无疑是raid0,只不过应该不会有人选择,其余比较有价值的选择分别是raid5和2*raid z1,这两个选项都有不错的性能,也分别有1盘和2盘的冗余,当初我选择使用2t磁盘,便是考虑到在损坏1块硬盘时,2t硬盘重组阵列还是相对安全的,基本上一天以内阵列就恢复同步,当然我更偏向使用zfs,尤其是我最开始选择这套配置便是奔着freenas去的,而且raid z2和raid z3虽然性能不足,但是安全性绝对是更高的,只不过8盘位下,这两个选择明显没有优势。对于条带大小,实在是认识有限,之前一直使用默认参数,而网络上没有找到有用的资料,只能说是瞎子过河,用我自己的理解去测试,结果是无功而返。后记这个测试差不多在一个多月前做的,现在才发纯粹因为懒癌犯了,第一次在b站发文章,文案啰嗦得把自己也难受到了,还是感谢能看到这里,之后也许还会总结一些我之前的经验,我会多多努力。发文的时候我的配置已经做了一个大的调整,也乘着这次矿潮,把之前的设备卖了,还得了一笔不小的差价,而目前硬件涨价实在厉害,还好我在涨价前购入了一块12t硬盘,跟之前用来冷备的另一块12t硬盘组一起,现在数据暂且存在这两块硬盘上,对nas的进一步改造只能留在将来了。说到之前设备的缺点,只能说现实总是事与愿违,一开始我选择2t sas做阵列,主要是几方面,一是价格,二是容量,三是速度。最开始我的群晖nas上选择了两块6t和两块3t硬盘分别组raid1,光是硬盘价格就接近四千,而nas价格是三千出头。而换成自组的nas和二手硬盘,价格只要一半多点,还能拥有8盘位和万兆网络,价格便是最大的优势。而2t硬盘前面提到了,我认为这个容量还是比较适合阵列掉盘后重建的,成功率和速度都能预测得到,而有了盘位优势,容量便不是问题。至于速度,相比4盘位,8盘位优势理所当然是更大。而实际上,二手硬盘由于质量参差不齐,有一些盘用了很久依然坚挺,而有一些在使用两三个月内就会出现问题,导致其成了消耗品,而为了安全性,我把盘位一步步提高,曾试过12盘和16盘,做了更高级别的raid如raidz3和2*raidz2,而代价是性能不升反降,而且一个大问题暴露出来了,这些硬盘本来功耗就不小,而我使用的环境没有机房那样的稳定温度,导致硬盘发热严重,而且电费也猛然飙升,最终只能下决定放弃,也意识到这个方案在我目前情况下不可行。在测试结束后,我意识到这次测试并不太严谨,首先我只测试了写入速度没有测试读取速度,原因是没有找到合适的测试方法,在某些测试中,会因为缓存原因导致测出的速度发生明显错误,而我测试的数据也没有与其他人对比过,实际这个速度是否合格纯粹是我个人的主观判断。并且,在创建文件系统时,我并没有注意到有block的参数,而在后来发现这个参数也许会影响到结果。最后一个大问题是,在测试前后我都对硬盘进行过坏道测试,结果发现sdh盘,也就是那块型号不同的,实际上是同型号的HP贴标盘,在测试后出现了三个连续坏道,而由于第二次坏道测试是在我转让硬盘前做最后测试时发现的,不确定坏道是否在此过程中出现,所以这次的测试,只能以极其不严谨的标志定义,在将来我有机会再次测试时,定要以严谨为首要,以弥补这次的遗憾。

八盘位NAS上几个硬盘能达到万兆

4,如何DIY一个基于Freenas的家用NAS

1 序 前段时间终于把自己设想了好久的家用NAS配好了,想好好写一下自己的心得,希望对别人有一点帮助,也希望和大家交流关于ZFS和Freenas的意见和想法。 2 你需要NAS吗? 你认为数据的价值很重要,愿意投入一点资金来降低数据丢失的风险。比如,你自己原创的文字和图片、各种word和excel的文件、各种照片和视频,这些原创性的内容都是全世界仅此一份的,还有一些你认为很难再从网络上下载到的资源,这些内容都需要一个比台式机(或者手提电脑)、U盘、移动硬盘和光盘等,更安全可靠的储存方式。由于网络条件和价格的限制,或者是由于对云储存的不信任,把大容量的文件备份到云端好像也不是最好的选择。 你的家庭网络内有2台或更多的电脑,需要中转空间来传递文件,特别是大容量的文件。如果只有2台电脑的话,网络邻居共享或者FTP访问也算可行。但如果3台或更多电脑,动辄几个G容量的内容,还要分发到每一台电脑,这个时候如果有一个大容量、访问速度快的共享储存空间就方便很多了。 如果以上两段描述符合你的实际,那么你应该开始考虑入手一台NAS了。 3 买成品还是DIY? 3.1 NAS与其它备份手段的比较 3.1.1 U盘和移动硬盘 NAS一般容量相对比较大。如果U盘和移动硬盘也是在线使用,除了RAID 0的配置,个人觉得其它RAID配置的可靠性都比U盘和移动硬盘好。当然,如果把U盘和移动硬盘作为离线备份的手段,可靠性应该会提高不少,不过要牺牲部分的数据可用性。 3.1.2 光碟(DVD和蓝光) 如果是可擦写的,每次重新擦写的速度比较慢。如果是不可擦写的,倒可以作为离线备份的手段。数据的不可更改始终会带来不方便,比如整理好资料目录,刻碟完,结果以后又发现要往中间加内容。 3.1.3 云储存 主要有三方面的限制:速度、容量和价格。那些不是世界知名的IT巨头搞的,会担心它不知道哪一天就宣布停止服务。Amazon的S3倒是信得过(相比之下),但是访问速度和价格又是个问题。 3.2 成品NAS和自己DIY的区别 3.2.1 安全性、价格和售后服务 几个著名的品牌(如synlogy、qnap、thecus、zyxel、buffalo、netgear等等)提供的家用NAS,大部分最多到六盘位,组RAID 6吧?(不知道可不可以组多个RAID 1),理论上是最多允许两只硬盘损坏。如果是自己DIY的话,无论是硬RAID或者基于ZFS,RAID的配置都可以更加灵活,只要硬件配置跟得上,提供更高的可靠性完全没有问题。 盘位越少,成品NAS的价格貌似更有优势。假如需求只是两个盘组RAID 1,那毫无疑问成品NAS更便宜。DIY的话,固定成本是主板、CPU、内存、机箱和电源(或者加上RAID卡),硬盘数量一般不少于3个。同样是4个盘位,不算硬盘的话,DIY的价格已经大大低于成品NAS。6个盘位,京东上有个要9k+,自己DIY的话,2k搞定。 自己DIY的NAS,各个零配件的售后服务要看你选择的硬件品牌的生产商。整台NAS在组装和调试的时候,以后的使用中要排除故障或增加功能,都需要你自己在网上找资料或者和别人讨论,所以如果你是伸手党,还是买成品NAS好了。 3.2.2 功能、灵活性和功耗 成品NAS提供的功能,大部分可以通过各种开源的解决方案来实现。而DIY的NAS提供的灵活性,比如和htpc或者网关结合在一起,硬件配置的更改都是成品NAS所不能比拟的。 功耗方面,DIY的NAS要追求低功耗,可以选择直流电源+整合主板,貌似网上也有人可以做到待机十几瓦的。个人就觉得没必要苛求,相比节省的电费,我更希望电源和UPS都稳定可靠,机箱内空间够大方便散热。 3.2.3 噪音控制和外形 现在很多DIY的机箱,也足够小巧和精致了,摆在客厅或书桌台面都完全没问题。舍得花钱的话,用无风扇电源和CPU散热器,加上机箱内全用静音风扇,相信可以把噪音控制在非常低的范围。 3.3 DIY NAS的种类 首先要把专用和多用途的NAS区分开来。专用的NAS一般只提供文件共享和相关的网络服务,可能也作为24*7的下载机。多用途的NAS有的是作为HTPC,连接电视来直接播放媒体内容,也有是利用虚拟化,通过一台硬件服务器提供网关、媒体服务器等多台虚拟服务器的功能。主要有以下三种组建RAID的方式: 软RAID,利用主板芯片组自带的功能组建RAID。性能比不上硬RAID,和ZFS的比较我不清楚,感觉应该也不如。好像有些软RAID认主板,转移的时候一定要同型号的主板才可以认出来原有的RAID配置,也有人说intel的是认芯片组,不要求同型号主板。虽然不需要额外的硬件RAID卡投入,也限制了安全性的提示和功能的扩展,除非是换主板。 硬RAID,在主板上插RAID卡,RAID卡再接硬盘。注意有些便宜的RAID卡其实是把运算交给CPU的,自己纯粹就是一个接口。一般好的硬RAID卡上有专门的运算芯片,还要带电池,防止数据丢失。硬RAID是目前最主流的解决方案,价格范围广,可以投入很小,也可以很发烧。 基于ZFS,不需要安装RAID卡,也不利用主板芯片组的RAID功能。硬件配置丰俭由人,数据安全可靠。。。(ZFS的特点请看4.1) 4 软硬件配置 4.1 ZFS的特点 请允许偷懒一下,介绍ZFS的资料网上已经有很多了,如果有兴趣,一定可以深入了解, 简单来说,基于ZFS的储存,不怕断电(就算正在写入的时候断电了,数据也不会损坏或者丢失,用硬RAID卡的有可能的哦),有快照功能,不怕误删除(而且快照占空间很小),可以通过加入固态硬盘来大幅提高读写性能(跑满千兆局域网很轻松),容易扩充(把原来的RAID里面每个硬盘都换成容量更大的,总容量自动增加),硬件无关(换主板都毫无压力),操作简单(常用命令才几个,如果是用Freenas的图形管理界面的话,更加简单)。 4.2 操作系统的选择 所有支持ZFS的操作系统(或发行版)都可以在ZFS的wiki查到,主要用来做NAS的系统有以下几个: 4.2.1 Oracle Solaris和 OpenIndiana Oracle Solaris的zpool(ZFS的管理软件)版本最新,不过是商业软件;OpenIndiana是OpenSolaris的后续,开源的,我自己没有用过,跟FreeBSD一样,应该没有ZFS的图形管理界面。 4.2.2 FreeBSD 网上介绍也很多,简单说就是稳定、稳定和稳定。我在virtual box里面用FreeBSD,对照着文档,测试过ZFS的各种操作和功能。另外,FreeBSD的Handbook写得非常好,有中文版哦,喜欢折腾的同学首选。 4.2.3 Freenas 主角登场,热烈鼓掌!安装简单,界面清爽!第5章将会介绍安装和配置的过程。这是一个商业公司维护的开源,基于FreeBSD,专门用于NAS的系统。 4.2.4 NexentaStor Community Edition 跟Freenas一样,都有ZFS的图形管理界面,根据网络上的测试报告,貌似这个的IO性能比Freenas好。一点小限制是免费版最大容量为18TB。 4.3 硬件配置 4.3.1 终于写到我最喜欢的部分了,确定硬件搭配让我纠结了n长时间,最终结果兼顾了钱包、个人喜好和性能,还算满意。我的NAS的配置如下:(推荐配置从4.3.2开始) UPS:APC Smart-UPS SC420 (UPS最重要,所以排第一。虽然说ZFS不怕断电,不过有个在线式的UPS,应付各种拔插头、按开关和电网的浪涌,还可以接NAS的串口实现市电中断时自动关机,实在是硬件配置里面的MVP。这个UPS是以前买的,伏安只有420,容量有点小,现在拖三个硬盘,估计拖5个没问题) 电源:全汉(FSP)蓝暴节能版360 CPU:AMD A4-3300 技嘉(GIGABYTE)GA-A75M-D2H (选这个主板CPU的搭配是因为功耗较低又有较多的SATA 6G接口,最大内存又可以到32G,跑ZFS的话,内存越大越好。写文章的时候才看到技嘉出了F2A75M-D3H,更加适合,搞到我都想换主板了,T_T) 三星(SAMSUNG)DDR3 1600 4G *2 西部数据 WD20EARX *3 (这三块硬盘是跑去广州的百脑汇买的,第一次的时候自己小白了,居然买到两块是换标签的WD20EARS,只好跑多一次去换,大家如果在电脑城买的请小心) 联力PC A04A (我是第一次用联力机箱的土人,一边安装一边赞叹“做工果然好啊”,然后各种调整硬盘位置,各种拆装硬盘笼子,各种调整走线。图片等写完这篇文章的第一版再补上) 因为一开始就确定了NAS要配已有的UPS,而且不兼任HTPC,所以我的NAS是放在书房里面的。书房里面有一台D-Link的5口百兆交换机,连接一台台式机,一台手提和NAS,再通过电力猫连接整个家庭网络的核心交换机和无线路由Linksys WRT610N。 功耗测试用的是深圳北电的电力检测仪,实测数据如下: 关闭NAS电源(全汉蓝暴)上的开关,0 W 打开NAS电源上的开关,NAS未开机,3.2 W 按NAS机箱面板的开关开机,功耗一直爬升,最高达到 72 W NAS的启动过程结束,进入正常状态,44 W 测试连续读取,通过百兆的LAN连接,台式机播放NAS共享出来的mkv文件,44W 测试连续写,用FTP上传大文件,速度大概10MB/s,56W 在NAS的web管理界面点关机,等到机箱的电源指示灯熄灭,1.5W 另外,在Freenas里面可以设置每个硬盘的电源选项,比如多长时间之后进入待机。我这台NAS现在还负责BT下载,所以硬盘是一直没有停的,测不了全部硬盘都进入待机时候的功耗。 4.3.2 普通版配置 强烈推荐UPS作为标配,花的钱不多,可靠性大幅提高。后备式的也可以接受。注意UPS一般容量标的是伏安,要转换成瓦特。这里插播一段网上找来的计算硬盘功率的方法:先通过spec sheet找到硬盘12V的最大电流(据说就是启动的时候了),比如WD20EARS的是1.75A,然后在硬盘标签上找到5V的电流,这个例子里面是0.55A,所以这个硬盘的最大功率就是12V x 1.75A + 5V x 0.55A = 24W。在挑选UPS和NAS的电源的时候就要注意考虑功率了。当然,服务器专用的主板通常有逐个启动硬盘的功能,可以降低对功率的要求,这个在高帅富版的推荐配置里面谈。 千兆网络,你懂的。 最少三个硬盘,组RAIDZ 1,可以承受其中一个硬盘损坏。ZFS当然也支持条带(RAID 0)和镜像(RAID 1),还有RAIDZ 2和RAIDZ 3,还可以加热备,加L2ARC等等,看需求和预算来配置吧。如果你的配置里面硬盘数量超过9个,最好分组,具体参考: http://doc.freenas.org/index.php/Hardware_Recommendations 8G+ 的内存,跑ZFS的话,内存越大越好,所以挑选主板的时候注意选最大内存容量比较大的。 一个4G+的U盘,做系统盘。把Freenas的系统装在U盘上是最简单快捷的,还可以把这个系统U盘备份多几个。安装到硬盘上的话,Freenas一定要独占整个硬盘,浪费空间和一个SATA接口。 4.3.3 屌丝版配置 百兆网络,我用的就是了,泪奔。 两个硬盘,组镜像。其实这个组合也很灵活,以后你可以把这两个硬盘都换成容量翻倍的,那么你的ZFS的容量也翻倍。或者再增加一对镜像配置的硬盘,跟原有的镜像做条带,总容量也可以增加。再或者为了提高可靠性,加入第三块硬盘到镜像里面,变成1:3的镜像,ZFS果然很灵活吧,呵呵。 4G内存,最低配置了。 4.3.4 高帅富版配置(其实这些高端硬件我也不是很懂,不过yy起来好爽,哈哈) 全屋强电弱电的防雷装置,这个算题外话,不过确实很必要,特别是多雷雨的地区。 在线式UPS,作用前面讲过了。 冗余电源,这个算服务器的基本配置了吧。 服务器主板、服务器CPU和ecc buffered内存。可以用容量更大、可靠性更高的内存,可以接更多的硬盘,可以热插拔,可以ooo,可以xxx。。。 SAS硬盘,N个,怎么组RAID就只看对容量、可靠性和速度的需求了。记得其中一些硬盘做热备。 固态硬盘,N个,做L2ARC,大幅提高NAS的读性能;做ZIL(ZFS Intent Log),大幅提高NAS的写性能。 千兆网卡,N张加上支持LACP(链路聚合)的千兆网管交换机,突破千兆局域网的带宽就靠它们了。 机箱,塞得进上面所有东西的,随便挑吧。 作为高帅富,当然不只一套房子了,请把以上配置克隆到每一套房子,这样就可以实现异地容灾远程镜像自动备份了,鼓掌! 5 Freenas的安装和配置 大概的流程是这样的: 把映像文件写到U盘 用U盘启动,进行初始化设置,包括网卡、DNS和Web界面的密码 创建volume 设定scrub(对volume的定时检查) 在volume里面创建dataset(dataset是Freenas里面的管理单位) 针对dataset设置snapshot(快照,用于回滚和远程备份) 建立用户和用户组 针对dataset设置权限 设置share(有CIFS、NFS、iSCSI、AFP等等) 从客户端测试(测试连接和读写权限) 备份配置文件和系统U盘 。

文章TAG:zfs性能怎么样性能  怎么  怎么样  
下一篇