用于 FTTH 宽带接入的千兆位 EPON 和 GPON 产品

来源:百度文库 编辑:神马文学网 时间:2024/04/27 20:00:08
FTTH 无处不在!
通过收购 Passave,PMC-Sierra 成为用于光纤到户宽带接入网络设备的千兆位 EPON 解决方案的全球领先批量供应商。PMC-Sierra 是唯一同时支持 EPON(IEEE 803.2ah 第一英里以太网)和 GPON (ITU-T G.984) 标准的供应商。
PMC-Sierra 的千兆位 PON 产品基于稳定的GigaPASS™ FTTH 体系结构,如果提供执行实时操作系统的强大的 32 位可编程处理引擎,以及高性能 FTTH 网络接入功能需要的中间设备和专用固件,则该体系结构可达到稳定的千兆位速率和较大的数据速率。
PMC-Sierra 单片系统 (SOC) 解决方案提供用于链接中央办公设备和客户终端设备的端对端千兆位每秒带宽解决方案。OLT(光线路终端)芯片连接中心局与 PON 网络,而 ONU 或 ONT 芯片连接客户终端与 PON 网络。

GE PON 产品
PAS5001 EPON OLT
带集成 MAC 和 EPON 协议管理的千兆位以太网单芯片 EPON OLT 芯片
PAS65006 OLT EDK
基于 PAS5001 OLT 芯片的评估设计套件
PAS6201 EPON ONU
带集成 MAC 与 EPON 协议管理、高级分类引擎和嵌入式 CPU 的千兆位以太网 ONU SoC
PAS65214 单端口 ONU EDK
基于 PAS6201 ONU 芯片的单端口 ONU 的评估设计套件
PAS65215 多端口 ONU EDK
基于 PAS6201 ONU 芯片的多端口 ONU 的评估设计套件
GPON 产品
PAS5211 GPON OLT
带集成 GPON MAC、高级分类引擎和嵌入式管理 CPU 的速率为 2.5G/1.25Gbps GPON OLT SoC
PAS6211 GPON ONT
带集成 GPON MAC、高级分类引擎和嵌入式管理 CPU 的速率为 2.5Gbps 下行/1.25Gbps 上行的 GPON ONT SoC
传统设备
PAS6001 EPON ONU BRIDGE -(不用于新设计)
EPON ONU 桥接器 - 符合 IEEE 802.3ah 标准
GigaPASS™ FTTH 体系结构
GigaPASS 体系结构是领域证实的 FTTH 产品体系结构,它在一个单芯片器件中集成了三种高性能的功能平台。GigaPASS 体系结构集成了 PON 与千兆位以太网间的千兆比特/秒双向通道;多级数据包协议处理引擎,可以处理在通道中以线速流动的数据;以及一个带有操作系统的可编程嵌入式 32 位处理器,中间设备和专用固件,该固件可提供稳定 FTTH 终端特性集且由服务提供商提供现场编程。已在亚洲部署 Passave 器件的中,此体系结构已获得领域证实,并可以灵活地适用于支持当前 EPON 和 GPON 技术标准以及未来的 FTTH 标准。

使用SATA存储的真实成本
2007年05月16日 李泉(翻译)/刘谦(编辑)
存储的总体拥有成本
存储的成本不仅仅包括驱动器和RAID控制器成本,还包括磁盘驱动器耗电的成本,以及驱动器发热所引起的散热成本等等。笔者曾有一位客户想部署全SATA的存储系统,但又对性能有很高要求,于是笔者和这位客户就存储的真正成本展开了讨论,正是这件事让笔者产生了撰写本文的念头。
在本篇文章的开始,笔者首先提出了一个假设,那就是在需要高性能的应用环境中,SATA驱动器的成本与光纤通道(FC)驱动器相比并没有太大优势。撰写文章通常是为了论证某种观点,但笔者更侧重于通过本文阐述观点。因此,在文中笔者会尽量客观地求证这个前提是否正确。在下面的文章中,通过对实际情况的分析,我们会得出结论。请读者切记,笔者在这里探讨SATA和FC驱动器的前提是满足性能要求,而不是存储密度为第一要求的。下面我们来看看这个观点是否正确。
SATA的困惑
因为SATA驱动器价格低廉,因此这种驱动器的应用范围非常广。就笔者所知,企业一开始采用SATA驱动器是用于D2D(磁盘到磁盘)备份的,但现在据说部分站点出于降低成本的考虑,已经使用SATA驱动器来满足所有存储需求。SATA开始被用在大型数据库主存储以及本是FC驱动器专用的领域之中,但这也带来了可靠性方面的担忧。
这种担忧确实不无道理,为此RAID厂商不得不研发支持RAID-6的控制器,将保存奇偶校验数据的驱动器从一个增加到了两个,以此应对多个驱动器同时发生故障的风险。由于驱动器比RAID-5增加了一个,因此控制器和驱动器间的传输带宽的要求也就更高了。希捷网站上的数据显示,其750GB磁盘的数据传输率大约为78MB/S。如果用这种9块(8+1的情况)这种磁盘组成RAID-5的话,其阵列所需的尖锋带宽为每秒702MB。而在RAID-6的情况下(10块磁盘,8+2),所需带宽达到了每秒780MB,即带宽需求增加了10%。视频和音频流及那些需要高速读写的应用同样面临这个问题。此外,还有另一种应用需要高速读写,但却很容易被忽视,那就是数据库索引重建(Database re-indexing)。
SATA驱动器已经吸引了几乎每个人的注意力,但因为SATA驱动器的比特误码率(Bit error rate)比FC驱动器更高,加上由于SATA磁盘的转速(RPM)较低、寻道时间较长所导致的IOPS(每秒I/O)速度较低,因此仍有站点购买使用FC驱动器。但主流趋势开始朝SATA倾斜,不过笔者对此并不感到乐观。
所需满足的实际性能
 
我们来具体讨论一下。假定这样一个环境,它需要满足特定等级的I/O流性能要求(以MB/秒或GB/秒计算)。那么,要满足这样的性能要求,就必须先满足下列条件:
内存带宽满足相应I/O性能要求 PCI通道满足相应I/O性能要求 拥有FC HBA (目前企业最常采用的连接卡)、iSCSI、SATA、HCA或NIC等存储连接 拥有FC(最常见的)、InfiniBand或以太网端口 支持FC、InfiniBand、SATA或以太网接口的RAID控制器 支持FC、SATA或SAS接口的磁盘驱动器
由于这些硬件每一项都可能成为性能瓶颈,所以要满足整体的性能要求,上述每一项硬件都必须符合条件。例如,4Gb/s FC加上一个RAID控制器可以实现每秒4Gb的传输速度,但如果只有两个HBA接口,每个HBA上只有两个端口,那么其全双工传输速度就只能达到3.2GB每秒。这是因为每个HBA端口只支持800MB每秒的传输速率(读写各400MB每秒)。如此一来,控制器连接上足以实现每秒4GB传输速度的磁盘后,在这整个系统之中就是HBA成为了影响性能的瓶颈。
因此,构建系统时必须确保硬件搭配的平衡,从而满足性能要求。要构建这样的系统,还需要涉及其中的每一种硬件都满足要求:内存和PCI通道带宽、HBA、交换机端口、RAID控制器还有必不可少的磁盘驱动器。所有这些硬件都需要耗电、散热和O&M(运行及维护),这些都要花钱,但在这里笔者没有把O&M成本考虑在内,它不属于本文讨论范围。
硬件的成本
要满足存储性能要求,就要拥有平衡的系统架构。由于SATA磁盘驱动器在速度和可靠性上都稍逊于FC和SAS磁盘驱动器,要满足带宽需求,就必须配备更多磁盘;由于有了更多的磁盘驱动器,于是就需要更多RAID控制器;而由于磁盘的性能和可靠性较低,于是需要更多的HBA协助读写,从而需要更多的端口。
总而言之,这会需要更多的硬件。问题在于,加上这些硬件及其供电和散热成本,SATA的每MB每秒成本还会比FC或SAS驱动器更低吗?如果更低,那又能低多少呢?
美国希捷Cheetah 15K.5 4Gb 300 GB驱动器最便宜的价格是1000美元,这意味着它的每MB成本为0.0033美元每MB,但它的每MB的使用成本则约为10.10美元。同样希捷酷鱼750GB SATA硬盘价格是269美元,这块SATA硬盘的MB成本也就是0.00035每MB,几乎少了九成。而其每MB的使用成本是3.45美元,只是FC驱动器的三分之一左右。磁盘密度的成本差异比性能差异大了差不多3倍。如上文所述,磁盘密度成本只是整个系统成本的一部分而已。
笔者认为,在性能需求至上的应用环境中,SATA的成本比FC和SAS技术都要高。SATA某些方面的成本只是FC的三分之一甚至十分之一,当然,这要看你考虑的是性能还是容量。但是,在成本方面,还有其他因素要考虑,这正是本文要探讨的内容。
在今年早期的在美国加里福尼亚州圣琼斯举行的文件与存储技术会议USENIX FAST’07上,有两篇文章(Disk failures in the real world以及Google‘s experience)对驱动器稳定性分析得都不错。
这两篇文章提到了两个要点。一个就是由RAID控制器所连接的硬盘的稳定性远远达不到硬盘厂商宣称的高度。而且在相同条件下,SATA驱动器的稳定性远比FC和SAS低得多。究其原因,很可能是因为RAID厂商判断驱动器是否故障的依据只是最初的出错迹象。如驱动器在额定响应时限范围内没有响应。实际上驱动器很可能只是响应时间超长而已,最终是会从错误中恢复过来的。如果硬盘在数秒内没有响应,就笔者所知,有部分厂商就会判定这块硬盘故障并将它标为“需重建”。但实际上这块硬盘很可能最终会成功响应。通常硬盘厂商不会将这种硬盘判定为故障,因为硬盘最终还是响应了的。
另一个要考虑的就是IOPS(每秒I/O数)。SATA和FC的随机IOPS速率相差无几,只是MB/S的传输性能有所差异。FC驱动器的MB/s传输速率和寻址及延迟时间都比SATA磁盘强。因此,要满足性能要求,FC仍是比SATA驱动器更好的选择,相同的IOPS公式也同样适用。
数量和需求
 
在这里笔者不打算引用FAST文章中的数据,因为这些数据都来自采用较老技术的硬盘,但笔者同意其中一位作者在FAST的文章中的看法,即驱动器的稳定性远没有其厂商宣称的那么高,毕竟RAID厂商对性能和响应时间的关注比硬盘厂商更高。
希捷网站数据显示其15K FC驱动器年故障率(AFR)为0.62%。
希捷网站不久之前表示,这一故障率换算为无故障时间就是120万小时。实际上,稳定运行50万小时是许多RAID厂商采用的数值,这样换算过来,它的AFR就变成了1.49%。
同样根据希捷所公布的数据显示,SATA驱动器的AFR是0.73%。
根据希捷网上的换算方法,假设这个数字换算成磁盘的无故障时间就是100万小时。同时假设RAID厂商采用50万小时和30万小时来计算——笔者在这里更倾向于采用30万小时这个数字,因为在工作负荷极高的环境下驱动器无故障稳定运行时间大多在30万小时左右,但为了公平起见,我们还是同时采用两个数字——这样一来,50万小时下的AFR就是1.46%,30万小时下的则是2.44%。
归纳总结
别忘了笔者在文章一开始就已经设定了前提,即从性能方面考虑,SATA的成本更高。
各硬盘厂商网站于2007年3月至4月间提供了以下数据:


为了满足性能要求,HBA和端口都会耗电。鉴于此,下文列出了各类数据通道技术(data path technology)中的用电需求:
QLogic双端口4G HBA卡耗电6.5瓦,该公司网站没有提供相关的热量输出(BTU,英国热量单位为英热,1英热=1055.05585焦耳)数据。思科9500系列导向器包含48端口,每个4Gb端口耗电16.46瓦,需要输出3个BTU。
RAID厂商提供的包含16个磁盘及控制器的阵列数据:
每个控制器耗电约60瓦 16个希捷500GB Tonka-2 SATA磁盘共375瓦 16个4Gbit 146GB 15K.4驱动器共382瓦 所需BTU散热能力视驱动器类型及其容量而定(容量越大能耗越高) 16个500 GB希捷SATA硬盘共输出1283BTU 16个146GB希捷4Gb FC驱动器共1300BTU
简单计算一下就可以知道,一套FC托架耗电118瓦(382-(16×16.5)),而SATA托架则耗电167瓦(375-(16×13))。这很可能是因为后者需要单独的SATA控制器,而不像FC通过光纤连接。FC的耗电量因而增加了31%,而SATA则增加了45%。
例证估算
 
我们在这里假设你的企业的全天持续性能要求为100GB/s。在当前的形势下,这个要求并不过分。部分企业可能会认为这个要求偏高,但对银行、保险公司、汽车工业、制药公司或其他大型企业而言,这个要求并不算高。现在来看看为了满足这个要求,硬盘方面要满足哪些条件。
FC驱动器方面,取厂商额定的每个驱动器内圈传输速度最低值75MB/s——在笔者看来,这只占驱动器最高性能的55%。这一数字是根据各厂商网站上出现过的数据算出的。在RAID 4+1和8+1环境下,取上述故障率值。

根据上述数据以及数据重建所需时间(据性能要求估算为4至12小时之间),可能需要另加两组4+1或8+1来满足性能要求,因此RAID 4+1驱动器总数达到17077块,而RAID 8+1则达到15378块。要注意,这还没把热备盘包括在内。
另加两组LUN就需要另加两组HBA卡和两组交换机端口,而且很可能还会需要另外的RAID控制器——这些上面都没有计算在内,但要注意这些因素都是客观存在的。
SATA方面,这些数据就是:

把同一天内多块驱动器故障的可能性计算在内,要达到与FC相同的故障率,按性能要求,估计需要另加5组LUN才能达到1.46%的故障率,而要达到2.4%就要加8组LUN。
要达到1.46%的故障率,RAID 4+2所需驱动器总数为35751块,而RAID 8+2则需29817块。
要达到2.44%的故障率,RAID 4+2所需驱动器总数就是35801块,而RAID 8+2则是29847块。
仅耗电量一项,光是驱动器就需要:


这里面还没包括散热费用,加上散热一项就会把耗电成本增加近三分之一,两者的差异就更小了。

散热成本,加上附加的驱动器、控制器和端口,都让SATA的成本优势随着使用时间加长而变得微乎其微。SATA驱动器的价格确实只有十分之一,但把要求性能的应用环境中各项因素的成本都加上——在这里我们还没把散热和附加的RAID控制器及交换机端口(以及这些硬件的耗电量)成本计算在内——SATA的成本优势大幅缩水。
在上面的计算中,驱动器的成本是按本文第一部分的数据计算的,而各驱动器最低价格是笔者在市场上搜索出来的。为满足增长的SATA驱动器数量而增加的RAID控制器数量以额外重建的成本并未计算在内。另外,额外的交换机端口、HBA和这些附加设备散热所需的耗电成本也没有计算在内。
请切记,本文是以性能要求至上的应用环境作为前提的,现在的结论似乎证实笔者的直觉是正确的:在侧重于性能要求的应用环境中,部署SATA没有任何成本优势,FC和尚为普及的SAS驱动器仍是更好的选择。笔者的计算不包括散热、额外的HBA、交换机端口和相关耗电成本,也没有将未来的能耗成本计算在内。
相信读者会见仁见智,但在性能要求至上的环境中,笔者个人是非常反对采用SATA驱动器的。
RAID-6渐行渐近
2007年11月21日 存储时代
关键字:RAIDRAID-6RAID 6


第1页:为何需要RAID-6 第2页:RAID控制器性能 第3页:检查RAID性能 第4页:事先做好计划 不久之前,RAID-6这个RAID层仅仅存在于教科书之中,厂商们还没有实现它。RAID价格昂贵,增加一个附加的奇偶驱动器的价格也颇为可观。既然RAID改造速度相对比较快,如果拿磁盘的性能与密度相比(后面还将详细讨论这一点),RAID-6就不是一个大问题了。
 
SATA硬盘的密度非常高,但是错误率也比较高,性能比较低,RAID-6设计很快就能够解决这些问题,使其能够适用于高端和高性能要求的环境之中。
RAID-6变得越来越流行,所以在评估RAID控制器的时候,除了考虑其他一些因素,最好还要考虑一下它和RAID-5的异同。
找到问题所在
如下图所示,读取单一驱动器的时间随着时间的推移出现了明显的增长:

造成这种情况的主要原因是磁盘驱动器的密度的增长远比性能的提升要快。从1991年以来,企业磁盘(SCSI和FC)已经从500MB发展到了300GB,增长了600倍。而在同一时期内,最高性能仅仅从4MB/s提高到了125MB/s,只增长了31.25倍。如果磁盘驱动器的性能可以和密度同步提高的话,我们就可以拥有2.4GB/s性能的磁盘驱动器了。这听起来很不错,不是么?但是不太可能在短期内实现。
显而易见,重建RAID LUN(Logical Unit Number,逻辑单元号)的时间显著地增加了。另一个值得关注的问题是:让我们回到1996年,当时即将推出1Gb半双工的FC。磁盘驱动器的传输速度是16MB/s,密度为9GB。从1996年到今天,驱动器的最大性能增长了7.8倍,而密度却增长了33.33倍,单个驱动器只增长了4倍。是的,我们实现了全双工传输,但是在1996年,单一FC通道最多可以支持6.25个驱动器全速读写。今天的能支持的数量是3.2。我认为企业级驱动器还没有任何显著的改变,能够扭转这种趋势。使用SATA驱动器只是更加恶化了这一问题,因为驱动器密度更大了,但是传输速度却在下降。我相信这将是RAID-6的推动因素之一,因为随着密度的增加,RAID-5丢失数据的风险也明显地增加了。
 
RAID控制器性能
既然如此,我们可以预言,至少在可以预见的未来,对Fibre Channel(光纤通道,FC)来说,RAID-6将变得更普及,因为使用较慢接口的、密集的驱动器重建需要的时间越来越长。而且SATA驱动器的广泛使用,也会推动RAID-6的普及,直到有更好的技术出现,取代RAID-6为止。
问题是RAID-6需要控制器能够提供更多的资源,来计算附加奇偶,并且需要更大的带宽来进行写操作,对于一些厂商来说,还需要更大的带宽来读取更多的奇偶(parity)。所需要的带宽大小取决于RAID-6的配置。例如,如果是8+1 RAID-5,需要9个硬盘的带宽;而如果是RAID-6 8+2的话,需要的带宽就增加了11%,也就是10个硬盘的带宽。如果是4+1 RAID-5,需要5个硬盘的带宽,但是如果是RAID-6 4+2的话,所需要的带宽就增加了20%,也就是6个硬盘的带宽。如果只是有一个LUN的带宽需求增加了20%的话,那么我相信几乎所有的RAID控制器都能够应付,但是如果系统中所有的LUN都是RAID-6的话,情况会怎样?
你的控制器是否能够有11%或者20%冗余的计算资源来计算多出来的奇偶?而且控制器是否能够提供足够的带宽支持所有这些硬盘?为RAID增加改造的潜力,你也许会让RAID控制器运行的速度超过设计速度。我认为对于每个考虑使用RAID-6的用户来说,理解RAID控制器的设计问题都非常重要,这能够帮助他们更好地理解购买什么样的设备才能够更好地满足自己的性能要求。我不想再详细讲述FC和SATA硬盘的差别,因为我已经在以前的文章里介绍过这些内容了,请参看《使用SATA存储的真实成本》。
 
检查RAID性能
因为绝大部分中端RAID厂商都是按照RAID-5,而不是RAID-6的性能要求设计RAID控制器的,所以为了确保采购的RAID控制器能够达到RAID-6的性能要求,用户需要考虑RAID控制器的两方面的问题:一是计算奇偶的处理器的性能,另一个是后端通道的性能。
处理器的性能比较容易评估。假设厂商取1个或者最多4个磁盘托架。开始之前,必须知道后端连接的数量和这些连接的性能。例如,如果有4个4Gb的FC后端连接,就需要为这四条连接配备4个FC HBA,以及一个或多个能够充分利用这些HBA的系统。必须确保后端的性能(RAID控制器到磁盘托架的性能)能够和前端的性能(从服务器到RAID的性能)相匹配。创建一个4+1 LUN和一个4+2 LUN,并使用可以写入原设备的、多线程的程序,例如从ioperformance.com下载的xdd。对4+1的写入应该和对4+2的写入是一样的。
现在对你所有的LUN进行同样的操作,并且充分利用其全部的性能。假设有以下两种方法。采用LUN中磁盘驱动器最外圈的柱面以获得最大性能,并且向厂商咨询磁盘托架的最大性能。在这两个值中,取较低的一个值。对你所拥有的所有的LUN重复进行8+1和8+2操作,使用其全部的性能。对于非常重视奇偶性能的写操作来说,性能也应该是一样的。如果不是这样,那么奇偶处理器速度就不够快,或者是RAID的后端性能设计不好,也可能是两者兼而有之。
既然高性能处理器性价比非常高,要确定是否是处理器的问题非常困难,在现在这个年代,几乎是不可能的。另一方面,RAID控制器后端的设计非常复杂,所以它通常是问题所在。今天,绝大部分的RAID控制器都支持使用一个FC fabric连接把每个磁盘托架连接起来,在托架内部可能使用FC-AL(光纤通道仲裁环路)、SATA或者SAS连接。需要理解的第一个问题是从RAID控制器到主机的性能和从RAID控制器到缓存之间的性能比。对于中端控制器,这个比例通常在1:1到1:4之间,有时候会更高(从控制器到磁盘托架之间的带宽更高)。请注意,如果你使用的是RAID-6的话,就需要更多的带宽,这是因为要对第二个奇偶驱动器进行写操作,对于一些厂商的产品来说,可能还有读操作。
看看下面这个例子。比如说,你在前端拥有4个4Gb的FC,以及6个从缓存到磁盘托架的通道(1到1.5)。

上面描述的RAID控制器将为这4个4+2 LUN提供最大的带宽。这一点无所谓好坏,但是却说明了一个事实:RAID-6比RAID-5所耗占的带宽更多。一些厂商为了解决读取的带宽问题,采用了不读取所有奇偶驱动器的做法,所以就只剩下写的问题了;其他一些厂商却采取了其他的方法。当然,最糟糕的做法是流式(streaming)I/O,但是同样的问题也存在于IOPS之中,只不过IOPS的问题是寻址和响应时间,而不是带宽。
 
事先做好计划
RAID-6比RAID-5需要更多的带宽,并且能够影响RAID控制器的性能。在前文所举的例子中,写入的问题不仅仅出现在用户从主机上进行写入的时候,控制器需要重建一个LUN的时候也可能遇到这种问题。了解这一点,对于理解RAID控制器的后端性能,以及相关的、计划中的LUN配置非常重要。尤其对于RAID-6来说更是如此。对中端产品来说,从缓存到主机的控制器性能通常会低于从缓存到磁盘的控制器性能。目前,对于企业产品来说,情况亦是如此。
该文章的主要目的在于让客户在购买任何一款RAID控制器之前,对设置好的配置有所了解,同时对主机需要的I/O有大概的估计,增加重建的潜力。既然RAID-6需要在缓存与磁盘 tray 与RAID-5之间占用更多的带宽,在考虑使用RAID-6技术的时候,也需要认真考虑所需要的配置。