TOP
首页 > 新闻动态
2025-07-07
Lumentum的光路开关(OCS)技术正成为下一代AI数据中心网络架构的关键使能器,其MEMS光开关方案通过低损耗、低延迟和全光透明特性,显著提升了数据中心的可扩展性、可靠性和能效表现。随着AI训练集群规模从千卡向万卡甚至百万卡级别扩展,传统电交换网络面临功耗、延迟和拓扑灵活性的瓶颈,而Lumentum的OCS技术通过物理层可编程重构,为AI基础设施提供了更高效、更可靠的互联解决方案。市场研究机构Cignal AI预测,到2028年,OCS市场规模将突破10亿美元,这一增长将主要由AI和云网络的进步驱动。Lumentum凭借其在MEMS光开关领域的技术积累和与NVIDIA等AI芯片厂商的深度合作,正迅速占据这一新兴市场的有利位置。
Lumentum的光路开关(OCS)采用MEMS(Micro-Electro-Mechanical System)光开关技术,这是一种将微电子机械系统与光学技术结合的创新方案。MEMS光开关通过静电驱动的二维微镜阵列实现光路切换,相比传统机械光开关具有更低的插入损耗(通常<1dB)、更高的隔离度(>45dB)、更快的切换速度(1-10毫秒级)以及更长的使用寿命(可达百亿次切换)。这些技术特性使其成为AI数据中心光互连的理想选择。
Lumentum的R300光路交换机是其OCS产品线的旗舰产品,支持300×300端口的矩阵规模。该产品利用了Lumentum在开发和部署高性能MEMS技术方面的工程专业知识,这些技术已在要求苛刻的电信应用中得到验证。基于超过1万亿小时的现场镜像运行时间和数百项专利的成熟产品组合,Lumentum的OCS在可靠性和性能方面具有显著优势。其光开关通过微镜阵列的动态偏转实现光路切换,能够在O、C或L波段之间无缝运行,为下一代传输技术提供了灵活的解决方案。
与基于液晶的交换机相比,MEMS技术在波长选择、光纤扇出和双向传输等方面具有更优的表现。Lumentum的OCS产品在信号完整性方面表现出色,具有低插入损耗、低回波损耗、极小的偏振相关损耗(PDL)和偏振模色散(PMD),确保了出色的光学性能。此外,其静电驱动设计仅在切换瞬间和维持状态时需要少量电流,静态功耗几乎为零(微瓦量级),这对于AI数据中心的能效优化至关重要。
AI数据中心正面临从千卡向万卡乃至更大规模扩展的挑战,传统电交换网络在功耗、延迟和拓扑灵活性方面已无法满足需求。Lumentum的OCS通过物理层可编程重构,解决了AI数据中心的两大核心挑战:动态拓扑重构和规模扩展。
在动态拓扑重构方面,OCS能够在毫秒级时间内重新配置光路,适配不同AI模型的并行计算需求。例如,在处理推荐系统大模型(DLRM)和语言模型(LLM)时,OCS可根据模型特性自动调整互联拓扑,优化带宽分配。这一特性使AI训练集群能够根据工作负载实时调整网络架构,显著提升系统利用率。NVIDIA的研究表明,OCS集群相比传统胖树架构集群,在DLRM、LLM以及混合场景下,系统利用率差异控制在1%以内,这意味着OCS能够更有效地满足多样化的AI训练需求。
在规模扩展方面,Lumentum的R300支持300×300端口的矩阵规模,且具备模块化扩展能力。通过级联或堆叠多台R300设备,可以构建更大规模的端口矩阵,满足万卡级AI集群的互联需求。OCS的模块化设计使数据中心能够按需扩展,避免了传统电交换网络在规模扩展时面临的”平方律”功耗增长问题。谷歌TPU v4的案例表明,使用可重配置光互连可以将系统规模从TPU v3的每台超算中1024片提升到4096片,性能提升达2.1-3.5倍,同时功耗仅增加约5%。
OCS还通过全光透明特性消除了光-电-光(OEO)转换,与以太网交换相比,延迟降低了5到10倍。这一特性对于AI训练中的大规模并行计算至关重要,因为低延迟能够显著提升训练效率。在谷歌TPU v4的案例中,OCS通过重构特性,使在芯片可靠率为99%的情况下,整体系统的平均性能提升比不使用OCS高达6倍,这充分展示了OCS在提高系统可靠性方面的价值。
Lumentum的OCS技术与AI芯片及数据中心架构的协同设计是提升AI基础设施性能的关键。通过与NVIDIA等AI芯片厂商的深度合作,Lumentum开发了针对AI场景优化的光互连解决方案,实现了从物理层到算法层的全栈协同。
在与AI芯片的协同设计方面,Lumentum的OCS通过L1 SDN控制层与NVIDIA的网络ASIC(如Quantum-X800)协同工作,支持动态拓扑重构,适配NVLink或InfiniBand等AI芯片互联协议。这种协同设计使OCS能够根据AI模型的计算需求自动调整网络拓扑,优化带宽分配。例如,在处理稀疏矩阵计算时,OCS可以优先连接需要高带宽的节点,而在处理密集矩阵计算时,则可以构建全互联拓扑,最大化计算效率。
在与数据中心架构的协同设计方面,Lumentum的OCS可嵌入叶脊(Spine-Leaf)网络的Spine层或Leaf层,通过物理层可编程实现资源的灵活分配。例如,在NVIDIA的硅光CPO交换机(如Spectrum-X和Quantum-X)中,Lumentum的光开关与台积电硅光芯片(微环调制器)通过3D堆叠和Flip chip技术集成,形成高度集成的光引擎。这种集成方案支持1.6Tbps端口速率,相比传统可插拔光模块方案实现了3.5倍的能耗降低、10倍的网络弹性提升以及1.3倍的部署效率提升。
此外,Lumentum的OCS还支持与AI芯片的算法协同设计。例如,在谷歌TPU v4中,OCS与稀疏核(SparseCore)协同工作,通过优化光路切换路径,减少机械疲劳和电极损伤,延长使用寿命。这种协同设计使AI芯片能够更高效地利用光互连资源,提升整体计算效率。
随着AI算力需求的指数级增长,光交换技术正成为AI基础设施的关键组成部分。市场研究机构Cignal AI预测,到2028年,OCS市场规模将突破10亿美元,这一增长将主要由AI和云网络的进步驱动。Lumentum凭借其在MEMS光开关领域的技术积累和与头部AI芯片厂商的合作,正迅速占据这一新兴市场的有利位置。
在竞争格局方面,当前OCS的商用技术方案主要有两种:MEMS技术和DirectLight DBS技术。Lumentum的MEMS方案在中小矩阵OCS中已广泛应用,但随着AI集群规模向万卡级别扩展,DirectLight DBS技术在大规模端口扩展中表现出优异的可靠性和稳定性。然而,Lumentum的MEMS技术在功耗和延迟方面具有显著优势,且已通过收购云晖科技等举措增强了其在光模块领域的技术实力。云晖科技的数据显示,其超过90%的收入来自于400G及更高速度的产品,最近季度中超过一半的光传收发器收入来自于800G模块,这为Lumentum的OCS技术提供了强大的光模块支持。
Lumentum的财务表现也印证了其在AI基础设施领域的战略定位。2025财年第三季度,Lumentum收入为4.252亿美元,非GAAP稀释后每股净收益为0.57美元,均超出市场预期。公司总裁兼CEO Michael Hurlston表示:“第三季度,我们的收入和每股收益均超出预期,这得益于云客户的强劲需求和网络市场的复苏。”这一增长主要来自数据中心业务,表明Lumentum的OCS技术正在获得超大规模客户的认可。
在客户合作方面,Lumentum已成为NVIDIA硅光CPO交换机的核心光模块供应商。NVIDIA与台积电、Lumentum等合作伙伴共同开发的Spectrum-X和Quantum-X硅光CPO交换机预计分别于2025年下半年和2026年下半年上市。这些交换机将采用Lumentum的光开关技术,支持144×800G和512×800G的规格,为百万GPU AI工厂提供支持。
谷歌TPU v4是OCS技术在AI数据中心中的成功应用案例。谷歌自研的Palomar光路开关芯片采用MEMS反射镜阵列技术,通过控制反射镜的位置来调整光路,实现可重配置的光互连。这一技术使TPU v4能够根据不同机器学习模型改变拓扑结构,性能提升超过2倍。谷歌的研究表明,在芯片可靠率为99%的情况下,使用OCS的系统整体平均性能比不使用OCS高出6倍,这充分展示了OCS在提高系统可靠性方面的价值。
NVIDIA也在其AI基础设施中积极采用OCS技术。NVIDIA的研究表明,使用OCS的集群与理想胖树架构集群相比,在处理10,000个作业(包括仅LLM、仅DLRM或两者混合的作业)时,OCS集群的利用率与参考胖树系统相比,在各种场景下均保持在1%以内。这表明OCS能够更有效地满足多样化AI工作负载的需求。NVIDIA的Quantum-X交换机采用CPO技术,结合Lumentum的光开关,实现了3.5倍的能耗降低、10倍的网络弹性提升以及1.3倍的部署效率提升。
微软的Project LightSpeed也是OCS技术在AI数据中心中的重要应用。该项目旨在利用光电子技术提升数据中心的网络速度,通过使用光芯片减少数据中心能耗并提高处理能力。微软的研究表明,OCS可以在物理层实现可重构,适配不同训练任务的需求,提高网络可靠性。
随着AI训练集群规模的持续扩大,OCS技术也面临新的挑战和发展机遇。未来OCS技术将向更大端口规模、更低延迟和更高能效方向演进,同时与硅光CPO技术的深度融合将成为主要趋势。
在端口规模方面,随着AI集群规模从万卡向百万卡级别扩展,OCS需要支持更大端口规模(如1000×1000)。Lumentum的R300虽然目前支持300×300端口,但其模块化设计为未来扩展提供了基础。通过级联或堆叠多台R300设备,可以构建更大规模的端口矩阵,满足超大规模AI集群的互联需求。
在延迟和能效方面,OCS技术需要进一步降低延迟和提高能效。Lumentum的MEMS光开关已在低延迟方面表现出色,但未来仍有优化空间。与硅光CPO技术的结合将为OCS提供更低功耗的解决方案,同时提升信号完整性。例如,NVIDIA与Lumentum合作开发的硅光CPO交换机实现了3.5倍的能耗降低,这为AI数据中心的绿色化转型提供了重要支持。
在技术路线方面,MEMS技术和DirectLight DBS技术将在不同规模的AI集群中发挥各自优势。MEMS方案在中等规模集群(如300×300端口)中更具成本和延迟优势,而DirectLight DBS技术在超大规模集群中稳定性更高。未来可能出现混合交换架构,将OCS与OEO交换结合,以满足不同规模AI集群的需求。
在部署下沉方面,OCS应用将进一步下沉至叶脊网络的Leaf层,这需要更快的切换速度和更小端口的低成本OCS解决方案。Lumentum的MEMS技术在这一方向具有潜力,但需要进一步优化成本和可靠性。
Lumentum的OCS技术正通过多种商业模式和市场策略渗透AI基础设施市场。作为云和网络市场的光学与光子解决方案领导者,Lumentum正积极向多家超大规模客户送样其R300光路交换机,并计划于2025年下半年全面上市。这一产品定位使其能够直接参与AI基础设施的建设,与NVIDIA等芯片厂商形成互补。
Lumentum的商业模式主要分为两类:一是向超大规模客户提供定制化的光路开关解决方案,如R300产品;二是通过与芯片厂商合作,将其光开关技术集成到CPO交换机中,如与NVIDIA合作的硅光CPO交换机。这两种模式使Lumentum能够覆盖AI基础设施的不同层级,从底层光互连到上层网络交换。
在市场策略方面,Lumentum正通过以下方式扩大其在AI基础设施市场的份额:
首先,Lumentum强调其MEMS技术的成熟性和可靠性。公司表示,其MEMS技术已在要求苛刻的电信应用中得到验证,基于超过1万亿小时的现场镜像运行时间,为AI基础设施提供高质量的OCS产品。这种可靠性优势对于AI训练集群至关重要,因为任何网络故障都可能导致训练中断和资源浪费。
其次,Lumentum正积极与AI芯片厂商合作,共同开发针对AI场景优化的光互连解决方案。与NVIDIA的合作是典型案例,双方共同开发的硅光CPO交换机将为百万GPU AI工厂提供支持。这种合作模式使Lumentum能够深入了解AI芯片的通信需求,并开发更贴合的光互连解决方案。
最后,Lumentum正通过收购增强其在光模块领域的技术实力。2023年11月,Lumentum以7.5亿美元收购了云晖科技,后者专注于400G及更高速度的光模块研发。这一收购使Lumentum的云数据中心基础设施收入预计翻倍,为其OCS技术提供了更强大的光模块支持。
Lumentum的光路开关(OCS)技术正成为下一代AI数据中心网络架构的关键使能器。通过MEMS光开关的低损耗、低延迟和全光透明特性,Lumentum的OCS技术有效解决了AI数据中心的互联拓扑重构和规模扩展挑战,为AI基础设施提供了更高效、更可靠的互联解决方案。市场研究机构Cignal AI预测,到2028年,OCS市场规模将突破10亿美元,这一增长将主要由AI和云网络的进步驱动。
在技术路径方面,Lumentum的OCS技术通过与AI芯片的协同设计和与数据中心架构的深度融合,实现了从物理层到算法层的全栈优化。与NVIDIA的深度合作表明,OCS技术正在从实验阶段迈向商业化应用,为AI基础设施的扩展提供了新的可能性。
未来,随着AI训练集群规模的持续扩大和光互连技术的成熟,OCS将在AI数据中心中发挥更加重要的作用。Lumentum需要继续优化其MEMS光开关技术,降低制造成本,提高良率和可靠性,以满足超大规模AI集群的需求。同时,与硅光CPO技术的融合将是OCS未来发展的重要方向,这将为AI基础设施提供更低功耗、更高带宽的互联解决方案。
总之,Lumentum的OCS技术正通过其MEMS光开关方案的低功耗、低延迟和高可靠性特性,为下一代AI数据中心的可扩展性提供了重要支持。随着AI算力需求的不断增长和技术的持续创新,OCS将在AI基础设施中扮演越来越关键的角色,推动AI计算能力的进一步提升。
说明:本内容由AI生成并经专家审核。
选择合适的光开关是一项需要综合考量技术、性能、成本和供应商实力的工作。希望本指南能为您提供清晰的思路。我们建议您在明确自身需求后,详细对比关键参数,并优先选择像科毅光通信这样技术扎实、质量可靠、服务专业的合作伙伴。
访问广西科毅光通信官网 www.coreray.cn 浏览我们的光开关产品,或联系我们的销售工程师,获取专属的选型建议和报价!