8月23日,在2025中国算力大会主论坛上,中国移动、之江实验室、百度等国内数十家运营商、互联网企业、芯片厂商、服务器制造商及科研院所,共同启动智算开放互联OISA生态共建战略合作,并发布OISA 2.0协议。此举标志着我国智算产业在技术创新与生态协同领域迈出坚实一步,对产业协同发展具有里程碑意义。
当前,人工智能正引领全球迈入全新发展阶段。以大模型为核心的AI技术广泛渗透至各行各业,激发海量且多样化的算力需求。伴随大模型向更高参数、更强能力、更多模态演进,构建由数万乃至数十万颗 AI芯片组成的超大规模集群成为全球智算产业发展趋势。而在超大规模集群中,AI芯片间的高速互联如同“中央神经系统”,其性能优劣直接决定着整个集群的运行效率,影响AI芯片间高效、智能、低时延的数据交互,成为人工智能技术向纵深突破的关键瓶颈。因此,主动谋划并前瞻性定义一套先进、开放的互联技术架构,对加速AI技术创新、促进产业可持续发展、保障产品演进能力,提升国际协同合作水平具有战略意义。
基于对技术演进趋势的深刻洞察与产业升级需求的积极响应,中国移动践行“链长”的使命担当,联合国内互联网、AI芯片、交换芯片、服务器等领域的头部力量,凝聚产业共识,历经多轮研讨,共同完成智算芯片开放互联技术体系的研发,成功打造全向智感互联架构(Omni-directional Intelligent Sensing Express Architecture,OISA)协议标准。该标准旨在打造一个高效、智能、灵活、开放的AI芯片互联体系,并具备全方位连接、智能化感知的下一代先进互联能力。通过实现高效互联,该体系可支撑超节点智算集群性能的纵向扩展。相较于OISA 1.1版本,OISA 2.0进一步将支持的AI芯片数量提升至1024 张,带宽突破TB/s 级别,AI芯片互联时延缩短至数百纳秒,为大模型训练、推理及高性能计算等数据密集型 AI 应用提供有力支撑。
本次发布的OISA 2.0协议具备多个核心技术特征:一是支持原生内存语义,使AI芯片得以跨节点、无障碍地进行数据访问,极大提升超节点计算任务中的数据流转效率,为上层AI框架与应用创新提供更广阔的技术拓展空间;二是创新TLP报文重构技术,可智能聚合处理微小计算事务,提高互联带宽利用效率,为大规模集群打造更为流畅、高效的数据传输通道;三是支持智能在途感知,实时精准捕捉全域AI芯片互联状态,为动态路由、拥塞控制和智能运维提供数据支撑,赋予整个互联系统“自我感知、自我优化”的智慧特性;四是集合通信硬件加速,将AI训练中的集合通信等复杂操作,通过专用硬件引擎卸载至交换芯片,实现计算与通信的深度融合与协同加速,为大模型训练等核心应用场景带来显著的性能提升。
此次生态共建战略合作将以OISA 2.0协议标准为纽带,通过构建统一开放的技术平台,有效激发产业链创新活力,是OISA 2.0从技术标准迈向产业实践的关键一步。这不仅标志着我国智算产业链核心参与者就共建、共享、共赢的开放互联技术路线达成高度一致,更将有力推动AI芯片、交换芯片、服务器整机等产品的技术升级与迭代创新,促成从硬件创新到软件适配、从技术研发到场景应用的全链条协同体系,构建良性互动、持续进化的智算产业新生态。
未来,OISA体系将沿着技术突破与生态繁荣的双轨持续演进。在技术层面,持续突破带宽、时延与能效极限,兼容多元计算平台,融合异构芯片、Chiplet、光互连等前沿技术,为后摩尔时代算力增长提供核心支撑;在生态层面,构建全产业链协同创新共同体,通过标杆项目促进成果转化,加速OISA在千行百业实现规模化应用,让产业各方共享智算技术发展红利。