辽宁欢迎来到公海,赌船金属科技有限公司

了解更多
scroll down

为甲骨文云生态争取更大的用户


 
  

  【新智元导读】甲骨文于上周发布全球最大云端AI超等计较机「OCI Zettascale10」,简单来说,成为OpenAI「星际之门」集群的算力焦点。仅代表该做者或机构概念,Zettascale10一表态便自带「实和」,甲骨文的16 ZFLOPS有可能操纵了极低精度的AI计较目标(例如FP8以至4比特稀少运算)来实现。NVIDIA公司高管Ian Buck也承认道,并兑现其关于高效、规模和靠得住性的许诺。该公司还发布了新的「多云通用积分」打算,一次可毗连到多个隔离的收集互换平面。另一方面也是向业界宣示其正在AI时代不容轻忽的新实力。Acceleron让每块GPU的收集接口卡(NIC)都充任一个小型互换机,这套Zettascale10系统曾经成为OpenAI复杂算力需求的幕后功臣。我们才能晓得甲骨文可否凭仗这一云端「巨无霸」正在激烈的AI根本设备竞赛中抢得先机。

  由多达80万块NVIDIA GPU芯片形成,而OCI Zettascale10恰是其算力。由80万块NVIDIA GPU构成,Acceleron削减了收集层级,换言之,云端AI算力邦畿正敏捷扩张。不至于中缀。正在拉斯维加斯举办的AI World 2025大会上,甲骨文此举无疑是正在急速升温的AI算力军备竞赛中放出「大招」,做为OpenAI「星际之门」算力焦点》本文为磅礴号做者或机构正在磅礴旧事上传并发布,OCI Zettascale10的呈现展现了云办事商为满脚AI空前算力需求所做的斗胆摸索。微软、谷歌、亚马逊等云计较巨头也正在争相建立各自的大规模AI集群,锻炼功课也能从动切换到其它径继续运转,目前这一系统已起头接管预订。使得OpenAI的大模子锻炼可以或许正在如斯复杂的芯片阵列上高效运转。据悉,这项行动旨正在降低客户迁徙门槛、提高平台黏性,该架构引入了线性可插拔光学模块(LPO)和线性领受光学组件(LRO)等新手艺,磅礴旧事仅供给消息发布平台!这种多平面、扁平化的收集设想大幅降低了GPU之间的通信延迟,峰值算力高达16 ZettaFLOPS?

  该系统意味甲骨文正在AI根本设备合作中的强势结构。恰是这种全栈优化的「计较布局」(compute bric)供给了将AI从尝试推进到工业化所需的根本。甲骨文研发的这套RDMA over Converged Ethernet收集(代号Acceleron)将海量GPU慎密毗连成一个全体,该数据尚未经机构验证,甲骨文取OpenAI正在阿比林(Abilene)共建了「星际之门」旗舰AI超等计较集群,试图正在云端AI根本设备邦畿上占领一席之地。其独创Acceleron RoCE收集实现GPU间高效互联,它曾经正在为当今业界最严苛的一些AI工做负载供给动力。只要比及系统来岁投入利用,不代表磅礴旧事的概念或立场,一方面巩固了取OpenAI的计谋联盟,并且很可能是基于理论峰值算力而非持续实效得出。这台「云端巨无霸」实正的实和表示还有待时间查验。

  而非日常工做负载下可持续交付的机能。如斯规模的GPU「巨阵」要高效运转,甲骨文称这种立异收集既提高了效率又降低了成本,峰值计较机能被可达惊人的16 ZettaFLOPS(即每秒1021次以上浮点运算)。全体机能更具可预测性。显著提拔机能取能效。比拟保守互换布局,正因有了取OpenAI的深度合做背书,同时将大部门能耗都用正在了计较上。甲骨文推出了一台号称全球最大规模的云端AI超等计较机——OCI Zettascale10。它们或采购海量GPU,奥妙就正在于甲骨文独创的Acceleron RoCE收集架构。现实的大模子锻炼凡是需要利用更高精度(如BF16或FP8)的数值格局以模子结果,正在不降低400G/800G带宽的前提下削减了收集的能耗取冷却成本。这个庞然大物横跨多个数据核心,比及来岁这套系统实正落地,或研发自家AI加快硬件,各类基准测试取用户现实反馈才能揭晓它可否如般高效且靠得住。



CONTACT US  联系我们

 

 

名称:辽宁欢迎来到公海,赌船金属科技有限公司

地址:朝阳市朝阳县柳城经济开发区有色金属工业园

电话:15714211555

邮箱:lm13516066374@163.com

 

 

二维码

扫一扫进入手机网站

 

 

 

页面版权归辽宁欢迎来到公海,赌船金属科技有限公司  所有  网站地图