加速AI基91区建新范式 曙光存储再升级
最佳回答
“91区”加速AI基91区建新范式 曙光存储再升级
3月291区7日,曙光存储全新升级A91区I存储方案,秉持“AI加速”理念,面向AI训练、AI推理和AI成本等需求,全面重塑AI存储架构。
AI训练再提速效率提升3倍以上
曙光存储ParaStor F9000专为 AI训练场景量身打造,针对AI训练带来的GUP利用率低、KV Cache、向量数据库存储和检索性能低等问题,升级后的ParaStor可整机柜交付,提供千卡/万卡/十万卡集群整机柜交付方案,轻松容纳DeepSeek-R1这样千亿级参数的大模型,部署时间缩短50%。
性能方面,ParaStor F9000更是表现卓越,拥有500万 IOPS的强大处理能力和190GB/s的高速带宽。借助五级加速技术和秒级弹性扩容功能,可将GPT-4级别模型的训练周期从原本的3个月大幅缩短至1周,加速AI技能迭代。
AI推理零卡顿时延降低80%
大模型实时推理往往带来每秒千万级的并发请求,对存储性能要求极高。FlashNexus集中式全闪存储在AI推理领域树立了新的性能标杆,其32控配置可实现超3000万 IOPS的惊人性能,时延低至0.202ms,在SPC-1基准评测中荣获全球第一。
基于国内最新芯片级研发成果,优化从处理器芯片、RDMA网络芯片、PCIe芯片、NVMe控制器芯片的端到端协议路径。微控架构建立无锁化的数据IO“超级隧道”,将写性能提升2倍以上。为AI推理的向量数据库、KV Cache长文本存储提供了更优方案。此外,高性能数据加密、完善的数据保护等技术为用户最关键的私域核心数据资产提供全方位保护。
面对大模型实时推理需求,该产品可“零帧起手”支撑每秒百万级并发需求;聚焦自动驾驶决策实时性需求,可以毫秒级速度加载TB级路况数据;针对金融客户,可在高波动市场环境下稳定处理高频量化交易数据流,让交易更高效、安全。
AI成本更优解海量存储再升级
升级后的ParaStor S6000系列,以1.44PB/框的超大容量和20%成本降低支撑千亿参数归档。单框配置14块NVMe盘和60块SATA/SAS盘,通过冷热数据分层技术和智能数据调度功能,实现动态优化存储资源的分配、跨形态热温冷数据无感流动,提高存储资源的利用率。
通过与2U2N全闪节点的统一管理和使用,利用系统间无缝数据迁移等技术,显著降低使用和运维成本
ParaStor高密存储可满足AI大模型的数据预处理以及模型、参数的归档,高端计算+AI科学计算数据湖应用等场景,显著降低AI大模型应用存储系统的构建成本,是百PB-EB级超大规模AI基础设施的更佳选择。
曙光存储通过不断更新升级产品,带来速度与容量的双重革命。未来,曙光存储将始终以用户需求为导向,以先进存力筑基AI时代,为千行百业AI升级提供坚实的数据底座支撑。