000977吧 关注:1,764贴子:192
  • 1回复贴,共1

浪潮信息AS13000G7:助力AI应用,创造存储新价值

取消只看楼主收藏回复

如果说2023年是全球对生成式AI(GenAI)初步认识的阶段,那么2024年则是全球各大组织/企业深入探索人工智能商业价值的关键之年。随着生成式AI等人工智能技术被越来越多的用户采纳,存储等数据基础设施正面临着前所未有的挑战,用户愈发意识到存储系统必须满足人工智能数据训练与推理在性能、延时、容量、扩展性等方面的严格要求。
近期,在最新发布的MLPerf AI存储基准评测中,浪潮信息的分布式存储平台AS13000G7凭借其创新技术,显著提升了数据处理效率,在8项测试中取得了5项最佳性能成绩,实现了集群带宽360GB/s、单节点带宽达120GB/s的卓越表现,充分展示了其在满足AI场景下高性能存储需求方面的强大能力,为大规模数据处理和AI应用提供了坚实的基础。


IP属地:湖北1楼2024-11-30 21:25回复
    软硬协同
    内核亲和力调度,内存访问效率提升4倍
    在当前的AI基础设施平台中,计算服务器配置非常高,更高性能的CPU和更多的插槽数带来了NUMA(Non-Uniform Memory Access)节点数据的增加。在NUMA架构中,系统内存被划分为多个区域,每个区域属于一块特定的NUMA节点,每个节点都有自己的本地内存。因此,每个处理器访问本地内存的速度远快于访问其他节点内存的速度。
    然而,在多核处理器环境下,会产生大量的跨NUMA远端访问。在分布式存储系统中,由于IO请求会经过用户态、内核态和远端存储集群,中间频繁的上下文切换会带来内存访问延迟。如下图,在未经过NUMA均衡的存储系统中,存储的缓存空间集中在单个NUMA节点内存内。当IO请求量增大时,所有其他NUMA节点的CPU核的数据访问均集中在单个Socket内,造成了大量跨Socket 、跨NUMA访问。这不仅导致了CPU核的超负荷运载和大量闲置,还使得不同Socket上的内存带宽严重不均衡,单次远端NUMA节点访问造成的微小时延累积将进一步增大整体时延,导致存储系统聚合带宽严重下降。

    为了降低跨NUMA访问带来的时延,浪潮信息通过内核亲和力调度技术,在全新数控分离架构下,使内核客户端可自主控制数据页缓存分配策略并主动接管用户下发的IO任务。这种方式能够更加灵活地实现各类客户端内核态到远端存储池的数据移动策略。其中,针对不同的IO线程进行NUMA感知优化,将业务读线程与数据自动分配到相同的NUMA节点上,这样,所有数据均在本地NUMA内存命中,有效减少了高并发下NUMA节点间数据传输,降低了IO链路时延,4倍提升内存访问效率,保证负载均衡。
    综上所述,在AI时代,存储性能对于人工智能训练、推理和应用的效率至关重要。浪潮信息分布式存储平台AS13000G7凭借其软件优化、硬件升级和软硬协同的三大优势,展现了极致的性能表现,成为了AI时代各大用户的理想存储选择。浪潮信息将继续致力于技术创新,为用户提供更加高效、可靠的存储解决方案,推动人工智能产业的快速发展。


    IP属地:湖北2楼2024-11-30 21:44
    回复