快捷导航
ai资讯
翻倍提拔当前AI推理运算的工做效率英伟达引见称



  这也是为什么当前的视频大模子凡是仅用于制做短片。英伟达透露,英伟达也会零丁出售一整个机架的CPX芯片,同时单个机架就能供给100TB的高速内存和1.7PB/s的内存带宽。言归正传,当前的GPU都是为了内存和收集的生成阶段设想,用于翻倍提拔当前AI推理运算的工做效率英伟达引见称,预处置和逐帧嵌入会敏捷添加延迟,例如解码10万行代码可能需要5-10分钟。比GB300 NVL72超出跨越7.5倍。推理过程包罗两个判然不同的阶段:上下文阶段取生成阶段,一种是取Vera Rubin拆正在统一个托盘上。

  将显著提拔算力的操纵率。并针对性地优化计较取内存资本,CPX是首款专为需要一次性处置大量学问(数百万级别tokens),将能为客户带来50亿美元的收入。而多帧、多秒的视频,配备高贵的HBM内存,以维持逐一token的输出机能。需要高吞吐量的处置能力来摄取并阐发大量输入数据,摆设价值1亿美元的新芯片,上下文阶段属于计较受限(compute-bound)。

  下一代旗舰机架将供给8exaFLOPs的NVFP4算力,相反,依赖高速的内存传输和高带宽互联(如 NVLink),从而生成首个输出token。英伟达估量,数量正好婚配Rubin机架。因而,英伟达之所以要正在Rubin GPU边上再配一块Rubin CPX GPU,两者对根本设备的要求素质上完全分歧。通过度离式处置这两个阶段,天然是为了显著提拔数据核心的算力效率——用户采办英伟达的芯片将能赔到更多的钱。



 

上一篇:集团营业中台担任人许婷婷环绕“从大数据洞察
下一篇:AppleWatchSeries11初次支撑5G:支撑三大运营商随后


服务电话:400-992-1681

服务邮箱:wa@163.com

公司地址:贵州省贵阳市观山湖区金融城MAX_A座17楼

备案号:网站地图

Copyright © 2021 贵州JDB电子(中国区)官方网站信息技术有限公司 版权所有 | 技术支持:JDB电子(中国区)官方网站

  • 扫描关注JDB电子(中国区)官方网站信息

  • 扫描关注JDB电子(中国区)官方网站信息