中国·必发(888·VIP认证)官方网站 - App Store

关于必发bifa官网 产品中心 柔性拖链电缆 高柔性屏蔽PUR护套拖链电缆 JKTRONIC-CP系列 高柔性PUR护套拖链电缆 JKTRONIC-P系列 高柔性双绞屏蔽拖链电缆 JKFLEX-800 CY(TP)系列 高柔性屏蔽拖链电缆 JKFLEX-800 CY系列 柔性数据线缆 柔性数据双绞屏蔽电缆 LIYCY(TP) 柔性数据屏蔽电缆 LIYCY 机器人电缆 机器人手臂弯曲扭转电缆 IRS05V2Q-H/IRS07V2QH/IRS03V2Q-H 机器人扭转拖链电缆 IRS05V2V2-H/IRS07V2V2-H/IRS03V2V2-H 伺服电缆 高柔性(屏蔽)PUR伺服拖链电缆 JK-SERV0 750P/750 CP 高柔性(屏蔽)伺服拖链电缆 JK-SERV0 720/720 CY 应用案例 新闻资讯 必发888官网登录入口 联系我们 中国·必发(888·VIP认证)官方网站
您的位置: 首页 > 新闻资讯
必发·bifa900倍性能飙涨!英伟达放出算力猛兽黄仁勋GTC现场开炮拿|快播太
发布时间:2025-06-21    来源:必发888特种线缆

  智东西美国圣何塞3月18日现场报道◈ღ✿✿,顶着热烈的加州阳光◈ღ✿✿,一年一度的“AI春晚”英伟达GTC大会盛大开幕◈ღ✿✿。今日上午◈ღ✿✿,英伟达创始人兼CEO黄仁勋穿着闪亮的皮衣◈ღ✿✿,进行了一场激情澎湃的主题演讲◈ღ✿✿,一连亮出四代全新Blackwell Ultra◈ღ✿✿、Rubin◈ღ✿✿、Rubin Ultra◈ღ✿✿、Feynman旗舰芯片◈ღ✿✿,公布四年三代GPU架构路线图◈ღ✿✿,还多次提到中国大模型DeepSeek◈ღ✿✿。

  整场演讲信息量爆棚必发·bifa◈ღ✿✿,覆盖加速计算◈ღ✿✿、深度推理模型◈ღ✿✿、AI智能体◈ღ✿✿、物理AI◈ღ✿✿、机器人技术◈ღ✿✿、自动驾驶等在内的AI下一个风口◈ღ✿✿,新发布涉及十大重点◈ღ✿✿:

  5◈ღ✿✿、个人AI超算◈ღ✿✿:推出全球最小AI超算DGX Spark◈ღ✿✿、高性能桌面级AI超算DGX Station◈ღ✿✿,方便开发者本地微调或推理深度思考模型◈ღ✿✿。

  8◈ღ✿✿、光电一体化封装网络交换机◈ღ✿✿:号称“世界上最先进的网络解决方案”◈ღ✿✿,可将AI工厂扩展到数百万块GPU◈ღ✿✿。

  9◈ღ✿✿、物理AI/机器人◈ღ✿✿:开源Isaac GR00T N1人形机器人基础模型◈ღ✿✿,与迪士尼研究院◈ღ✿✿、谷歌DeepMind将合作开发开源物理引擎Newton◈ღ✿✿。

  10◈ღ✿✿、电信AI和自动驾驶◈ღ✿✿:与通用汽车一起为工厂和汽车构建GM AI◈ღ✿✿,构建综合全栈自动驾驶安全系统NVIDIA Halos◈ღ✿✿。

  值得一提的是◈ღ✿✿,英伟达宣布Blackwell GPU创下满血版DeepSeek-R1推理性能的世界纪录◈ღ✿✿。

  通过硬件和软件的结合◈ღ✿✿,英伟达自今年1月以来将DeepSeek-R1 671B模型的吞吐量提高了约36倍◈ღ✿✿,相当于每个token的成本改善了约32倍◈ღ✿✿。

  今年GTC人气火爆到史无前例◈ღ✿✿,万元起步的门票悉数售罄◈ღ✿✿,超过25000名观众齐聚现场◈ღ✿✿,几乎整座圣何塞都染上了“英伟达绿”◈ღ✿✿,从街巷◈ღ✿✿、集市◈ღ✿✿、高楼◈ღ✿✿、餐厅◈ღ✿✿、巴士到三轮车◈ღ✿✿,到处都是醒目的英伟达GTC标识◈ღ✿✿。

  还有一个彩蛋◈ღ✿✿,在黄仁勋主题演讲开始前◈ღ✿✿,SAP中心大屏幕上播放的5人对话暖场视频中◈ღ✿✿,画面最右边的正是前英特尔CEO帕特基辛格◈ღ✿✿,他的身份已经变成了Gloo董事长◈ღ✿✿。

  迪士尼机器人Blue作为黄仁勋主题演讲的惊喜嘉宾压轴出场◈ღ✿✿,摇头晃脑向黄仁勋撒娇卖萌◈ღ✿✿,还听从黄仁勋的指令◈ღ✿✿,乖乖站到了他的旁边◈ღ✿✿。

  此外◈ღ✿✿,本届GTC大会特设China AI Day – 云与互联网线上中文专场◈ღ✿✿,涵盖大模型◈ღ✿✿、数据科学◈ღ✿✿、搜推广等领域的前沿进展◈ღ✿✿,演讲企业包括字节跳动◈ღ✿✿、火山引擎◈ღ✿✿、阿里云◈ღ✿✿、百度◈ღ✿✿、蚂蚁集团◈ღ✿✿、京东◈ღ✿✿、美团◈ღ✿✿、快手◈ღ✿✿、百川智能◈ღ✿✿、赖耶科技◈ღ✿✿、Votee AI◈ღ✿✿。

  上午9点59分◈ღ✿✿,黄仁勋闪现圣何塞SAP中心舞台◈ღ✿✿,朝不同方向的观众席连放5个冲天炮◈ღ✿✿,然后慢慢走下舞台◈ღ✿✿。

  在参会观众翘首等待11分钟后◈ღ✿✿,黄仁勋小步慢跑再度登场◈ღ✿✿,笑容满面地向全场观众打招呼◈ღ✿✿,还带观众云参观了下英伟达总部◈ღ✿✿。

  至于为什么要提前展示路线图?黄仁勋说◈ღ✿✿,构建AI工厂和AI基础设施需要数年的规划◈ღ✿✿,不像买笔记本电脑◈ღ✿✿,所以必须提前两三年制定土地◈ღ✿✿、电力◈ღ✿✿、资本支出的计划◈ღ✿✿。

  他公布了英伟达继Hopper◈ღ✿✿、Blackwell之后的下一代GPU架构——Rubin◈ღ✿✿。这一命名来自于发现暗物质的女性科学先驱薇拉鲁宾(Vera Rubin)◈ღ✿✿。

  在万众期待中◈ღ✿✿,英伟达新一代数据中心旗舰GPUBlackwell Ultra(GB300)正式登场◈ღ✿✿。

  Blackwell Ultra为AI推理时代而设计◈ღ✿✿,是全球首个288GB HBM3e GPU◈ღ✿✿,像拼乐高一样通过先进封装技术将2块掩膜尺寸的GPU拼装在一起◈ღ✿✿,可实现多达1.5倍的FP4推理性能◈ღ✿✿,最高15PFLOPS◈ღ✿✿。

  该GPU增强了训练和测试时推理扩展◈ღ✿✿,可轻松有效地进行预训练◈ღ✿✿、后训练以及深度思考(推理)模型的AI推理◈ღ✿✿,构建于Blackwell架构基础之上◈ღ✿✿,包括GB300 NVL72机架级解决方案和HGX B300 NVL16系统◈ღ✿✿。

  下一代模型可能包含数万亿参数◈ღ✿✿,可以使用张量并行基于工作负载进行任务分配◈ღ✿✿。如取模型切片在多块GPU上运行◈ღ✿✿、将Pipeline放在多块GPU上◈ღ✿✿、将不同专家模型放在不同GPU上◈ღ✿✿,这就是MoE模型◈ღ✿✿。

  流水线并行◈ღ✿✿、张量并行◈ღ✿✿、专家并行的结合◈ღ✿✿,可以取决于模型◈ღ✿✿、工作量和环境◈ღ✿✿,然后改变计算机配置的方式◈ღ✿✿,以便获得最大吞吐量◈ღ✿✿,同时对低延迟◈ღ✿✿、吞吐量进行优化◈ღ✿✿。

  黄仁勋称◈ღ✿✿,NVL72的优势就在于每块GPU都可以完成上述任务◈ღ✿✿,NVLink可将所有GPU变成单个大型GPU◈ღ✿✿。

  升级的GB300 NVL72设计◈ღ✿✿,提高了能效和可服务性◈ღ✿✿,通过降低成本和能耗来推进AI推理民主化◈ღ✿✿,相比Hopper将AI工厂的收入机会提高50倍◈ღ✿✿。

  与Hopper相比◈ღ✿✿,HGX B300 NVL16在大语言模型上的推理速度加快至11倍◈ღ✿✿,计算能力增加到7倍◈ღ✿✿,内存增至4倍◈ღ✿✿。

  英伟达将NVIDIA DGX SuperPOD称作“全球最先进的企业级AI基础设施”◈ღ✿✿,旨在为实时推理和训练提供强大的计算能力◈ღ✿✿。

  DGX SuperPOD提供FP4精度和更快的AI推理速度◈ღ✿✿,可扩展到数万块Grace Blackwell Ultra超级芯片◈ღ✿✿,预计将在今年晚些时候从合作伙伴处可获得◈ღ✿✿。

  与采用Hopper系统和38TB快内存构建的AI工厂相比◈ღ✿✿,DGX GB300系统可提供70倍的AI性能◈ღ✿✿。

  与上一代Hopper相比◈ღ✿✿,DGX B300系统可提供11倍的AI推理性能和4倍的AI训练加速◈ღ✿✿。

  企业正竞相建设可扩展的AI工厂◈ღ✿✿,以满足AI推理和推理时扩展的处理需求◈ღ✿✿。英伟达推出开源的AI推理软件NVIDIA Dynamo◈ღ✿✿,其本质上就是AI工厂的操作系统◈ღ✿✿。

  Dynamo(发电机)的命名来源是◈ღ✿✿,发电机是开启上一次工业革命的第一台工具◈ღ✿✿,Dynamo也是现在一切开始的地方◈ღ✿✿。

  NVIDIA Dynamo是一个用于大规模服务推理模型的AI推理软件◈ღ✿✿,旨在为部署推理模型的AI工厂实现token收入最大化◈ღ✿✿。

  它能够跨数千个GPU编排和加速推理通信◈ღ✿✿,并使用分区分服务来分离不同GPU上大语言模型的处理和生成阶段◈ღ✿✿,使每个阶段可根据特定需求独立优化◈ღ✿✿,并确保GPU资源的最大利用率◈ღ✿✿。

  为了提高推理性能◈ღ✿✿,英伟达采用Blackwell NVL8设计◈ღ✿✿,之后又引入新的精度◈ღ✿✿,用更少的资源量化模型快播太平洋定制版◈ღ✿✿。

  未来每个数据中心都会受到电力限制◈ღ✿✿,数据中心的收入与之挂钩◈ღ✿✿,因此英伟达用NVL72进行扩展◈ღ✿✿,打造更节能的数据中心◈ღ✿✿。

  在GPU数量相同的情况下◈ღ✿✿,Dynamo可将Hopper平台上运行Llama模型的AI工厂性能和收益翻倍◈ღ✿✿。在由GB200 NVL72机架组成的大型集群上运行DeepSeek-R1模型时◈ღ✿✿,Dynamo的智能推理优化也可将每个GPU生成的token数量提高30倍以上◈ღ✿✿。

  基于Dynamo◈ღ✿✿,相比Hopper必发·bifa◈ღ✿✿,Blackwell性能提升25倍◈ღ✿✿,可以基于均匀可互换的可编程架构◈ღ✿✿。在推理模型中◈ღ✿✿,Blackwell性能是Hopper的40倍◈ღ✿✿。

  黄仁勋说◈ღ✿✿:“这就是我以前为什么说◈ღ✿✿,当Blackwell批量发货时◈ღ✿✿,你不要把Hopper送人◈ღ✿✿。”他调侃自己是“首席收入官”◈ღ✿✿。

  “买得越多◈ღ✿✿,省得越多◈ღ✿✿,赚得越多◈ღ✿✿。”黄仁勋的经典带货名言又来了◈ღ✿✿,这次他特别强调AI工厂收入的提高◈ღ✿✿,100MW AI工厂会包含45000颗GPU Die◈ღ✿✿、1400个机架◈ღ✿✿、每秒生成3亿个token◈ღ✿✿。

  为了提升推理性能◈ღ✿✿,NVIDIA Dynamo加入了一些功能◈ღ✿✿,使其能够提高吞吐量的同时降低成本◈ღ✿✿。

  它可以根据不断变化的请求数量和类型◈ღ✿✿,动态添加◈ღ✿✿、移除◈ღ✿✿、重新分配GPU◈ღ✿✿,并精确定位大型集群中的特定GPU◈ღ✿✿,从而更大限度地减少响应计算和路由查询◈ღ✿✿。

  它还可以将推理数据卸载到成本更低的显存和存储设备上◈ღ✿✿,并在需要时快速检索这些数据◈ღ✿✿,最大程度地降低推理成本◈ღ✿✿。

  Dynamo可将推理系统在处理过往请求时于显存中保存的知识(称为KV缓存)◈ღ✿✿,映射到潜在的数千块GPU中必发·bifa◈ღ✿✿。然后◈ღ✿✿,它会将新的推理请求路由到与所需信息匹配度最高的GPU上◈ღ✿✿,从而避免昂贵的重新计算◈ღ✿✿,并释放GPU来响应新的请求◈ღ✿✿。

  该软件完全开源并支持PyTorch◈ღ✿✿、SGLang◈ღ✿✿、NVIDIA TensorRT-LLM和vLLM◈ღ✿✿,使企业◈ღ✿✿、初创公司和研究人员能够开发和优化在分离推理时部署AI模型的方法◈ღ✿✿。

  英伟达正为全球企业提供构建AI智能体的核心模块◈ღ✿✿,推动企业级AI技术的普及与创新◈ღ✿✿。英伟达的Llama Nemotron可以在任何地方运行◈ღ✿✿,包括DGX Spark◈ღ✿✿、DGX Station以及OEM制造的服务器上◈ღ✿✿,甚至可以将其集成到任何AI智能体框架中◈ღ✿✿。

  AT&T正在开发公司专用的的AI智能体系统◈ღ✿✿。未来◈ღ✿✿,英伟达不仅会雇佣ASIC设计师◈ღ✿✿,还会与Cadence合作◈ღ✿✿,引入数字ASIC设计师来优化芯片设计◈ღ✿✿。Cadence正在构建他们的AI智能体框架◈ღ✿✿,英伟达的模型◈ღ✿✿、NIM和库已经深度集成到他们的技术中◈ღ✿✿。Capital One◈ღ✿✿、德勤◈ღ✿✿、纳斯达克◈ღ✿✿、SAP◈ღ✿✿、ServiceNow◈ღ✿✿、Accenture◈ღ✿✿、Amdocs等企业也将英伟达技术深度融入AI框架中◈ღ✿✿。

  黄仁勋还宣布存储龙头们构建企业级AI数据平台◈ღ✿✿。原本企业的存储系统是基于召回的◈ღ✿✿,而如今的系统应该基于语义◈ღ✿✿。基于语义的存储系统时刻在嵌入原始数据◈ღ✿✿,用户使用数据时只需使用自然语言进行交互◈ღ✿✿,便能找到需要的数据◈ღ✿✿。

  NVIDIA DGX Spark和DGX Station是英伟达打造的个人AI计算机◈ღ✿✿,让开发者能在桌面上对大模型进行原型必发·bifa◈ღ✿✿、微调◈ღ✿✿、推理快播太平洋定制版◈ღ✿✿。

  DGX Spark可以被用来微调或推理最新的AI推理模型◈ღ✿✿,比如英伟达今天新发布的Cosmos推理世界基础模型和GR00T N1机器人基础模型◈ღ✿✿。该AI超算的预订今日起开放◈ღ✿✿。

  DGX Station是一款基于Blackwell Ultra的新型高性能桌面级超级计算机◈ღ✿✿,为桌面带来了数据中心级别的性能◈ღ✿✿,用于AI开发◈ღ✿✿,今年晚些时候可从英伟达制造合作伙伴处获得◈ღ✿✿。

  Blackwell系统构建于英伟达强大的开发工具生态系统◈ღ✿✿、CUDA-X库◈ღ✿✿、600多万开发者和4000多个应用的基础上快播太平洋定制版◈ღ✿✿,可在数千块GPU上扩展性能◈ღ✿✿,非常适合运行新的Llama Nemotron推理模型◈ღ✿✿、AI-Q蓝图◈ღ✿✿、AI企业级软件平台◈ღ✿✿。

  黄仁勋说CUDA-X是GTC的全部意义所在◈ღ✿✿。他展示了一张自己最喜欢的幻灯片◈ღ✿✿,包含了英伟达构建的关于物理◈ღ✿✿、生物◈ღ✿✿、医学的AI框架◈ღ✿✿,包括加速计算库cuPyNumeric◈ღ✿✿、计算光刻库cuLitho◈ღ✿✿,软件平台cuOPT◈ღ✿✿、医学成像库Monaiearth-2◈ღ✿✿、加速量子计算的cuQuantum◈ღ✿✿、稀疏直接求解器库cuDSS◈ღ✿✿、开发者框架WARP等◈ღ✿✿。

  据他分享◈ღ✿✿,英伟达正在全面生产Blackwell◈ღ✿✿,有十几家企业已生产和部署Blackwell系统◈ღ✿✿。

  2025年◈ღ✿✿,英伟达已经向美国前四大云服务提供商售出超过360万块Blackwell GPU◈ღ✿✿,相比去年销售Hopper的数量高出3倍◈ღ✿✿,去年Hopper销售量为130万块◈ღ✿✿。

  3年前的英伟达GPU尚未将NVLink独立出来◈ღ✿✿,导致单一系统体积和重量惊人◈ღ✿✿,这代HGX系统8卡版本重达70磅◈ღ✿✿,黄仁勋称自己根本不可能将其举起展示◈ღ✿✿,而机架整体需要搭载4个8卡版本◈ღ✿✿。这极大影响了数据中心的能效和可扩展性◈ღ✿✿。

  于是◈ღ✿✿,英伟达决定将NVLink与GPU分离◈ღ✿✿,以单独的NVLink组件实现GPU间的全速通信◈ღ✿✿。

  原本的系统零件约有6万个◈ღ✿✿,而升级后的系统零件达到了60万个◈ღ✿✿,相当于20辆汽车的零件数量◈ღ✿✿。这一个机柜的算力就达到了1EFLOPS◈ღ✿✿,由5000根线英里◈ღ✿✿。

  英伟达大费周章将二者分离的原因◈ღ✿✿,是为了实现极致的垂直扩展(Scale-Up)◈ღ✿✿,也就是扩展单一机柜的算力◈ღ✿✿。在目前的制造工艺限制下◈ღ✿✿,根本不可能造出单体包含130万亿颗晶体管的系统◈ღ✿✿。

  黄仁勋认为◈ღ✿✿,推理远没有想象中的那么简单◈ღ✿✿,需要做好成本与性能的完美平衡◈ღ✿✿,这一平衡直接影响了服务质量和盈利能力◈ღ✿✿。

  为了阐释推理中的诸多考量因素快播太平洋定制版◈ღ✿✿,黄仁勋使用了一个坐标系◈ღ✿✿。x轴代表每秒生成的token数量◈ღ✿✿,Y轴代表系统的总吞吐量◈ღ✿✿。

  现场◈ღ✿✿,黄仁勋演示了DeepSeek-R1和Llama 3.3 70B的对比◈ღ✿✿。Llama这类非推理类模型虽然token用量更少◈ღ✿✿,但回答质量较低◈ღ✿✿,而耗费20倍token◈ღ✿✿、150倍算力的推理模型◈ღ✿✿,能对复杂问题给出高质量的准确回答◈ღ✿✿。

  但如果生成的速度不理想◈ღ✿✿,也会影响用户使用服务的意愿◈ღ✿✿,因此每秒生成的token数量需要尽可能高◈ღ✿✿。数据中心还要尽可能地为更多用户提供服务◈ღ✿✿,这样才能最大化收益◈ღ✿✿。

  英伟达今天还发布了RTX Pro Blackwell系列工作站和服务器GPU◈ღ✿✿,提供加速计算◈ღ✿✿、AI推理◈ღ✿✿、光线追踪和神经网络渲染技术◈ღ✿✿,使其数据中心GPU从桌面到移动工作站提供动力◈ღ✿✿。

  工作站和服务器GPU内存高达96GB快播太平洋定制版◈ღ✿✿,笔记本电脑GPU内存达到24GB◈ღ✿✿,使应用程序可更快运行◈ღ✿✿,并使用更大更复杂的数据集◈ღ✿✿。

  RTX PRO 6000数据中心和桌面GPU可将单GPU安全分区成最多4个实例◈ღ✿✿,5000系列桌面GPU可将单GPU安全分区成两个实例◈ღ✿✿。

  1◈ღ✿✿、数据中心GPU◈ღ✿✿:RTX PRO 6000 Blackwell服务器版◈ღ✿✿,采用被动冷却热设计◈ღ✿✿,每台服务器最多可配置8块GPU◈ღ✿✿,可与NVIDIA vGPU软件结合为虚拟化环境中的AI工作负载提供动力◈ღ✿✿,预计将在今年下半年推出◈ღ✿✿。

  新笔记本电脑GPU还支持最新NVIDIA Blackwell Max-Q技术◈ღ✿✿,可智能且持续地优化笔记本电脑性能和能效◈ღ✿✿。

  随着AI工厂发展到前所未有的规模◈ღ✿✿,AI网络基础设施也必须升级◈ღ✿✿。英伟达将其光交换机称作“世界上最先进的网络解决方案”◈ღ✿✿。

  英伟达今日发布全新共封装(CPO)的NVIDIA Spectrum-X和Quantum-X硅光网络交换机◈ღ✿✿,可将AI工厂扩展到数百万个GPU◈ღ✿✿。

  与传统方法相比◈ღ✿✿,英伟达光交换机集成了光学创新◈ღ✿✿,将激光器减少至1/4◈ღ✿✿,每端口1.6Tb/s◈ღ✿✿,可提供3.5倍的能效◈ღ✿✿、63倍的信号完整性◈ღ✿✿、10倍的大规模网络弹性◈ღ✿✿、1.3倍快的部署时间◈ღ✿✿。

  黄仁勋谈道◈ღ✿✿,英伟达希望将以太网的水平提升至InfiniBand级别◈ღ✿✿,这意味着更极致的拥塞控制◈ღ✿✿、延迟控制◈ღ✿✿。

  相较传统以太网◈ღ✿✿,Spectrum-X以太网网络平台可为多租户◈ღ✿✿、超大规模AI工厂提供1.6倍的带宽密度◈ღ✿✿。

  Quantum-X光交换机预计将在今年晚些时候上市◈ღ✿✿,提供144个基于200Gb/s SerDes的800Gb/s InfiniBand端口◈ღ✿✿,并采用液冷设计对板载硅光器件进行高效散热◈ღ✿✿。其AI计算网的速度是上一代产品的2倍◈ღ✿✿,扩展性是上一代产品的5倍◈ღ✿✿。

  该系统搭载Quantum-X800 ASIC芯片◈ღ✿✿,并配备6个光学子组件和18个硅光芯片引擎◈ღ✿✿。

  324个光学连接器串联起这一系统◈ღ✿✿,总计有36个激光输入和288个数据连接◈ღ✿✿,内置光纤管理功能◈ღ✿✿。

  每个硅光芯片引擎拥有200GB/s的微光调制器◈ღ✿✿,总吞吐量为1.6Tb/s◈ღ✿✿,实现3.5倍节能◈ღ✿✿。

  台积电的硅光子解决方案结合了其在先进芯片制造和台积电SoIC 3D芯片堆叠方面的优势◈ღ✿✿,帮助英伟达释放AI国产扩展到百万GPU甚至更多◈ღ✿✿。

  黄仁勋做了一个换算◈ღ✿✿,这一系统的应用能在单个数据中心中节省数十个Megawatts的能源◈ღ✿✿,而60Megawatts就相当于10台Rubin Ultra机架的能耗◈ღ✿✿。

  物理AI正在改变价值50万亿美元的行业◈ღ✿✿,在英伟达三台计算机上构建数十亿个机器人◈ღ✿✿。英伟达将机器人视作下一个数万亿美元产业◈ღ✿✿。

  黄仁勋宣布推出开源◈ღ✿✿、预训练必发·bifa◈ღ✿✿、可定制的Isaac GR00T N1人形机器人基础模型◈ღ✿✿,旨在加快人形机器人的开发◈ღ✿✿,已提前获得该模型的公司包括波士顿动力◈ღ✿✿、Agility Robotics◈ღ✿✿、Mentee Robotics◈ღ✿✿、Neura Robotics等◈ღ✿✿。

  黄仁勋谈道◈ღ✿✿,物理AI和机器人技术发展得很快◈ღ✿✿,但也面临着和大模型同样的挑战◈ღ✿✿,就是如何获得数据◈ღ✿✿、如何扩展让机器人更聪明◈ღ✿✿。

  一是扩展AI的生成能力和理解物理世界的生成模型◈ღ✿✿,也就是Cosmos◈ღ✿✿。Cosmos可以生成无限数量的环境数据◈ღ✿✿。

  二是◈ღ✿✿,机器人的可验证回报是物理定律◈ღ✿✿,因此需要设计用于模拟真实世界中的物理现象的物理引擎◈ღ✿✿。这一物理引擎需要被设计用于训练触觉反馈◈ღ✿✿、精细运动技能和执行器控制◈ღ✿✿。也就是上面迪士尼机器人Blue已经搭载的物理引擎◈ღ✿✿。

  在机器人开发中◈ღ✿✿,英伟达Omniverse可以生成大量不同的合成数据◈ღ✿✿,开发人员根据不同领域聚合现实世界的传感器和演示数据◈ღ✿✿,将原始捕获的数据乘以大量照片级的多样化数据◈ღ✿✿,然后使用Isaac Lab增强数据集对机器人策略进行后训练◈ღ✿✿,让其通过模型放行为学习新技能◈ღ✿✿。

  实地测试中◈ღ✿✿,开发人员使用Omniverse动态模拟真实环境进行测试◈ღ✿✿。现实世界的操作需要多个机器人协同工作◈ღ✿✿,Mega和Omniverse允许开发人员大规模测试◈ღ✿✿。

  要将加速计算带到真实世界的每一个场景之中◈ღ✿✿,不仅需要芯片和CUDA这样的库◈ღ✿✿,还需要为每个场景建立对应的软件栈——如企业◈ღ✿✿、工厂◈ღ✿✿、机器人◈ღ✿✿、GPU云等应用场景◈ღ✿✿。

  英伟达认为AI将对电信行业产生深远影响◈ღ✿✿,6G网络进入倒计时◈ღ✿✿,下一个时代将是AI原生无线网络◈ღ✿✿,包括用于无线电信号处理的AI/ML◈ღ✿✿、神经网络模型◈ღ✿✿。这将释放频谱效率的巨大收益◈ღ✿✿。

  现场◈ღ✿✿,黄仁勋宣布英伟达与Cisco◈ღ✿✿、T-Mobile等几家志同道合的电信龙头合作◈ღ✿✿,建立由AI驱动的电信系统◈ღ✿✿,为6G开发AI原生无线网络◈ღ✿✿,以NVIDIA AI Aerial平台为基础◈ღ✿✿,确保下一代无线网络将是AI原生的◈ღ✿✿。

  其目标是研究和开发一个AI原生◈ღ✿✿、高光谱效率◈ღ✿✿、开放和差异化的6G无线平台◈ღ✿✿,在频谱效率◈ღ✿✿、电源效率◈ღ✿✿、运营效率◈ღ✿✿、安全性◈ღ✿✿、成本效益◈ღ✿✿、创收机会方面设置新基准◈ღ✿✿,可用于全球部署◈ღ✿✿。

  他回忆道◈ღ✿✿,当初AlexNet的出现◈ღ✿✿,让英伟达决定开始研究自动驾驶技术◈ღ✿✿,一转眼10年已逝◈ღ✿✿,如今英伟达的产品几乎出现在所有自动驾驶汽车之中◈ღ✿✿。

  黄仁勋宣布◈ღ✿✿,通用汽车将会成为英伟达最新的合作伙伴◈ღ✿✿,在生产◈ღ✿✿、设计◈ღ✿✿、模拟和车机中应用英伟达的AI技术◈ღ✿✿。英伟达和通用汽车将协力为工厂和汽车构建GM AI◈ღ✿✿。

  对此◈ღ✿✿,英伟达发布综合全栈自动驾驶安全系统NVIDIA Halos◈ღ✿✿。英伟达自动驾驶技术的全栈代码将交由第三方进行安全检验◈ღ✿✿,确保这些技术能充分反映现实世界的多元性◈ღ✿✿。

  英伟达的自动驾驶模型采用蒸馏技术开发◈ღ✿✿、表现较好但速度较慢的模型会逐渐将知识传递给表现尚未完善◈ღ✿✿、但速度较快的模型◈ღ✿✿。此外◈ღ✿✿,有大量数据被转换成了3D场景◈ღ✿✿,可用于虚拟环境中的模拟◈ღ✿✿。

  如今◈ღ✿✿,在英伟达Omniverse和Cosmos中◈ღ✿✿,自动驾驶模型能从变化中学习并自我改进◈ღ✿✿。Cosmos能根据图像建立现实世界的4D模型(包含图像分割)◈ღ✿✿,并通过计算机模拟同一场景的不同状况◈ღ✿✿,比如雨天◈ღ✿✿、雪天◈ღ✿✿、夜晚等等◈ღ✿✿,这将进一步提升自动驾驶模型的能力◈ღ✿✿。

  例如◈ღ✿✿,在下方案例中◈ღ✿✿,用户输入了一则指令◈ღ✿✿,要求模型生成冬季城市环境中◈ღ✿✿,一辆汽车打开雨刮器◈ღ✿✿,左转时的画面◈ღ✿✿。在经过推理后快播太平洋定制版◈ღ✿✿,模型生成的画面极为逼真◈ღ✿✿,能作为高质量数据加到自动驾驶模型训练过程中◈ღ✿✿。

  黄仁勋回顾说◈ღ✿✿,在开始研究GeForce 25年后◈ღ✿✿,GeForce已经在全球范围内售罄◈ღ✿✿。GeForce将支持AI的CUDA带向世界◈ღ✿✿,现在AI彻底改变了计算机图形学◈ღ✿✿。

  AI在10年间已经取得了巨大进步◈ღ✿✿。2023年的重大突破是AI智能体(AI Agents)◈ღ✿✿,AI智能体可以对如何回答或者解决问题进行推理◈ღ✿✿、在任务中进行规划◈ღ✿✿、理解多模态信息◈ღ✿✿、从网站中的视频中学习等◈ღ✿✿,然后通过这些学到的学习来执行任务◈ღ✿✿。

  下一波浪潮是物理AI◈ღ✿✿,可以理解摩擦◈ღ✿✿、惯性和因果关系◈ღ✿✿,使机器人技术成为可能◈ღ✿✿,开辟出新的市场机会◈ღ✿✿。

  关于AI智能体和物理AI有几个核心问题◈ღ✿✿:一是如何解决数据问题◈ღ✿✿,AI需要数据驱动◈ღ✿✿,需要数据来学习必发·bifa◈ღ✿✿、获得知识◈ღ✿✿;二是如何解决训练问题◈ღ✿✿,AI需要以超人的速度◈ღ✿✿、以人类无法达到的规模进行学习◈ღ✿✿;三是如何扩展实现Scaling Law◈ღ✿✿,如何找到一种算法让AI更聪明◈ღ✿✿。

  首先从AI可以做什么开始◈ღ✿✿,AI可以逐步分解问题必发·bifa◈ღ✿✿、以不同方式解决同样问题◈ღ✿✿、为答案进行一致性检查等◈ღ✿✿。

  当AI基于思维链进行一步步推理◈ღ✿✿、进行不同的路径规划时◈ღ✿✿,其不是生成一个token或一个单词◈ღ✿✿,而是生成一个表示推理步骤的单词序列◈ღ✿✿,因此生成的token数量会更多◈ღ✿✿,甚至增加100倍以上◈ღ✿✿。

  三大AI Scaling Laws(预训练◈ღ✿✿、后训练◈ღ✿✿、测试时)对计算提出指数级需求◈ღ✿✿。随着计算成本增加◈ღ✿✿,需要全栈创新来降低成本/tokens◈ღ✿✿。

  黄仁勋解释说◈ღ✿✿,模型更复杂◈ღ✿✿,生成的token多10倍◈ღ✿✿,为了保证模型的响应性和交互性◈ღ✿✿,因此计算速度必须提高10倍◈ღ✿✿。

  其次是关于如何教AI◈ღ✿✿。教会AI如何推理的两个基本问题是数据从哪里来◈ღ✿✿、如何不受限制学习◈ღ✿✿,答案就是强化学习◈ღ✿✿。

  人类历史上已经明确了二次方程的解法必发·bifa◈ღ✿✿、数独◈ღ✿✿、勾股定理等诸多知识◈ღ✿✿,基于数百个这样的案例可以生成数百万个例子让AI去解决◈ღ✿✿,然后使用强化学习来奖励◈ღ✿✿。这个过程中◈ღ✿✿,AI需要处理数百万个不同问题◈ღ✿✿、进行数百次尝试◈ღ✿✿,而每一次尝试都会生成数万个token◈ღ✿✿,这些都加到一起◈ღ✿✿,就会达到数万亿个token◈ღ✿✿。

  AI变得更聪明◈ღ✿✿,使得训练这些模型所需的计算量大幅增长◈ღ✿✿。黄仁勋预计2030年末◈ღ✿✿,数据中心建设支出将达到1万亿美元◈ღ✿✿。

  这背后的第一个动态变化是◈ღ✿✿,通用计算已经用完◈ღ✿✿,业界需要新的计算方式◈ღ✿✿,世界将经历手动编码软件到机器学习软件的平台转变◈ღ✿✿。

  第二个变化是◈ღ✿✿,人们越来越认识到软件的未来需要大量投资◈ღ✿✿。这是因为计算机已经成为token的生成器◈ღ✿✿,基于生成式的计算构建AI工厂◈ღ✿✿,然后在AI工厂里生成tokens并重组为音乐◈ღ✿✿、文字◈ღ✿✿、视频◈ღ✿✿、化学品等各种类型的信息◈ღ✿✿。

  作为AI行业风向标◈ღ✿✿,英伟达GTC 2025大会将举办超过1000场会议◈ღ✿✿、汇聚2000名演讲嘉宾和近400家参展商◈ღ✿✿,涵盖大语言模型◈ღ✿✿、物理AI◈ღ✿✿、云计算◈ღ✿✿、科学发现◈ღ✿✿、气候研究◈ღ✿✿、医疗健康◈ღ✿✿、网络安全◈ღ✿✿、人形机器人◈ღ✿✿、自动驾驶等主题◈ღ✿✿,并将举办首届量子日◈ღ✿✿,将汇集全球量子计算界和业内重要人物◈ღ✿✿,与黄仁勋共同探讨量子计算的现状和未来◈ღ✿✿。

  现场参会者还能体验各种精心策划的活动快播太平洋定制版◈ღ✿✿,包括数十场覆盖各个行业的演示◈ღ✿✿、实战培训◈ღ✿✿、自动驾驶汽车展览和试驾◈ღ✿✿,还有集结20家当地供应商和手艺人制作的小吃和商品的GTC夜市◈ღ✿✿,盲猜一波酷爱逛夜市的黄仁勋会惊喜现身◈ღ✿✿。必发888◈ღ✿✿,必发bf88官网◈ღ✿✿,bifaVIP认证◈ღ✿✿,bifa88官网◈ღ✿✿!必发·bifa必发88bifa◈ღ✿✿,bifa·必发◈ღ✿✿,

640 (9)






中国·必发(888·VIP认证)官方网站 - App Store|http://www.gbcellars.com