首页 行业研究 正文

电子行业点评:英伟达引领“AI摩尔定律” 直击AI的IPHONE时刻

扫码手机浏览

事件:英伟达3月22日宣布推出3款全新推理 GPU,发布了 NVIDIA cuLitho计算光刻库、AI 超级计算服务 DGXCloud,加速企业创建大模型和生成式AI的云服务 NVIDIA AI Foundations等。英伟达 CE...

机构:中航证券有限公司

作者:刘牧野

事件:
英伟达3月22日宣布推出3款全新推理 GPU,发布了 NVIDIA cuLitho计算光刻库、AI 超级计算服务 DGXCloud,加速企业创建大模型和生成式AI的云服务 NVIDIA AI Foundations等。英伟达 CEO黄仁勋称,“崭新的计算平台已经诞生,AI的iPhone时刻已经到来”(We are at the iPhone moment of AI)DGX H100 AI 超级计算机全面投入生产,简化 AI 训练英伟达加速计算始于DGX(AI超级计算机),这是大型语言模型实现突破背后的引擎。英伟达H100 GPU基于公司最新Hopper架构,在大型语言模型上比上一代 A100 提供了快9倍的 AI 训练和快 30 倍的 AI推理。本次发布的 DGX H100 拥有 8 个 H100 GPU 模组,在 FP8 精度下可提供32PetaFLOPS 的算力,并提供完整的英伟达 AI软件堆栈,助力简化AI开发。黄仁勋宣布,NVIDIA DGX H100 AI超级计算机已全面投入生产,很快将面向全球企业。微软宣布 Azure将向其 H100 AI超级计算机开放私人预览版。
GPU 高效互连技术为英伟达提供底层技术支撑。此次发布的计算平台是在2022年Hopper架构的基础上,进行升级和拓展。DGXH100有8个H100协同工作,通过 NVLINK和 NVSwitch彼此相连,组成了一个巨型GPU,实现全面无阻塞通信。借助NVSwitch,NVLink连接可在节点间扩展,以创建无缝、高带宽的多节点GPU集群,从而有效地形成数据中心大小的 GPU,快速完成大型 AI 作业。
我们认为,在ChatGPT掀起的AIGC热潮下,大规模AI模型训练和推理量激增,催生对低延迟、高速率传输交换的光网络的迫切需求。当前英伟达
可以通过 NVLink-C2C 技术实现高速、低延迟、芯片到芯片的互连,NVSwitch 结构在本质上仍然是一种对 NUMA 直接放大的方法,仍然受到线缆布局的限制。光电共封(CPO)将进一步降低数据传输延迟和减少信号损失,是英特尔、英伟达等头部算力公司重点关注的技术方向。
针对垂直领域推出芯片及付费服务
针对不同的应用领域,英伟达发布了用于AI视频生成的通用GPU L4;用于图像生成的L40;针对 ChatGPT 等大型语言模型的大规模部署的H100 NVL;为推荐系统和大型语言模型的 AI 数据库所设计的 Grace Hopper 超级芯片。
在计算服务端,英伟达推出了一项名为 DGX Cloud 的 AI 超级计算服务,与微软Azure、谷歌·OCP、Oracle OCI合作,通过一个Web 浏览器就能访问,以便企业为生成式AI和其他开创性应用训练先进的模型。DGX Cloud 实例的起价为每个实例每月 36999 美元。此外,英伟达还推出了三种模型构建服务,分别为文本生成模型构建服务、视觉语言模型构建服务、生命科学模型构建服务。
我们在之前的报告指出,通用性递减,专用性增强,为AI芯片的主要发展方向,英伟达此次发布偏专用领域的推理平台,印证了我们的观点。2021年中国以GPU为主实现数据中心计算加速,GPU在算力芯片的市场占有率接近 90%。ASIC,FPGA,NPU等非GPU芯片市场占有率超过 10%。
国际科技网络巨头公司谷歌、脸书,亚马逊等等在AI芯片领域从云端训练到终端产品应用,在开源框架赋能产业行业上有一定的领先优势。受美国科技制裁的影响,部分高性能GPU对华禁售,如英伟达 A100和 H100,AMD的MI250,国内人工智能产业的发展需要国内GPU的共同成长,国产替代势在必行,重点关注GPU,ASIC,FPGA芯片进展,以及有望突破芯片制程限制的·Chiplet技术。
工业元宇宙加速落地,构建Omniverse 生态Omniverse 是英伟达打造的工业数字化平台,旨在搭建数字化和物理世界之间的桥梁,让各个行业在投入实际生产之前先以数字化方式设计、建造、运营和优化物理产品和工厂。
英伟达宣布了专门为运行Omniverse 而设计的硬件设备。第一个是由英伟达 Ada RTX GPU 和英特尔最新 CPU 驱动的新一代NVIDIA RTX 工作站,能使专业人士能随时随地访问Omniverse和工业元宇宙工作负载,将从三月份开始在 Boxx、戴尔、惠普和联想上市;第二个是针对Omniverse 优化的新型Nvidia ovx服务器,将由戴尔、惠普、Quantn、技嘉、联想和SuperMicro 提供,企业可以利用 OVX 性能在可视化、虚拟工作站和数据中心处理工作流程等方面进行协作。
英伟达还推出了 Omniverse Cloud 的云服务,支持即时、安全地访问托管的Omniverse Cloud API。英伟达正在与微软合作,将Omniverse 云服务引入全球各个行业。同时,英伟达正在将Omniverse 云连接到Microsoft365生产力套件,包括Teams,OneDrive,SharePoint和 Azure IoT数字孪生服务。
我们认为,随着 AI 训练成本的降低,“AI 平民化”并且赋能前行百业的时代即将到来。据 ARK 预测,硬件和软件的融合可以推动人工智能训练成本在2030年前均以每年70%的速度下降。以GPT-3模型为例,2020年,单次训练成本高达 460万美金,需要 1万块 GPU耗费 13天。参考计算机从大型化、工程化应用,到台式笔记本,再到智能手机的发展路径,随着人工智能在编程、办公等工业应用逐渐兴起,以GPT4为代表的多模态AIGC模型将进一步挖掘消费端的应用市场。英伟达Omniverse服务降低了AI模型的成本,使移动端AI应用成为可能,将在更多的垂直领域引发产业革命。
推荐关注
随着算法迭代、算力增强和数据增长,国内AI大模型将持续追赶国际头部公司,AI产业链的估值将保持抬升的态势,建议持续跟踪本轮科技浪潮。
相关产业链投资机会:
算法环节:拓尔思、科大讯飞、大华股份、海康威视;算力环节:寒武纪、海光信息、复旦微电、紫光国微、拓维信息、中科曙光、商汤(港股)等;CPO、光传输环节:源杰科技、中际旭创、光迅科技、新易盛、光库科技、声光电科等;Chiplet:通富微电、长电科技、甬矽电子、芯原股份、兴森科技等;AI服务器电源:杰华特、希获微等。
风险提示:AI算法、模型存较高不确定性,AI技术发展不及预期;ChatGPT 用户付费意愿弱,客户需求不及预期;针对 AI 的监管政策收紧

阅读全文

本文转载自互联网,如有侵权,联系删除

相关推荐

推荐文章