2024-06-04,华泰证券发布一篇电子行业的研究报告,报告指出,从低成本算力到高速互联的AI全面突围。
报告具体内容如下:
英伟达Computex直击:AI计算与应用新纪元,由低成本算力开启 24年6月Computex展会在中国台湾举行。英伟达CEO黄仁勋于6月2日发表主题演讲,阐述英伟达与AI发展密不可分。自12年开始AI发展出现突破,CUDA和Alexnet奠定了英伟达为AI提供大算力及软件生态的基础。而后19年收购Mellanox至今,发展NVLink和InfiniBand等传输互联技术,奠定了英伟达在解决AI算力和传输瓶颈一枝独秀的地位。而17年Transformers出现后至22年ChatGPT诞生所掀起的GenAI浪潮,其发展跟英伟达的GPU也是密不可分。演讲有如下启示:算力成本的显著下降,使得处理()成为可能,我们认为,从低成本算力到高速互联的AI革命已全面开启。 从CUDA生态拓展和NIM看AI商业应用探索 英伟达的CUDA生态圈为行业领先。至今,NVIDIA已经拥有超过350个CUDA应用库。从中我们可一窥面向企业的大模型应用。例如,台积电正在实施cuLITHO以加速芯片设计;还有基于AI的最佳路径规划算法的cuOPT、模拟量子计算机的cuQUANTUM;数据处理加速器cuDF等。此外,英伟达还宣布推出一项AI模型推理服务——NVIDIANIM。全球2800万开发者可以通过NIM将AI模型部署在云、数据中心或工作站上,可将构建copilots、ChatGPT聊天机器人等生成式AI应用的时间从数周缩短至几分钟。 NVLink与InfiniBand互为臂助,共建英伟达超级AI工厂 当前AI巨头纷纷自研或升级互联技术以期突破算力飞涨带来的硬件限制。 英伟达“快人一步”,其以自研NVLink为主、InfiniBand为辅构建AI工厂互联版图,实现由1枚GPU到32,000枚GPU组成超算中心“AI工厂”的完整互联。该AI工厂架构多由InfiniBand负责服务器间互联,芯片互联采用NVLink5.0,单枚英伟达BlackwellGPU支持18个NVLink5.0100GB/s连接,总带宽可达1.8TB/s,是PCIe5.0带宽的14倍,超AMD自研InfinityFabric4.0总带宽约一倍。Blackwell的下代RubinGPU架构计划于26年推出,采用NVLink6.0,公司预计速率达3600GB/s,为NVLink5.0两倍。 英伟达加入Ethernet战团,Ethernet、NVLink及InfiniBand各司其长 黄仁勋在本次会上指出因Ethernet已在部分数据中心先入为主,InfiniBand难以全面铺开。Ethernet、NVLink及InfiniBand在成本和性能上各有优劣,InfiniBand及因完全私域化高速演进的NVLink在延迟和数据丢包方面表现突出,但开放的Ethernet性价比更优,未来互联三者将共存;类比铜光互联之争,铜缆因无需光电转换等成本相较低廉,但光缆在性能尤其远距离传输表现更为优异,因此未来二者将协同发展。Ethernet方面,英伟达推出SpectrumEthernet,相比传统Ethernet性能提高1.6倍;而谷歌、AMD等巨头组成的UEC联盟发展UltraEthernet,与英伟达分化为两大阵营竞争。 AI机器人领域持续发力,英伟达引领物理智能浪潮 黄仁勋在会上强调了机器人技术和AI在未来发展的重要性,下一波AI是物理AI,未来全球工业数字化转型市场规模有望达50万亿美元,包括自动化运营和数字孪生模型以降本增效。()电子、西门子、和谷歌旗下公司Intrinsic等全球十多家机器人行业领导者正在将NVIDIAIsaac加速库、基于物理的仿真和人工智能模型集成到其软件框架和机器人模型中,提升工厂、仓库和配送中心的效率和安全,并充当重复或超精确任务的智能助手。 风险提示:AI技术落地和推进不及预期,行业竞争激烈,中美贸易摩擦等;相关信息数据来自于公开客观信息,不代表对相关公司的研究覆盖和推荐。
声明:本文引用第三方机构发布报告信息源,并不保证数据的实时性、准确性和完整性,数据仅供参考,据此交易,风险自担。
转载请注明来自石家庄天鲲化工设备有限公司 ,本文标题:《券商观点|英伟达Computex演讲启示:从低成本算力到高速互联的AI全面突围》
还没有评论,来说两句吧...