Sora横空出世,对AIGC意味着什么?
方正证券认为,英伟达以及AMD等核心公司的业务进展近况进一步印证了现阶段板块发展两个核心要素:AI方向的持续产品迭代、庞大的算力需求:
首先从英伟达来看:H200 出货在即,B100 在路上。2023年11月13日,英伟达发布首款搭载HBM3e 的GPU H200,借助HBM3e,H200 能以每秒4.8 TB 的速度提供141GB 内存,与NVIDIA A100 相比,容量几乎翻倍,带宽增加2.4倍。搭载HBM3e 的H200 在处理700 亿参数的大模型时,推理速度较H100 快了整整一倍,能耗降低了一半。受HBM3E 供应限制,预计H200 将于24Q2 实现出货。
英伟达B100原计划发布时间为2024Q4,但由于AI 需求的火爆,已经提前至2024Q2,目前已经进入供应链认证阶段,B100 将能够轻松应对1730 亿参数的大语言模型,比当前型号H200 的两倍还要强大。
此外,B100 将采用更高级的HBM 高带宽内存规格,有望在堆叠容量和带宽上继续突破,超越现有的4.8TB/s。根据英伟达产品路线图,预计2025 年将推出X100,进一步丰富GPU 产品矩阵,巩固英伟达AI 芯片龙头地位。
与此同时,英伟达进军定制AI芯片领域。根据 CNBC,英伟达目前正在策划建立全新部门旨 在为云计算企业和其企业提供定制化芯片业务。根据 CNBC,定制化芯片或将专注 于满足特定设备或者系统的性能和功耗要求,其中或将包含特定的处理单元,传 感器集成、专用硬件加速器,以满足特定领域的需求。
从AMD来看:MI300 正式发布,2024 年销售收入上调。CoWoS+SoIC 赋能3.5D 封装。2023 年12 月6 日,AMD 在Advancing AI 活动上宣布推出Instinct MI300X,采用了AMD CDNA3架构,搭载了8 块HBM3,容量达192GB。与MI250X 相比,计算单元增加了约40%、内存容量增加1.5 倍、峰值理论内存带宽3 增加1.7 倍。在某些工作环境中,性能可达H100的1.3 倍。
MI300X 采用3.5D 封装,即通过混合键合技术实现XCD、I/Odie 的3D 堆叠,其次在硅中介层上实现与HBM 的集成,从而实现了超过1500 亿个晶体管的高密度封装。该封装方案由台积电提供,搭配SoIC 技术与CoWoS 技术共同实现。
报告称,AI浪潮也在推动光模块、交换机配套升级 :
Coherent:800G产品环比持续高增,2025 年顺应AI 发展推进1.6T 商业化。2023Q4Coherent 实现收入11.31 亿美元,高于指引中值,yoy-17.45%,qoq+7.41%。受益于人工智能的蓬勃发展, AI/ML 相关数据收发器连续第三季获得强劲订单,800G 产品季度收入突破1 亿美元,环比增长超100%,800G出货量持续强劲增长,FY2024 公司预计超50%的数据通信收发器收入将来自人工智能相关应用,2025 年向1.6T 产品商业化发展前进以顺应AI 发展。
Arista:云、AI 和数据中心核心业务发展势头迅猛。Arista 在2023 年的核心业务由云、Al 和数据中心产品组成,建立在高度差异化的Arista 可扩展操作软件系统堆栈上,部署了10G、25G、100G、200G 和400G 的速度。
Arista 云网络产品提供了节能、高可用的区域,而不会增加冗余成本,因为数据中心对前端、后端存储和计算集群的带宽容量和网络速度都有很高需求。Arista 预计400 和800 千兆以太网将成为Al 后端GPU 集群的重要试点,预计2025 年实现Al 网络收入至少7.5 亿美元。
发表评论