全国统一热线:

400-123-4657

芒果体育·(中国)官方网站
芒果体育动态

mangguotiyu

产品中心PRDUCTS

技术支持RECRUITMENT

    技术支持分售前技术支持和售后技术支持,售前技术支持是指在销售遇到无法解答的产品问题时,售前技术支持给予帮助;售后技术支持是指产品公司为其产品用户提供的售后服务的一种形式,帮助用户诊断并解决其在使用产品...
点击查看更多
公司动态

当前位置: 芒果体育 > 芒果体育动态 > 公司动态

电子新闻电子行业中期策略报告:创新、复苏与国产化的共振芒果体育

2023-06-20 07:17:03

  芒果体育AI 未来已来。2022 年 11 月底,OpenAI 发布聊天机器人 ChatGPT,仅用 5 天用户破百万,2 个 月活跃用户破亿,成为史上增速最快的消费级应用之一。2023 年 3 月,英伟达召开的 GTC 开发 者大会犹如“深水炸弹”,创始人兼 CEO 黄仁勋提出的全新概念:我们正处于 AI 的“ 时 刻”。目前 AI 正在快速增长,将成为数十年来最有前途的技术领域之一,并将驱动算力、网络设 备和光模块等领域的极大发展。受益于此,博通和Marvell等网络与通信芯片巨头的股价均迎来大 幅上涨。博通表示 23年用于生成式 AI业务的以太网设备销售额将从 2 亿美元上升到超 8亿美元; Marvell 也于近期表示 AI 已成为关键成长动能,预估 2024 财年 AI 相关产品营收至少较 2023 年度 呈现倍增,并在未来几年持续迅速成长。

  AIGC 需要强大的算力支撑。ChatGPT 是 由 GPT-3 微调得到的一个聚焦于对话交互的过渡版本。 GPT(Generative Pre-trained Transformer,生成式预训练语言模型)系列模型是一种基于互联 网可用数据训练的文本生成深度学习模型,完成文章生成等任务并不需要有监督学习进行模型微 调,但需要大量的数据、参数以及强大的算力支撑。GPT-3 在微软提供的 Azure AI 超算基础设施 (由 V100GPU 组成的高带宽集群)上进行训练,总算力消耗约 3640 PF-days(即每秒一千万亿 次计算,运行 3640 天)。ChatGPT 的持续升温为 AIGC 带来全新增量,对 AI 模型训练所需要的 算力支持提出了更高要求。云计算基础设施作为算力底座,其重要性日益凸显,包括高性能芯片、 数据中心、网络等基础设施建设为算力、应用以及产业发展提供可持续发展的保障。

  AI 服务器有望加速增长。根据 TrendForce,在自动驾驶汽车、AIoT 与边缘运算等新兴应用题材 的带领下,自 2018 年起诸多大型云端业者开始大量投入 AI 相关的设备建设,截至 2022 年,预 估搭载 GPGPU(General Purpose GPU)的 AI 服务器年出货量占整体服务器比重近 1%,而 2023 年 ChatGPT 相关应用有望再度刺激 AI 相关领域,预估出货量年成长可达 8%,2022-2026 年复合成长率将达 10.8%。2022 年北美四大云端业者 Google、AWS、Meta、Microsoft 的 AI 服 务器采购占比合计 66.2%,而中国近年来随着国产化进程加速,AI 建设浪潮升温,字节跳动的采 购量最大,年采购占比达6.2%,其次则是腾讯、阿里巴巴与百度,分别约为2.3%、1.5%与1.5%。

  我国数据中心业务规模持续高速增长。根据工信部信息通信发展司数据,2017 年我国数据中心市 场总机架数量 166 万架,2022 年预测达到 670 万架,2017-2022E 复合增速达 32.2%。根据信 通院发布的数据中心白皮书,随着我国各地区、各行业数字化转型的深入推进,我国数据中心市 场收入将保持增长态势。

  算力陡增拉动液冷服务器需求。从数字化向智能化的升级中,核心的人工智能、数据中心等应用 均建筑在数据、算力和算法这三大要素的基础之上。数据中心作为算力的载体,散热方面的优化 必然会成为需要重点突破的技术瓶颈之一。从全球来看,云服务、高性能计算等技术正以突飞猛 进的速度增长,算力已成为新时代的重要生产力。然而算力陡增也对设备的功耗及热密度提出了 空前挑战。能耗方面,早在《关于加强绿色数据中心建设的指导意见》中就明确提出:新建大型 和超大型数据中心设计电能使用效率值(PUE)不高于 1.4,通过开展数据中心节能与绿色化改造工 程使得既有大型、超大型数据中心 PUE 值不高于 1.8。由此,通过散热设计有效降低能耗成为了 建设绿色数据中心的主要手段,行业内也产生了风冷、液冷等不同散热冷却技术。现有的数据中 心建设中广泛采用的风冷散热方式,利用室外机+冰水机的冷却系统输出冷气对机房服务器进行散热的方式,不仅散热效率低,同时会耗费大量能源,难以满足建设绿色数据中心的要求。成本 方面,相比于传统风冷高密度解决方案,液冷解决方案同样能够带来更高的经济效益。并且,随 着部署的计算节点数量的增长,液冷解决方案创造的经济效益将会逐级递增。以部署 480 计算节 点的数据中心为例,传统风冷高密度方案虽然在前期投入方面略低于水冷节点方案,但随着时间 和项目进程的推进,水冷节点解决方案在后期运维和升级以及能耗方面的优势将会显现。在一个 为期 7 年的部署 480 节点的周期中,水冷节点解决方案能够比风冷高密度解决方案节省近 1000 万 投入。

  工业富联已形成相关技术、产品储备。2022 年上半年,工业富联推出模块化服务器,包括支持 X86 与 ARM 架构的运算模块、管理模块与接口模块。2022 年,工业富联首发两款经权威机构认 证的基于 ARM 架构主流高性能多核云服务器,为全球云服务提供商及企业数字化转型提供强大 助力。新一代先进冷却技术及解决方案是工业富联未来成长的重要支撑之一,工业富联持续加大 数据中心节能技术的研发,推出先进冷却解决方案,通过沉浸式与机柜式液冷散热系统,实现节 约成本及提升效率的目标。同时,工业富联积极开拓 HPC 相关业务,取得了国内外大型云服务 商客户认可,有望分享到 HPC 行业快速成长红利。

  携手英伟达提高产品性能。工业富联宣布采用基于 NVIDIA HGX、OVX 和 CGX 系统设计的 NVIDIA Grace CPU 和 NVIDIA Grace Hopper Superchip,以满足超级数据中心及边缘运算等更 高的算力需求。NVIDIA Grace CPU 是专为现代数据中心设计的突破性中央处理器,与当今领先 的处理器相较,其提供最高的性能和 2 倍内存容量及能效。它可以满足需要高效能运算电子新闻、数据分 析、数字孪生、云端游戏等对运算能力具有严格要求的应用,透过性能、容量、能源效率和可配 置性的再度提升,为需要超大规模计算应用的相关服务,提供更佳资源。Grace Hopper Superchip 是把 NVIDIA Grace CPU 与基于 NVIDIA Hopper 架构的 GPU 配对,此集成模块可服 务于高效能运算和大规模 AI 应用程序,可将大至兆字节运算的应用程序性能提高 10 倍,为科学 家和研究人员提供强大的运算效能支持。工业富联也将推出搭载 NVIDIA Grace CPU 超级芯片的 新服务器系统,该系统将在模块上使用 NVLink-C2C 和 LPDDRX 连接两个 CPU 芯片,取消了传 统服务器的DIMM插槽,大幅提高散热效能,该系统也弹性支持额外的高性能PCIe卡和DC-SCM 模块。

  联想服务器业务持续快速增长。联想已经成为全球第三大服务器提供商,多年来占据着全球 HPC 榜单 TOP500 榜首,具备交付全球客户的能力,ISG 为代表的业务集团有望成为第二增长曲线, 目前已为韩国国家气象局、紫金云等提供服务器解决方案。 基于联想集团在高性能计算方面的专业与经验,韩国气象厅携手联想,为其建造最新高性能计算 机——“五号”,并已在韩国气象厅下属的国家气象高性能计算中心正式投入运行。从硬件性能 来说,“五号”是全世界最顶尖的高性能计算机之一,峰值性能达到 50PFLOPs,即 5 亿亿次每 秒浮点运算能力。以当今全球高性能计算机顶尖性能榜单来估计,“五号”可以排进前十名。在 实际运算中,“五号”被分成两台互为备份的高性能计算机“Maru”与“Guru”,它们互相配合 防止天气模型预测失误。在 2021 年 6 月发布的全球高性能计算机 TOP500 榜单中,“Maru”与 “Guru”分别位列全球第 23 位和 24 位。“五号”基于联想 ThinkSystem SD650-V2 服务器架 构,引入了最新的处理器核心和领先的网络和存储技术,同时使用联想服务器的核心技术之一 “海神”直接式温水水冷技术。

  服务器 PCB 性能要求高。随着 5G、云计算、AI、大数据等的发展,对服务器算力的要求越来越 高,高速、大容量、云计算、高性能的服务器的需求将越来越大,高端服务器所用 PCB 一般要求 具有高层数、高纵横比、高密度和高传输速度,常规服务器一般层数在 8-24 层,板厚 2-4mm, 厚径比最高达到 15:1;高端服务器层数为 28-46 层,板厚 4-5mm,厚径比最高达到 20:1。服务 器产品具有高电气性能和高可靠性,在高端服务器中的应用主要包括背板、高层数线卡、HDI 卡、 GF卡等。此外,用于服务器产品的超高层板过于庞大且厚重,针对如此大片的精密运算板材进行 耐高温、耐撞击的保护,所耗费的成本也较大,因此直接采用 HDI 板将运算核心缩小化成为最佳 选择,从而会为 HDI 板带来巨大市场需求。

  单机价值量持续上升。PCB 是服务器的重要组成部件,是承载服务器运行的关键材料。服务器出 货量的大幅增长也使得服务器 PCB 市场规模迅速扩容,成为 PCB 市场中复合增长率最快的下游 细分市场。AI 模型需要越来越多的计算能力来管理越来越大的数据量,数据洪流对端、边、云的 冲击将推动网络、计算技术进入新一轮高速创新期,并推动数据中心朝更高速数据传输标准发展, 以强化数据中心基础设施的运算、网络、储存及安全管理的处理效能,这将加速 400Gbps 和更高 速度的数据中心交换机的采用以及服务器产品的更新换代,相关的路由器、数据存储、AI 加速计 算服务器产品也有望高速成长,催生对大尺寸、高层数、高阶 HDI 以及高频高速 PCB 产品的强劲 需求,并对其技术层次和品质提出更高的要求。根据 Prismark 数据,2021 年全球服务器领域PCB产值为 78.04 亿美元,预计 2026 年达到 132.94 亿美元,复合增长率为 11.2%。服务器 PCB 单机价值量有望由 2021 年的 576 美元上升到 2026 年的 705 美元。

  国内厂商产品符合要求,有望深度受益。目前沪电股份、深南电路、生益电子等国内 PCB 厂商已 具备相关技术能力,产品最高层数可达到 40 层,有望受益于 AI 技术升级带来的算力需求增长。

  AI 模型数据量和算力需求大。美光首席商务官萨达纳表示,一个典型的人工智能服务器的 DRAM 容量是普通服务器的 8 倍,NAND 容量是普通服务器的 3 倍。GPT3 相较 GPT2 在数据存储端从 百 G 提升至 40T,在存储量上有约 100 倍的提升,算力需求同样也呈几何倍增长。据 Open AI 测 算,2012 年以来全球头部 AI 模型训练算力需求 3-4 个月翻一番,每年头部训练模型所需算力增 长幅度高达 10 倍,远超摩尔定律的增长速度,而大容量存储是大算力数据稳定运算的重要基础。 随着算力的不断进步,所需存储的数据量在以指数级的增长速度攀升,数据激增将刺激存储芯片 需求逐年上升。得益于人工智能、物联网、云计算、边缘计算等新兴技术在中国的快速发展,中 国数据正在快速增长。据此前 IDC 预测,预计到 2025 年,中国数据圈将增长至 48.6ZB,占全球 数据圈的 27.8%,成为全球最大的数据圈。

  内存技术同步 AI 需求升级。内存接口芯片是高端服务器中 CPU 与内存之间进行数据传输的核心 部件,其主要作用是提升高速内存数据访问的速度及稳定性,满足服务器 CPU 对内存模组日益增 长的高性能及大容量需求。为提升服务器性能,AI 服务器需搭载多个 CPU 和 GPU 处理器,同时 服务器 CPU 性能不断升级,要求内存技术同步升级。DDR5、HBM、CXL、NVLink 等技术将加 速渗透,有望充分受益于 AI 带来的算力需求增长。

  DDR5 对比 DDR4 性能全面提升,需要使用更多内存接口芯片。1)性能:DDR5 内存频率从 3200MHz 起跳(一般都会在 4800MHz 以上)、最高可达 8400MHz;2)核心容量密度:SK 海 力士给出 8Gb、16Gb、24Gb、32Gb、64Gb 丰富的选择, DDR5 单条内存最大可到 128GB;3) 功耗:DDR5 支持 1.1V 电压,进一步降低了功耗。另外,DDR5 搭载 DQS 间隔振荡器,具备错 误检查与清理能力,具备更强的抵抗环境变化的能力和更强的可靠性。DDR5 性能全面提升,要 求新一代内存接口芯片支持高速、低功耗、系统扩展等要求。DDR5 模组需要搭载 SPD、电源管 理芯片(PMIC)和温度传感器(TS)等配套芯片。此外,在 LRDIMM 模组中,相比 DDR3 只采 用 1 颗寄存缓存芯片、DDR4 最多采用“1+9”个内存芯片,DDR5 对内存接口的需求进一步提 升,最多达到“1+10”个(1RCD+10DB),内存接口芯片有望迎来量价齐升。

  HBM 为大算力芯片提供支撑。ChatGPT 依赖更高算力,且更多是趋向于矩阵类和卷积类的计算, 其对内存的需求也体现在训练和推理 AI 芯片,或是加速模块里的内存带宽,而 HBM 是一种基于 3D 堆叠工艺的 DRAM 内存芯片,被安装在 GPU、网络交换设备、AI 加速器及高效能服务器上。 HBM 能大幅提高数据处理速度,每瓦带宽比 GDDR5 高出 3 倍还多,且 HBM 比 GDDR5 节省了 94%的表面积。HBM 作为一种带宽远超 DDR/GDDR 的高速内存,将为大算力芯片提供能力支撑, 同时生成类模型也会加速 HBM 内存进一步增大容量和增大带宽。TrendForce 预估 2023-2025 年 HBM 市场年复合成长率有望成长至 40-45%以上。

  CXL 兼容性强、可实现内存一致性。CXL 全称为 Compute Express Link,是由英特尔于 2019 年 3 月在 Interconnect Day 2019 上推出的一种开放性互联协议,能够让 CPU 与 GPU、FPGA 或其 他加速器之间实现高速高效的互联,从而满足高性能异构计算的要求。在AMD、ARM、IBM以及 英特尔四个主要 CPU 相关供应商的支持下,CXL 已经成为领先的行业标准。CXL 构建于 PCI-e 逻辑和物理层级之上,所以其兼容性很高,更容易被现有支持 PCI-e 端口的处理器(绝大部分的 通用 CPU、GPU 和 FPGA)所接纳,同时 CXL 可在 CPU,以及 GPU、FPGA 等之间建立高速 且低延迟的互连,维护 CPU 内存空间和连接设备上的内存之间的内存一致性,允许 CPU 与 GPU 之间绕过 PCIe 协议,用 CXL 协议来共享、互取对方的内存资源,从而大幅提升数据运算效率。 CXL 有望在未来的服务器中以有效和可扩展的方式增加内存、容量和带宽,成为 ChatGPT 等 AI 应用的重要配合性技术。美光科技在 22 年 5 月预测 CXL 相关产品的市场规模,到 2025 年预计将 达到 20 亿美金,到 2030 年可能超过 200 亿美金。

  NVLink 可最大化提升系统吞吐量。AI 和 HPC(包括新兴的万亿参数模型)领域的计算需求不断 增长,在这一趋势的推动下,对于能够在每个 GPU 之间实现无缝高速通信的多节点、多 GPU 系 统的需求也在与日俱增。要打造功能强大且能够满足业务速度需求的端到端计算平台,可扩展的 快速互连必不可少。第四代 NVIDIA® NVLink®技术可为多 GPU 系统配置提供高于以往 1.5 倍的带 宽,以及增强的可扩展性。单个 NVIDIA H100 Tensor Core GPU 支持多达 18 个 NVLink 连接, 总带宽为 900GB/s,是 PCIe 5.0 带宽的 7 倍。第三代 NVIDIA NVSwitch™基于 NVLink 的高级通 信能力构建,可为计算密集型工作负载提供更高带宽和更低延迟。为了支持高速集合运算,每个 NVSwitch 都有 64 个 NVLink 端口,并配有 NVIDIA SHARP™引擎,可用于网络内归约和组播加 速。通过在服务器外部添加第二层 NVSwitch,NVLink 网络可以连接多达 256 个 GPU,并提供57.6 TB/s 的惊人多对多带宽,从而快速完成大型 AI 作业。NVIDIA DGX™ H100 等服务器可利 用 NVLink 技术来提高可扩展性,进而实现超快速的深度学习训练。

  高速率光技术持续演进。作为 AI 算力的核心器件,光模块及其配套芯片持续迭代:1)CPO、 LPO 等先进封装技术在降低光模块成本及功耗上作用显著,中际旭创、新易盛等光模块厂商率先 布局;2)EML、硅光和薄膜铌酸锂等光芯片不断升级来适配高速率场景应用,源杰科技、长光 华芯和光库科技等厂商不断突破芯片技术瓶颈。光芯片作为光模块中最核心的部件(光器件占光 模块成本的 73%,光芯片占光器件成本的 81%),拥有更大的附加价值量弹性和国产替代预期, 在产业链中地位尤其重要,光芯片厂商亦有望在 AI 浪潮中持续受益。

  光芯片三重逻辑共振:1)AI 算力高弹性;2)国产替代预期; 3)下游模块厂商出海加持。在 AI 算力需求拉动下光模块向更高速率演进,光芯片作为光模块核心器件有望深度受益;中国光芯片 市场规模持续增加,国产化进程有望持续迈进;国内下游模块厂商海外业务不断拓展,光芯片可 以跟随光模块出海,有望应用到谷歌、微软等海外互联网大厂。在前沿光通信技术发展和高算力 需求的共同催化下,将有力推动光芯片的技术升级和更新换代,硅光芯片、薄膜铌酸锂调制器芯 片等有望成为更优解决方案。

  1)算力需求带动高速率光模块市场量价齐升。全球数据规模随着 AIGC 的发展预计增速会持续提 升,数据中心高速率光模块市场相应将获得较大增量市场。根据中国计算机互连技术联盟 (CCITA)CPO 标准及草根调研数据,云计算通用服务器所属叶脊架构的交叉互联网络中上行、 下行端口收敛比约为 3:1,1 台服务器约需要 4-6 个光模块,整体平均单价在 1 美金/GB 左右;而 AI 服务器所用的 A100、H100 等 GPU,需用 200G 以上的高速率光模块 8-10 个/片。根据 LightCounting 的统计,全球 Top 5 云厂商以太网光模块市场体现出对高速率光模块的偏好。2023 年 800G 光模块需求预计将进一步替代较低速率光模块的份额,整体高速率光模块用量和规格不 断提升,呈量价齐升之势。

  光芯片是光模块的核心器件,附加价值量弹性更大。根据 LightCounting 数据测算,光芯片占光 模块市场比重从 2018 年约 15%的水平到 2025 以后超过 25%的水平,光芯片有望深度受益。相 对于光模块和器件,光芯片具有更大的附加价值量弹性,其成本占比分布在低端器件、中端器件、 高端器件上的数据逐级提升,大约分别为 20%、50%、70%。随着通讯、AI 等产业对高性能光模 块的需求快速增长,光芯片将呈现量价齐升的增长趋势。

  2)中国光芯片市场规模持续增加,光芯片国产替代正当时。根据 ICC 预测,2019-2024 年,中 国光芯片厂商销售规模占全球光芯片市场的比例将不断提升。目前,我国光芯片企业已基本掌握 2.5G 及以下速率光芯片的核心技术;部分 10G 光芯片产品性能要求较高、难度较大,如 10G VCSEL/EML 激光器芯片等,国产化率不到 40%;25G 及以上光芯片方面,随着 5G 建设推进, 我国光芯片厂商在应用于 5G 基站前传光模块的 25G DFB 激光器芯片有所突破,数据中心市场光 模块企业开始逐步使用国产厂商的 25G DFB 激光器芯片,2021 年 25G 光芯片的国产化率约 20%, 但 25G 以上光芯片的国产化率仍较低,约为 5%,目前仍以海外光芯片厂商为主。

  3)光芯片可以跟随光模块出海,有望应用到海外大厂的 AI 服务器及数据中心当中。海外光芯片 企业已形成产业闭环和高行业壁垒,可自主完成芯片设计、晶圆外延等关键工序,可量产 25G 及 以上速率的光芯片。部分中国光芯片企业已具备领先水平,随着技术能力提升和市场认可度提高, 竞争力将进一步增强。目前全球光模块市场主要由美中日三国占据主导地位,2020 年光模块全 球前十的生产商中有一半来自中国。随着国内下游模块厂商海外业务的不断拓展,光芯片可以跟 随光模块出海,有望应用到海外大厂,国产光芯片发展前景广阔。

  CPO、LPO、硅光、相干以及薄膜铌酸锂等技术值得关注,将有力推动光芯片技术升级和更新 换代。数据中心的商业模式下,云厂商在成本端有充分的动力为低功耗服务器买单;同时,在低功耗的基础上,AI 服务器对低时延有着更高的要求。因此,除了以 CPO 与硅光技术为主线的光 模块发展路径外,LPO 方案应运而生。同时,在相干光通讯和非相干数据中心的信号传输中,薄 膜铌酸锂所制备的超高速率电光调制器有望受益于光器件集成新趋势,从而打开更加广阔的市场 空间。在前沿光通信技术发展与高算力需求拉动的共同催化下,高速率光芯片前景广阔,更高速 率的 DFB、EML 芯片、硅光芯片、薄膜铌酸锂调制器芯片等将成为更优解决方案。此外,立讯 精密、长电科技等消费电子/半导体公司也逐步进入光模块/芯片赛道,有望将成熟技术应用到光 芯片产业链,进一步降本增效促进行业发展。

  预训练模型引发 AIGC 质变,多模态技术实现多样性。ChatGPT 的持续升温使人们关注到了 AIGC 的突破性进展,其中预训练模型和多模态技术功不可没。预训练模型,又称为大模型、基 础模型(foundation model),即基于大量数据(通常使用大规模自我监督学习)训练的、拥有 巨量参数的模型,可以适用广泛的下游任务。多模态技术推动了AIGC的内容多样性,让AIGC具 有了更通用的能力,多模态即图像、声音、语言等融合的机器学习。在多模态技术的支持下,目 前预训练模型已经从早期单一的 NLP 或 CV 模型,发展到现在语言文字、图形图像、音视频等多 模态、跨模态模型。在此基础上,大型预训练模型的发展重点开始向横跨文本、图像、语音、视 频的全模态通用模型发展。通过计算策略、数据调用策略、深度学习框架等方法提升模型效果成 为目前研究的进展关键,其中的代表包括:开启了跨模态预训练模型的 Open AI DALL·E 及 CLI、 NVDIA GauGAN2、微软及北大 NÜWA 女娲、NVIDIA POE GAN、DeepMind 的 Gato 等。

  NÜWA 模型同时支持图像、文字芒果体育、视频三种模态,其整体架构包含一个支持多种条件的 adaptive 编码器和一个预训练的解码器,能够同时处理图像和视频的信息。其中,对于图像补全、视频预 测、图像视频编辑任务,输入的部分图像或视频直接馈送给解码器,而编码解码器都是基于一个 3D Nearby的自注意力机制(3DNA)建立的,该机制可以同时考虑空间和时间轴的上局部特性。

  中国 AI+安防行业进入精细化发展阶段。2020 年中国 AI+安防软硬件市场规模达 453 亿元,艾瑞 预测,2021-2025年市场进入产业结构调整期,市场增速将放缓,预计 2025年规模超 900亿元, AI 开始向公安交通等场景的下沉市场以及泛安防智能物联 AIoT 的长尾细分领域渗透,发展模式 由过去粗放上量转变为精细化升级改造。在过去几年,人工智能与安防结合的热度很高,但仍存 在算法场景限制高芒果体育、深度应用不足等限制和问题。

  大型跨模态预训练模型有望突破 AI+安防行业瓶颈。根据安防+AI 人工智能工程化白皮书,视频 监控系统产生的数据量庞大,而且日趋多元化,包含非结构化数据、半结构化特征数据以及结构 化数据。当前的人工智能视频大数据分析技术主要存在如下几个问题:1)非卡口场景的视频分 析算法在准确率、稳定性及计算成本等核心指标方面还有待于提高,导致非卡口场景的存量视频 利用率极低,目前没有有效利用的非卡口监控视频约占监控视频总量的 97%左右;2)智能 AI 摄 像机及视频结构化分析产品开始进入安防市场,产生了海量的结构化视频数据,但基于结构化视 频数据的深度智能应用,如时空分析、模式挖掘、预测预警、技战法训练等尚在探索阶段,有可 能形成新的数据浪费和低效投资。目前 AIGC 高质量内容产出的背后是大型跨模态预训练模型的 成熟,未来随着该模型算法在智能安防和 AIoT 等领域的渗透落地,行业整体视频识别算法的准确 性、可靠性、应用广泛性将有望提高。

  手机出货量有望复苏。高通在业绩解读会上表示持续变化的总体经济背景导致需求进一步恶化, 但中国需求有望在下半年出现反弹。联发科认为 2023 年全球智能手机出货量将略有下滑,但 5G 普及率将从 2022 年的 40%以上增加到 2023 年的 50%左右,看好 5G 升级带来的相关机遇。行业 库存水平上看,公司客户的库存水平正在逐步改善。

  折叠手机成市场新焦点。TrendForce 集邦咨询预估,2023 年折叠手机出货量达 1,980 万台,相 较 2022 年的 1,280 万台,年成长率高达 55%。折叠手机渗透率上升速度较缓慢主要是碍于高昂 售价,目前来看,自 2021 年华为推出 Mate X2 约 2000 美元以上的价格已不复见,品牌与零部 件供货商均持续开发新技术,目的以优化零部件成本为主。在有更多品牌加入生产折叠手机的预 期下,TrendForce 集邦咨询预估 2023 年折叠手机市场渗透率约为 1.7%,成本与外型将逐年优 化,2027 年有机会逾 5%。

  潜望式镜头实现光线横向传输,突破光学变焦瓶颈。光学镜头作为智能手机的“眼睛”始终是终 端品牌追逐差异化创新的一大卖点所在。光学变焦通过镜头、物体和焦点三方的位置发生变化而 产生的,变焦的倍数越大,镜头需要的长度越长。以往,手机镜头因受限于厚度而难以实现高倍 的光学变焦,常见手机光学变焦类似数码卡片机,属于纵向变焦,镜头组具有多层结构,通过机 械控制伸缩来实现变焦,导致镜头突起过大,既不美观又易磕碰。使用微棱镜的新型潜望式镜头, 通过微棱镜将光路转向,使过厚的镜头平放,光线在手机内部横向传输,从而通过横向变焦保证 长焦拍摄,同时实现了镜头更薄,突起更小的优势。

  15 型号将采用钛合金中框。媒体报道,15 的部分型号将采用钛合金中框,钛合金 比不锈钢具有更高硬度,更耐刮擦。但是钛合金的高硬度也使其难以蚀刻,因此需要新的喷砂、 蚀刻和化学工艺,以使钛合金外壳具有高光泽的表面光洁度,从而获得更具吸引力的外观。苹果 及供应商也一直在研究使用薄的氧化物表面涂层,以减少油性指纹的出现。工业富联是全球精密 结构件的领导厂商,有望受益于这一行业趋势。苹果在 21 年获得专利《用于金属表面的氧化物涂 层》,其中详细说明了涂层如何显著减少设备上的指纹情况,强调了钛合金在消费电子产品中的 优势,如高强度、高刚度和硬度、耐腐蚀性等。

  以 MLCC 为代表的被动元器件具有基础性、用量大、下游分散等特点,行业下游产品需求、产能 和库存共同作用,表现出较为明显的产业周期。以台股 MLCC 厂商营收当月同比变化来看,由于 2021 年下半年以来海外疫情和通胀问题等因素,手机、笔电、平板、电视等消费性产品受影响较 大,造成消费级 MLCC 需求滑落,市场库存不断攀高,价格进一步下降,台股 MLCC 厂商营收同 比增长持续下滑。目前 MLCC 行业处于周期底部区域,未来下游需求回暖有望带动 MLCC 需求量 的增长,预计将迎来新一轮的上行期。 MLCC 国内大厂风华高科 2023 年 1 月表示,公司 2022 年前三季度产能利用率和产品价格呈下行 趋势,22Q4 产能利用率开始逐步恢复,整体库存逐步恢复至正常水位,市场需求方面较 22Q3 亦 有所恢复,这也进一步印证了 MLCC 行业复苏拐点或已到来。

  22Q4 国内 MLCC 厂商存货规模环比均有所下降。国内 MLCC 厂商风华高科和三环集团 2023 年 Q1 末存货水平均较 2022 年 Q2 末的高位有所下降,表明国内现货库存去化接近尾声。未来随着 下游需求的回暖,以及下游经销商库存的逐步去化,MLCC 厂商库存有望逐步恢复至正常健康水 位。

  智能手机多功能和轻薄化决定了其电子回路的复杂性,单机 MLCC 用量快速增长。智能手机要求 支持多频段,同时需要配置与外设进行数据通信的 Bluetooth®、Wi-Fi、近距离无线通信(NFC)、 定位用 GPS 等,高性能摄像头和显示屏等也使终端内部的电子回路数量大幅增加。智能手机配置 的功能越多,就需要更多元器件来进行稳压、稳流、滤杂波,以保障终端设备的正常运作,内部 电子回路复杂性越高,MLCC 数量也几乎等比例增加。此外,制造高性能、多功能、易操作的智 能手机,同时在维持易操作尺寸的同时增加终端功能,MLCC 小型化也是不可或缺的一环。

  智能手机行业多因素拉动 MLCC 需求量提升。1)终端产品升级:以苹果手机为例,从初代 4 MLCC 用量 177 个,到 12 max MLCC 用量 1500 个,单机 MLCC 用量提升 8 倍 以上。未来随着智能手机功能创新,MLCC 单机使用量有望持续增长。2)5G 渗透率提升:根据 IDC 数据,2022-2025 年 5G 手机出货量年均复合增长率将达 14%,预计 2025 年 5G 手机出货量 占比将达 70%以上。相比 4G 手机 700 颗 MLCC 左右的用量,5G 手机 MLCC 的平均单机用量约 为 1000 颗以上, MLCC 单机用量大幅攀升。3)消费电子复苏:随着疫情影响逐步消退,消费电 子市场需求回暖,智能手机行业有望复苏,这将整体拉动 MLCC 需求端的上行。

  MLCC 广泛应用于汽车系统中,电动化和智能化趋势对产品提出更高要求。MLCC 在汽车中的应 用包括卫星定位系统、中央控制系统、无线电导航系统、车身稳定控制系统、ADAS 系统,各类 系统对 MLCC 的需求都很大。汽车电动化和智能化趋势也要求 MLCC 在可靠性、高容量、高频等 方面进行创新,例如:自动驾驶的低电压驱动型高性能处理器需要使用大容量 MLCC 产品;电动 化趋势相关的电池控制、噪音则对 MLCC 产品提出了高耐压的要求;无人驾驶与车联网通信的过 程中,需要进行海量、实时的数据交换,5G 网络的实时传输要求汽车用 MLCC 满足高频、高精 度、高 Q 值等性能。

  汽车智能化、电动化驱动 MLCC 需求增长。一方面,汽车电子化率提升驱动 MLCC 需求:1)伴 随消费升级和汽车消费档次提升,单车价值不断提高,高端车占比提升最终也反映在电子化率上 升上;2)汽车智能化是未来发展趋势,而汽车电子化是汽车智能化的必要基础。另一方面,新 能源汽车渗透率不断提升。汽车电动化使得燃油车中发动机、变速箱和底盘系统不断由机械控制 转变成电控系统,电动车提供的高电压平台支持更多电控和电子设备。电动化程度不同的车型, 对 MLCC 的需求量也有所不同,其中一辆纯电动汽车需要 MLCC 数量可达到 18000 颗,其用量 为传统汽车的 6 倍。

  万物互联趋势下,终端的广泛应用推升 MLCC 需求。据 GSMA 预测,2025 年全球物联网设备联 网数量将达到约 246 亿个,20-25 年 CAGR 为 14%,万物互联成为全球网络未来发展的重要方 向。MLCC 由于其使用寿命长和固有的可靠性而成为物联网设备的理想解决方案。近年来,在智 能物联网产业的快速发展中,物联网和高智能是最突出的技术特点,需要通过电子元件组合实现 功能,因此电子元件整体消耗较大,MLCC 作为主要被动元件,需求也在增加。 以智能家居为例,5G WiFi 等通信技术的应用,以及人工智能算法的普及已成为趋势,其智能通 信和控制需要更多的射频 MLCC 合作,这无疑进一步推动了 MLCC 需求量的增加。

  中国大陆成为全球第一大半导体设备市场,设备主要依赖进口。得益于中国半导体全行业的蓬勃 发展和国家近年来对半导体产业持续的政策扶持,中国大陆半导体设备市场的规模快速增长, 2022 年中国大陆半导体设备市场达到 283 亿美元,占全球市场的 26%,位列全球第一大半导体 设备市场。目前中国半导体设备行业国产化还处于起步阶段,对设备进口依赖程度较大。

  检测与量测设备是未来长存、长鑫等产线扩产需要突破的关键环节。22 年 10 月 7 日,美国商务 部工业和安全局(BIS)公布了一系列更广泛的出口管制新规,半导体制造端限制延伸至 18 纳米 或以下的 DRAM 芯片、128 层或以上的 NAND 闪存芯片和 14 纳米或以下的逻辑芯片。直接导致 国内长江存储、合肥长鑫等产线扩产规划受阻,相关厂商如果未来想在此次新规限制的技术范畴 内扩产,检测量测设备的突破将成为关键的一环,行业国产化率未来 3-5 年至少 10 倍级提升空间。 从确定性的角度看,国内主要存储、先进逻辑产线扩产诉求强烈,检测与量测设备突破必要性强。

  设备验证有望加速,精测电子等头部厂商已有放量势头。由于过去国内检测与量测市场主要由美 系厂商主导,国内厂商体量较小,我们预计,美国半导体管制新规后国内检测与量测设备厂商有 望受到下游晶圆厂、政府部分鼎力支持,设备验证和订单放量加速可期。目前,头部厂商已有放 量势头,精测电子截至 2022 年度报告披露日的在手订单已达到约 8.9 亿,相当于 22 年该部分营 收的 5 倍以上;中科飞测 23 年 Q1 末的合同负债金额达到 5.5 亿元,是 2021 年底的 3 倍以上。

  行业特点决定未来放量有望呈现指数级增长。一方面,半导体设备在下游客户验证有一定复用性, 同种工艺的机台在客户 A 处通过验证后在客户 B 处验证时间有望缩短;另一方面,随着下游晶圆 厂对于国产设备的信任度增强,订单往往呈现样机→小批量订单→大批量订单的特征,所以半导 体设备放量过程往往存在加速趋势。我们认为,检测与量测设备市场目前相当于 2018 年的 CMP 设备市场,美国半导体管制新规和国内相关厂商扩产需求迫切的背景下未来国内相关厂商份额和 收入增长将驶入快车道。

  国内在大部分成熟工艺节点设备取得突破,先进制程设备仍待突破。单从设备看,去胶设备,清 洗设备,管式炉和扩散设备的国产化替代程度较好,而光刻机、关键核心层的刻蚀、金属层的薄 膜沉积、离子注入、检测设备等难度比较大的设备,目前国内替代率低。从工艺制程覆盖角度看, 国内主流设备厂商在多个环节中可覆盖 28nm 及以上的应用,可实现对下游的批量供应,14nm 及 以下设备有望逐步突破。

  北京时间6月6日凌晨,苹果在WWDC23正式宣布其首款混合现实(MR)头显设备 Vision Pro, 售价 3499 美元,将于 2024 年初在美国率先发售,后续将扩展至全球其他国家销售。Vision Pro 被苹果称之为“一台革命性的空间计算设备”,从人机交互到硬件规格,再到操作系统、生态以 及数据隐私,苹果重新定义了头显设备,对 XR 产业的变革贡献重要引领作用。

  芯片、光学、显示、交互等多环节采用顶级配置,引领行业硬件技术变革。为实现更多功能设计, 苹果 Vision Pro 在硬件端芯片、显示、光学、交互等各环节追求极致配置,旨在打造顶级头显设 备,消除硬件层壁垒,在 MR/AR/VR 行业内发挥标杆作用。

  芯片:M2+R1 协同。Vision Pro 采用协处理设计,搭载 M2 芯片及 R1 芯片,其中 R1 芯片为苹果 为 AR 系列全新设计,专为头显处理摄像头、传感器的数据传输(包括 12 个摄像头、5 个传感器 和 6 个麦克风的输入),官方表示传输速率仅需 12 毫秒便可将内容同步到 Vision Pro 的屏幕上, 几乎没有延迟。

  光学:集成 3P Pancake 的领先方案设计。Pancake 方案已成为主流头显设备光学方案,但相比 于 Pico4 采用的单片式 Pancake、Quest Pro 是 2 片式,成本相对可控,而 Vision Pro 采用的是 三片式 Pancake 方案,为提高显示效果大幅提升了成本。三片式方案具有出众的清晰度和通透度, 有效提高了用户的沉浸感和画面的表现力。同时三片式方案在结构上更加紧凑,进一步缩小设备 体积。

  EyeSight 反向透视,助力交互提升&用户裂变。反向透视系统(EyeSight)能够用于展示面部表 情,当有人在用户附近时,头显的双面显示屏将自动投影出显示屏内部人脸的情况,复原出新的 “人脸”,让设备看上去都是透明的,减少沟通时的陌生感;而当用户处于完全沉浸状态时,屏 幕将不会显示用户的双眼,变得一片模糊,此时周围的人也会明白此刻用户注意不到他们。该功 能使得用户在使用产品时仍能和外界沟通,突出虚拟场景下的强社交交互理念。

  显示:2300 万像素 Micro OLED 方案。高分辨率 Micro OLED 方案显著提升显示效果。苹果 Vision Pro 采用了两块定制 Micro OLED 显示屏,具有超高分辨率。Micro OLED 技术将 2300 万 像素集成到两个显示屏中单屏分辨率达4K以上,具有宽广的色彩和高动态范围。这一技术突破与3P pancake 方案相结合,带来了更好的清晰度和体验。针对近视人群,苹果与蔡司合作,可以使 用对应的磁吸光学镜片来确保使用体验。

  交互:眼球追踪、手势追踪、语音控制是三维界面最直观、最自然的交互方式。摄像头模组数 量来到 12 颗,并搭载 5 个传感器。对于周围环境感知及佩戴者定位追踪起到重要作用,能够 实现灵敏、直观的互动。眼球追踪,Vision Pro 的 UI 采用圆形图标,眼球注视区域主体会被放 大,眼球交互非常直观。手势追踪,识别范围广,通过外设摄像头捕捉手部动作,实现轻点选 择、轻扫滚动等多种操作,支持双手捏合缩放屏幕尺寸以及拖拽屏幕的距离。语音交互,能够 完成与本机的智能交互,支持通过语音呼叫 Siri,实现打开、播放和关闭 APP 的功能。虹膜识 别,Vision Pro 搭载独特安全认证系统 Optic ID,可在各种不可见的 LED 光照射下分析用户的 虹膜,并将其与存储在设备中的 Optic ID 对比,以快速解锁 Vision Pro。此外,设备中的 Optic ID 采用加密存储,不会上传到苹果的服务器中,有效保护了用户的隐私。我们认为 Vision Pro 在交互侧的创新超出了此前市场预期的如用指环辅助裸手交互等方式,Vision Pro 完全摆脱了 手柄以及其他物理控制器,实现以眼镜、嘴巴、 双手就能控制互动的最接近自然的交互方式, 重新定义了 MR 3D 空间的交互形态。

  培育市场及用户,推动产业硬件出货量攀升。XR 代表着下一代计算平台,而 Vision Pro 无疑是下 一代计算平台的标杆产品,我们认为苹果 Vision Pro 将推动产业硬件出货量攀升。出货量的提升 一方面源于巨头入局后的标杆效应,苹果入场自带流量,使得 XR 产品在 C 端获得更多的关注和 销量,对消费者形成正向影响力。在手机创新步伐放缓的趋势下更多硬件、互联网厂商有望入局 卡位下一代互联网及终端形态;另一方面则是来自于苹果标杆产品背后硬件技术趋势的确立,生 态系统融合对内容开发商和软件开发者的吸引,人机交互的探索和引领,将助推 XR 产品从“3D 游戏机”的单一定位走向下一代计算平台。

  (本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

全国统一热线

400-123-4657
+地址:广东省广州市天河区88号
+传真:+86-123-4567
+邮箱:admin@scqsyy.com

友情链接

微信平台

关注芒果体育

手机官网

手机官网