AI服务器市场有多大?被动元器件的机会来了
- 来源:半导体器件应用网 Susan
- 2024/1/4 9:24:56
- 22142
最近有消息传出,阿里云A100服务器业务暂停出租,这意味着国内英伟达算力将会面临紧缺的状况。而据国盛证券发布的一份研报指出,随着拿卡难度加大,算力运营方开始“抢单”H800服务器,报价冲上了300万/台。这两个消息都暗示着算力租赁行业涨价行情即将到来,AI服务器的抢单现象也愈演愈烈。
AI服务器迎来了一波抢单潮。
“群模混战”引发AI服务器需求
根据业内人士的观点,今年对于AI服务器的需求超出了预期,主要原因是各大模型的发展。数据显示,自从Open AI推出了ChatGPT以来,国内各大厂商纷纷加快步伐,不仅包括百度的文心一言、科大讯飞的星火和华为的盘古等互联网公司积极开发语言模型,还有各大终端市场也积极接入大模型。正是这场"群模大战"点燃了AI服务器的需求热潮。
根据TrendForce的预测,2023年全球AI服务器的出货量预计将达到118.3万台,同比增长38.4%。而到了2025年,这一数字有望攀升至近189.5万台,年复合增长率高达41.2%。
就市场格局而言,AI服务器的份额相对集中,浪潮信息占据全球市场份额的20.2%,稳居第一,其他国内头部厂商包括中科曙光、拓维信息、神州数码和紫光股份等。
AI服务器核心器件
AI服务器的核心芯片组件主要包括CPU、GPU、NPU、ASIC、FPGA等加速器,以及内存、存储、网络等配件。
相对于传统的中央处理器(CPU),GPU具有更多的计算核心和更快的内存带宽,从而大幅提高计算效率和图形渲染速度。
当前阶段,随着英伟达发布了A100、H100等型号产品,GPU在算力方面的优势显著,逐渐从最初的图形处理转向计算任务。
GPU由于其具有最强的计算能力同时具备深度学习等能力,故而成为最适合支撑人工智能训练和学习的硬件,目前已成为服务器中加速芯片的首选。
根据IDC的数据,用于运算和存储的芯片约占服务器成本结构的70%,其中在机器学习型服务器中,GPU成本占比达到72.8%。
据统计,根据GPU数量的不同,AI服务器进一步分为四路、八路和十六路服务器,搭载8块GPU的八路AI服务器最常见。
在当前国内二级市场上,主要有寒武纪、海光信息和景嘉微等公司布局GPU芯片。
被动元器件也不得忽视
除了GPU等加速器,AI服务器中的被动元器件如电阻、电容和电感等在整个系统中的作用也不容忽视。这些被动器件具有特性优异的特点,提供更加稳定的电压和电流,确保AI服务器的正常运行及快速的瞬态响应和较低的纹波。
此外,低损耗的被动器件还可以提高AI服务器的转换能效,从而提高关键的效率,实现节能环保。在AI服务器的可靠性和稳定性方面,电感也扮演着重要的角色,对其提出了更高的需求。
写在最后:
随着大模型的持续发展,AI服务器市场将继续呈现持续的量价齐升趋势。这一趋势为服务器产业链的各个环节带来了卡位优势,包括算力芯片、服务器代工、内存和被动元器件等关键领域。这些领域的企业有望迎来全面爆发的机遇。
在算力芯片领域,不断推出更加高效、强大的GPU和CPU芯片将成为竞争的关键点。芯片制造商可以通过持续创新和提升技术水平,满足对于更高性能和更低功耗的需求。
服务器代工厂商则有机会通过提供高质量、高效率的代工服务来满足市场需求。同时,他们也可以与芯片制造商建立紧密的合作关系,共同推动AI服务器市场的发展。
另外,内存供应商可以加大研发投入,推出更高容量、更高速度的内存产品,以满足AI服务器对于存储需求的增长。
在被动元器件领域,优质的电阻、电容和电感等元器件的供应商可以通过提供稳定性和效能更好的产品,赢得市场竞争优势。
版权与免责声明:凡本网注明“来源:智能制造网”的所有作品,均为浙江兴旺宝明通网络有限公司-智能制造网合法拥有版权或有权使用的作品,未经本网授权不
展开全部
热门评论