AI基础架构火热开建GPU服务器大显身手
- 来源:智能制造网
- 编辑:今夕何夕
- 2020/5/11 14:05:59
- 40416
2017年被国内许多研究人员视为是中国AI元年,也是AI生态和市场迅速发展的一年。在国家政策和资本注入的共同推动下,大量AI初创企业纷纷涌现、行业应用迅速落地。AI市场的火热,也为以GPU服务器为主的AI基础设施扩张造就了良机。一些市场调研机构的统计数据,也从侧面佐证了这一观点。
近日,数据公司IDC发布了新的《人工智能基础架构市场(2019下半年)跟踪》报告。该报告显示,2019年人工智能基础架构市场规模达到20.9亿美元,同比增长58.7%。其中GPU服务器占据96.1%的市场份额。IDC预测到2024年,中国GPU服务器市场规模将达到64亿美元。
当前,工业与学术界的数据科学家已将GPU用于机器学习以便在各种应用上实现开创性的改进,这些应用包括视频分析、语音识别、图像分类、以及自然语言处理等。在产业合作方面,浪潮、科大讯飞、今日头条、滴滴等科技公司已经开始积极合作,致力于帮助行业客户在视频、搜索、语音、图像、网络等方面取得数量级的应用性能提升。
从硬件架构来看,AI服务器主要指的是采用异构形式的服务器,有CPU+FPGA、CPU+GPU、CPU+TPU等多种形式。其中,采用CPU+GPU结构的AI服务器十分广泛。因此在业界,也有许多人将其默认为GPU服务器。截至目前,GPU服务器在医疗、游戏、电商、金融、安防等行业有着广泛的应用。
人工智能需要强大的计算能力,也就是CPU+GPU;快速的存储,减少延迟提升性能;大内存容量,供海量数据分析;专用芯片,在某一AI计算领域可提供更强的性能及更低功耗,例如人脸识别专用芯片可以植入摄像头中,功耗要比服务器低数十倍。
此外,GPU加速计算可以在GPU仍然运行其余程序代码的情况下,将应用程序中计算密集部分的工作负载转移到GPU,从而提供良好的应用程序性能。从用户的角度来看,应用程序运行得更快。基于此,提升GPU服务器性能势在必行。
用户在选购GPU,也要考虑业务应用先选择GPU型号、使用场景及数量(边缘和中心)、自我需求及IT运维能力、集群系统的成熟度及工程效率、配套软件的价值以及服务的价值等因素。
人工智能AI平台基础架构中至关重要的就是存储架构。总体来看,存储架构主要有三种模式:基于数据块的SAN存储、基于文件的NAS存储和对象存储。未来,随着人工智能技术在各领域应用程度的不断深化,存储结构也将进行相应的升级。
眼下,人工智能服务器正在快速的成熟和完善中,结合整个人工智能技术和服务的发展,未来人工智能服务器会重点在低功耗设计、智能边缘计算、软硬件平台融合等领域产生新的突破。而在这一轮以深度神经网络为理论基础的人工智能大发展中,创新算法、海量数据和模型训练计算能力是三个不容忽视的推动要素。
实际上,传统行业与AI融合时所面临的挑战往往不在于算力,而在于缺乏平台、应用程序开发,以及算法、模型调整方面的技术能力,未来业内人士也需要在这些方面进行强化。计算无处不在,互联无处不在,AI无处不在,或许就是科技迅速发展的一大表现吧!
版权与免责声明:凡本网注明“来源:智能制造网”的所有作品,均为浙江兴旺宝明通网络有限公司-智能制造网合法拥有版权或有权使用的作品,未经本网授权不
展开全部
热门评论