从20世纪60年代开始,人们就在期待像哈尔(HAL)这样的科幻级别的AI,现在,运用神经网络算法的深度学习技术让讨论了超过半世纪的人工智能(AI)得以走出实验室。
现今的人工智能已不再只是打败世界棋王的超级计算机、路测的无人驾驶车、或是试图拟人化的机器人等研究领域的专属技术,而是更具实用性、大众化的应用系统,比如以AI的深度学习技术提升科技工厂生产良率、为农民筛选质量不良的坏果、于零售门市进行人流分析、协助医师判读医学成像、停车场的车位在席侦测、以及主动纠举交通违规等。
研华近来积极投入AI深度学习领域,我们观察发现,除了要收集海量的学习数据之外,系统开发者最常遭遇的难题莫过于:
☞ 面对繁琐的系统建置工程,什么样的硬件平台才能有足够的性能执行复杂的函数运算?
☞ 什么样规格的硬件可满足噪声干扰多的公共运输系统、高标准的科技厂房无尘作业环境、安全防护等级高的医疗院所等场域的要求?
☞ AI系统要如何连接上层管理软件或云端平台?
☞ 是否有现成可用的知识模型以缩短深度学习的训练时间?
☞ 现有的系统若想要升级为深度学习系统时又该从何下手?
为了解决上述种种问题,研华提供兼具软硬件的深度学习完整解决方案:
● 负责训练深度学习模型的训练平台
● 运用知识模型于现场执行推论的推论平台
● 方便开发深度学习系统的软件开发工具(SDK)
● 已完成训练且可直接套用的知识模型
● 专业团队提供的系统规划与技术咨询服务
研华通过此帮助用户降低系统建置的复杂度,让开发者可以更容易地布建AI深度学习系统,并将心力投入于其所熟悉的产业知识(domain know-how)以催生出更多创新又务实的应用。
今天,小A就先为大家介绍研华的AI深度学习硬件平台产品GPU服务器。
AI深度学习GPU服务器全家族↓↓↓
产品特性
● 高优化配置,支持多张Nvidia GPU卡片
SKY-6000系列最新GPU服务器支持双路Intel® Xeon® scalable处理器,比如其中的SKY-6100是专为NVidia Tesla P4设计的推理端GPU服务器,高优化的配置,让其可支持多达5张NVIDIA® Tesla® P4 GPU卡片,配置冗余白金级电源,确保高性能运算。
值得一提的是,研华的GPU服务器都通过了Nvidia官方测试,并具有相关测试报告。
● 智能散热管理
SKY-6000 系列GPU服务器具有优良的散热管理设计:服务器平台具有IPMI管理功能和智能风扇控制系统。将CPU和GPU风扇区域隔离,确保GPU卡不被其他热源干扰或影响,保证完美的运行环境。
同时智能风扇会根据不同GPU和CPU的工作负荷和操作温度进行转速控制,大大降低了自身负载很重的GPU的运作噪音。
● 提供整套AI优化方案
研华的AI深度学习GPU服务器系列,为客户提供从后端存储、训练到前端推理的整套解决方案。
GPU卡片透过高传输率的PCle插槽进行数据传输,可最大化加速/并行计算。其应用领域广泛,例如人工智能、深度学习、无人驾驶车、智慧城市、医疗、大数据、高性能计算、虚拟现实及更多。
深耕垂直产业,有着广泛的软硬件整合经验,且拥有多样化产品线的研华,可针对不同场域提供适合的深度学习完整解决方案。目前研华的深度学习完整解决方案已成功导入制造业、农业、零售业、交通运输业等诸多行业。
除此,研华还能从丰富的第三方合作伙伴中引进系统所需的资源,从而减轻繁杂的系统建置工作并降低技术门坎,让系统开发者能尽速完成项目。我们相信透过这样资源整合的全方位服务,由AI深度学习技术延伸出的创新智能应用,遍地开花的繁荣景象定是指日可待。
(转载)