软硬协同 坤前AI算力方案促进产业智能升级
最近很多人关注软硬协同 坤前AI算力方案促进产业智能升级,山东创新网小沐从网上搜集一些关于软硬协同 坤前AI算力方案促进产业智能升级内容,希望对您有用。
在过去几年,全球的数据量快速增长,类型也不断丰富,模型训练拥有海量的优质样本, 常规的计算能力远远无法应对复杂多样的新需求,为此,南京坤前计算机科技有限公司提出了基于深度卷积神经网络的图像、语音、文字识别软硬件一体化解决方案。方案基于第三代英特尔® 至强® 可扩展处理器,结合英特尔® OpenVINO™ 工具套件在推理中的优异性能表现,为智能制造、智慧交通等行业客户提供一站式部署以及前所未有的便利与高性能,真正实现云边协同。
在“新基建”驱动的数字经济下,随着大数据、AI等技术的快速创新和发展,各行业数据呈现出了井喷式的需求,尤其深度学习领域,随着人脸识别、拍照识别、物体识别新型场景的出现,需要新的技术和方案支撑。
基于深度学习的图像识别技术发展痛点是用来训练识别模型的样本数据不足,使得模型精准度往往不高;再加上图像识别算法不够先进,还主要停留在浅层训练的机器学习阶段,但更大的挑战来自于算法和硬件计算架构,计算机集群性能不够,计算用时太长,大大拉长了研发周期、拖慢产品进程。
坤前AI算力整合解决方案通过软硬件优化,深度融合机器学习平台与传统硬件,将第三代英特尔® 至强® 可扩展处理器作为核心算力支撑,并深度集成英特尔® OpenVINO™ 工具套件,充分利用英特尔® AVX-512指令集和英特尔® 深度学习加速技术,能有效实现异构资源的高效管理、调度和监控,提供了从模型开发、训练到部署的完整流程和工具。
人工智能推理与训练全流程图
坤前AI算力整合解决方案采用坤前自研的坤前AI管理平台,将CPU资源、GPU资源、内存、硬盘等资源虚拟化后进行统一管理,按需分配给不同用户和群组使用,可助力工业互联网、智能制造和人工智能企业更快地进入深度学习研发领域,更快地推出能够解决实际问题和需求的产品。极大降低人工智能进入门槛,提高人工智能创新和研发的效率。
1、计算节点:
在计算节点中,坤前 KI4200G 系列服务器可满足用户对空间部署和高性能的需求,是一款基于英特尔® 至强® 可扩展处理器平台设计开发的 4U 双路机架式服务器。在 4U 高度空间中体现了性能、扩展性和密度的完美融合,可适用于能源、电力、制造业等行业对虚拟化、云计算、深度学习推理计算相关应用的需求。
最大支持 2 颗英特尔® 至强® 可扩展系列处理器,支持更多核心,支持英特尔® AVX-512 指令集处理器之间采用更多、更快的 UPI 总线,大幅提升CPU 之间协作效率;最大 24 DIMM 内存插槽,6TB 3DS ECC DIMM/LRDIMM DDR4 2933MHz,使用最新高性能内存,显著提高内存读写速率;支持英特尔® 傲腾™ 持久内存;可选 SAS RAID 卡,支持 RAID 0/1/5/6/50/60,支持 Cache 超级电容保护,提供 RAID 状态迁移、RAID 配置记忆等功能;最大可提供8个 PCI-E 3.0 × 16 或 20 个 PCI-E 3.0 × 8的扩展支持。2、AI管理平台:
坤前AI管理平台从基本业务需求出发,采用虚拟化技术进行资源的调度和分配,支持主流机器学习框架(如TensorFlow、Caffe、PyTorch、Keras等),提供深度学习的算法库(LeNet、MLSTM、AlexNet、GoogleNet、ResNet、GAN、Faster R-CNN等)、 标准数据集(ImageNet、COCO、PASCAL VOC、CIFAR、Open Image、Youtube-8M)。
此外,坤前AI算力整合方案还通过部署英特尔® OpenVINO™ 工具套件来加强推理的性能。英特尔® OpenVINO™ 工具套件为用户提供了出色的深度学习推理工具,在第三代英特尔® 至强® 可扩展处理器增强的 AVX-512 和 VNNI 指令的加成上,拥有出色的推理的表现。OpenVINO可以将目前主流的深度学习框架(如TensorFlow、PyTorch、Caffe等)的模型转换成IR格式模型,并使用推理引擎将IR模型在CPU、GPU上进行部署运行。OpenVINO不仅提供已经训练好的主流深度学习模型,而且提供模型转换器对自定义模型进行转换。
通过部署英特尔® OpenVINO™ 工具套件,坤前AI算力整合方案在边缘到云上都有着广泛的应用。
拥有丰富的服务器定制经验的南京坤前正在通过AI创新技术赋能各行各业,从硬件到软件不断加持企业打造强大的AI基础设施,目前为三百余家行业客户提供过差异化的全流程定制服务,产品已经广泛应用于互联网、人工智能、软件、教育、金融、交通、医疗等行业。