英特尔联手中兴优化深度学习模型推理实现降本增效

为了加速端到端的深度学习模型优化和部署,英特尔® OpenVINO™ 工具套件被集成到中兴通讯的 AI 模型推理应用加速工具链 Adlik 中,可以在基于第三代英特尔® 至强® 可扩展处理器的服务器上实现出色运行。该方案在电信领域中能够有效提升运营商 CPU 推理服务器资源利用率,支撑运营商全面实现自智网络,同时助力运营商的节能减排。