新闻中心

EEPW首页 > 智能计算 > 最新动态 > 最新OpenVINO 2021发行版介绍

最新OpenVINO 2021发行版介绍

作者:时间:2020-10-23来源:收藏

英特尔分发版 2021工具套件发布说明

本文引用地址:http://www.eepw.com.cn/article/202010/419563.htm

工具套件介绍

英特尔分发版工具套件用于解决计算机视觉、语音识别、自然语言处理以及推荐系统等应用方案的快速部署。基于最新的人工神经网络,包括卷积神经网络、序列神经网络和基于注意力机制的网络等,该套件在跨英特尔硬件平台上支持计算机视觉和非视觉负载,并支持从边缘到云的高性能AI和深度学习推理。

下载地址 |

https://software.intel.com/content/www/cn/zh/develop/tools/openvino-toolkit/download.html?cid=diad&source=EEPW&campid=prc_Q3_IOTG-DE_OpenVINO-DA_geo&content=prod-reg_&medium=train

主要特性:

1. 支持从边缘到云的深度学习推理。

2. 使用通用API,支持跨英特尔各类加速器的异构执行,包括英特尔CPU、英特尔集成图形处理器、英特尔高斯和神经网络加速器、英特尔第二代神经网络计算棒和基于英特尔Movidius视觉处理单元的英特尔视觉加速器设计。

3. 通过易于使用的CV函数库和预优化的计算核心,加快上市时间。

4. 包含对标准CV的优化调用,以及OpenCV和OpenCL。


第1版中的更新和更改

要点综述

  • 2020年10月推出的一个主要版本(2021版)。建议您升级到此版本,因为它引入了一些新的重要功能,以及不兼容的更改。

  • 对TensorFlow 2.2.x的支持。正式支持在 TensorFlow 2.2.x 框架中训练的模型。

  • 支持最新硬件。正式支持用于物联网应用的第11代英特尔酷睿处理器家族(之前代号为 Tiger Lake),可通过新的英特尔Iris Xe图形处理器和英特尔 DL Boost 指令集获得推理性能的增强,以及通过第二代英特尔高斯和神经网络加速器获得低功耗语音处理的加速。

  • 不止是计算机视觉。针对计算机视觉之外的负载,比如音频、语音、语言和推荐,通过OpenVINO工具套件也实现了端到端部署。为此提供了新的预训练模型、公开模型的支持、代码示例和演示以及对非视觉DL Streamer的支持。

  • 深度学习工作台DL Workbench与Intel DevCloud for the Edge的集成(Beta版)将在2020年第4季度发布。开发人员现在可以使用图形化的方式来分析模型。您可以通过Intel DevCloud for the Edge平台上(而不是在本地开发机上)的深度学习工作台DL Workbench对同一应用方案的多种远程硬件配置进行比较、可视化和性能微调等分析。

  • OpenVINO模型服务器。作为OpenVINO工具套件的一个附加组件,它是一个可扩展的微服务,提供了用于推理的gRPC或HTTP/REST端口,从而使在云服务器或边缘服务器环境中部署模型变得更容易。它现在是用C++实现的,以减少容器资源占用(例如,小于500 MB),并提供更高的吞吐量和更低的延迟。

  • 现在也支持Gitee和PyPI渠道下载。建议从适合您的分发方法中选择并下载。

与2020.4版相比,不兼容的更改

  • 弃用API列表和API更改。(见原英文版介绍)

  • 自2020.3版本以来,IRv7已经弃用,并且当前版本也不再支持,建议迁移到最高版本IRv10。IRv10提供了流线型同时也是面向未来的操作集,兼容通用的框架,并且对量化模型的运行提供更好的低精度表示,同时也支持可变形(reshape)的模型。

  • 移除了Inference Engine NNBuilder API。

  • 移除了一些Inference Engine公共API。(见原英文版介绍)

  • 从2020.2版本开始,之前所有通过nGraph实现的功能都已经合并到了OpenVINO工具套件。因此之前的ONNX RT Execution Provider for nGraph也已经合并到了ONNX RT Execution Provider for OpenVINO,所以ONNX RT Execution Provider for nGraph 从2020年6月1日起就被弃用了并且会在2020年12月1日移除。建议迁移到ONNX RT Exectuion Provider for OpenVINO,它将作为所有英特尔硬件上AI推理的统一方案。

  • 弃用或移除了一些nGraph公共API。(见原英文版介绍)

  • 更新了nGraph公共API的结构。

  • 更新了系统需求。

  • 为提高基于FPGA的深度学习方案的定制化水平,英特尔将转移到下一代可编程深度学习方案。作为这个计划的一部分,以后的非LTS标准发布将不再支持Intel Vision Accelerator Design with Intel Arria 10和Intel Programmable Acceleration Card with Intel Arria 10 GX FPGA。不过在LTS版本中还将继续支持。关于下一代基于FGPA可编程深度学习方案的问题,可咨询您的销售代表或联系我们。

模型优化器

公共更改

  • 实现了一些优化转换,将操作的子图替换为HSwish、Mish、Swish和SoftPlus操作。

  • 模型优化器生成的IR中会默认保持子图的形状计算。

  • 使用推理引擎的可变形API修复了模型优化器生成不能改变形状的模型中间表示的转换问题。

  • 实现了原始网络中不可变形模式的变换。

  • 增加了TensorFlow 2.x的依赖信息。

  • 用ScatterNDUpate 4替换了SparseToDense操作。

ONNX

  • 增加了使用“–output”命令行参数指定模型输出张量名称的功能。

  • 添加了对以下操作的支持:

o Acosh

o Asinh

o Atanh

o DepthToSpace-11, 13

o DequantizeLinear-10 (zero_point must be constant)

o HardSigmoid-1,6

o QuantizeLinear-10 (zero_point must be constant)

o ReduceL1-11, 13

o ReduceL2-11, 13

o Resize-11, 13 (except mode="nearest" with 5D+ input, mode="tf_crop_and_resize", and attributes exclude_outside and extrapolation_value with non-zero values)

o ScatterND-11, 13

o SpaceToDepth-11, 13

TensorFlow

添加了对以下操作的支持:

  • Acosh

  • Asinh

  • Atanh

  • CTCLoss

  • EuclideanNorm

  • ExtractImagePatches

  • FloorDiv

MXNet

添加了对以下操作的支持:

  • Acosh

  • Asinh

  • Atanh

Kaldi

修复了对ParallelComponent支持的Bug。现在已经完全支持了。

推理引擎

公共更改

  • 迁移到了 Microsoft Studio C++(MSVC)2019 编译器并将其作为 Windows 平台的默认选项,这使得 OpenVINO 运行时库的二进制大小减小了2.5倍。

  • 将基于CPU的预处理操作(包含不同通道数图片的大小调整、布局转换和颜色空间转换等)移植到AVX2和AVX512指令集。


推理引擎Python API

  • 增加了nGraph Python API,提供了访问nGraph Function的Python接口,方便对加载的网络图进行分析。支持设置网络图的节点参数。

  • 支持使用Python API直接读取ONNX模型。

推理引擎C API

无变化。

CPU插件

添加了对新操作的支持:

  • ScatterUpdate-3

  • ScatterElementsUpdate-3

  • ScatterNDUpdate-4

  • Interpolate-4

  • CTC-Loss-4

  • Mish-4

  • HSwish-4

GPU插件

  • 支持面向物联网应用的第11代英特尔酷睿处理器家族(之前代号为Tiger Lake)。

  • 支持 INT8 推理。这是英特尔DL Boost技术在英特尔集成图形处理器上的优化和应用。

  • 支持新操作:

o Mish

o Swish

o SoftPlus

o HSwish1234

MYRIAD 插件

  • 增加了对 ONNX下Faster R-CNN网络 的支持,其具有固定的输入形状和动态的输出形状。

  • 增加了用于实现自定义 OpenCL 层的自动 DMA 的支持。

  • 增加了对新操作的支持:

o Mish

o Swish

o SoftPlus

o Gelu

o StridedSlice

o I32 data type support in Div

  • 提升了已有操作的性能:

o ROIAlign

o Broadcast

o GEMM

  • 为myriad_compile添加了一个新选项 VPU  TILING_uCMX_ LIMIT_uKB,从而限制 DMA 传输大小。

  • 提供了仅用于英特尔第二代神经网络计算棒中的SHAVE处理器的OpenCL编译器。

HDDL 插件

  • 支持用于自定义OpenCL层的自动DMA。

  • 与MYRIAD插件中相同的新增操作和优化。

  • 提供了仅用于Intel Vision Accelerator Design with Intel Movidius VPUs中的SHAVE处理器的OpenCL编译器。

GNA插件

  • 支持面向物联网应用的第11代英特尔酷睿处理器家族(之前代号为Tiger Lake)。增加了对多个新的网络层以及层间融合的支持。

  • 增加了从流中直接导入模型的支持。

  • 在Windows上增加了对QoS机制的支持。在Python基准测试程序中增加了对GNA特定参数的支持。

nGraph

  • 引入opset4。这个新的操作集包含了以下操作。注意并不是所有的OpenVINO插件都支持这些操作。

o Acosh-4

o Asinh-4

o Atanh-4

o CTCLoss-4

o HSwish-4

o Interpolate-4

o LSTMCell-4

o Mish-4

o Proposal-4

o Range-4

o ReduceL1-4

o ReduceL2-4

o ScattenNDUpdate-4

o SoftPlus-4

o Swish-4

  • 增加了nGraph Python API,提供了访问nGraph Function的Python接口,方便对加载的网络图进行分析。

  • 重构了nGraph转换API,使得它的结构更加透明并且使用起来更友好。

  • 改变了nGraph文件夹的结构。nGraph公共API从其它代码中分离了出来,并且ONNX导入器也移到了前端文件夹。

神经网络压缩框架(NNCF)

  • 发布了1.4版本的NNCF,主要面向PyTorch框架。

  • 支持导出剪枝后的模型到ONNX。

  • 增加了基于FP16数据类型的量化微调。

  • 增加了通用压缩算法中初始化环节的批量归一化适配。

  • 提升了基本通道量化的训练性能。

  • 增加了对Embedding和Conv1D权重的默认量化。

训练后优化工具(POT)

  • 在精度敏感算法中增加了量化参数的自动调整。

  • 加速了Honest偏差纠正算法。相比于在2020.4版本中使用use_fast_bias=false的情况,平均量化时间缩短了4倍。

  • POT API产品化,并提供了如何使用此API的示例和文档。

  • 默认量化策略对应于兼容模式,需要在不同硬件上得到几乎一致的准确率。

  • 覆盖了44个新的模型。

深度学习工作台

添加了对以下操作的支持:

- Acosh
- Asinh
- Atanh
- CTCLoss
- EuclideanNorm
- ExtractImagePatches
- FloorDiv

OpenCV

  • 已将版本更新到4.5.0。

  • 将上游许可证更改为 Apache 2。

  • 在 OpenCV 应用程序中添加了对多个 OpenCL 上下文的支持。

Samples

更新了推理引擎C++示例演示如何直接加载ONNX模型。


Open Model Zoo

  • 通过新增CNN预训练模型和重新生成中间表示(xml+bin)扩展了Open Model Zoo:

o 替代了2020.4中的模型:

-face-detection-0200

-face-detection-0202

-face-detection-0204

-face-detection-0205

-face-detection-0206

-person-detection-0200

-person-detection-0201

-person-detection-0202

-person-reidentification-retail-0277

-person-reidentification-retail-0286

-person-reidentification-retail-0287

-person-reidentification-retail-0288


o 增加了新的模型:

-bert-large-uncased-whole-word-masking-squad-emb-0001

-bert-small-uncased-whole-word-masking-squad-0002

-formula-recognition-medium-scan-0001-im2latex-decoder

-formula-recognition-medium-scan-0001-im2latex-encoder

-horizontal-text-detection-0001

-machine-translation-nar-en-ru-0001

-machine-translation-nar-ru-en-0001

-person-attributes-recognition-crossroad-0234

-person-attributes-recognition-crossroad-0238

-person-vehicle-bike-detection-2000

-person-vehicle-bike-detection-2001

-person-vehicle-bike-detection-2002

-person-vehicle-bike-detection-crossroad-yolov3-1020

-vehicle-detection-0200

-vehicle-detection-0201

-vehicle-detection-0202


o 生命周期结束了的模型:

-face-detection-adas-binary-0001

-pedestrian-detection-adas-binary-0001

-vehicle-detection-adas-binary-0001

  • 增加了新的演示程序:

o bert_question_answering_embedding_demo, Python

o formula_recognition_demo, Python

o machine_translation_demo, Python

o sound_classification_demo, Python

o speech_recognition_demo, Python 

  • Open Model Zoo工具:

o 增加了模型下载速度。

o 在每个模型的文件夹下增加了精度检查的配置文件。

o 简化了精度检查配置文件,不再需要给出模型IR的路径、目标硬件以及数据精度等配置信息。

o 通过推理引擎预处理API使得精度检查工具支持优化的预处理操作。

o 不需要将ONNX模型转成IR格式就可以在精度检查工具中进行ONNX模型评估。

深度学习流管道分析器(DL Streamer)

  • 通过增加对音频分析的支持,扩大了DL Streamer的使用范围,不止限于视频。增加了一个新的gvaaudiodetect元素用于音频事件的检测(AclNet模型)。在示例文件夹下增加了一个这个管道的示例。

  • 增加了一个新的gvametaaggregate元素用于整合来自一个管道不同分支上的结果。这样就可以支持创建复杂的管道,比如将一个管道分拆成多个分支进行并行处理,然后整合结果。

  • 实现了GPU内存共享,即zero-copy,使得数据在VAAPI解码、大小调整、CSC以及DL Streamer的各推理元素间可以更高效的共享,达到整体管道性能的提升。

  • 在gvatrack和gvawatermark元素的输入和输出处增加GPU内存,这样在GPU进行推理的时候,就可以不用调用gvaapipostproc元素显示地将数据从GPU内存转移到CPU内存。

  •  [预览]扩展DL Streamer支持 Ubuntu 20.4。

  • 更多信息请参考开源代码库。

OpenVINO模型服务器

  • 模型服务器是一种可扩展且高性能工具,用以提供经OpenVINO工具套件优化后的模型。它提供的基于gRPC或HTTP/REST端口的推理服务,可以帮助您快速将模型产品化。

  • 主要功能和提升:

o 提升了单服务器示例的扩展性。通过新的C++实现,您可以以线性扩展的效果充分利用已有资源,避免前端的性能瓶颈。

o 降低客户端和服务器之间的时延。

o 降低资源占用。通过切换到C++实现或减少依赖,Docker镜像大小可以降低到450MB。

o 增加对线上模型进行更新的支持。服务检测器的配置文件可以根据需要而不需要重启服务就可以更改或重新加载模型。

  • 更多信息请参考开源代码库。






关键词: OpenVINO

评论


相关推荐

技术专区

关闭