安装适用于 Windows* 10 的英特尔® Distribution of OpenVINO™ 工具套件

注意

  • 本指南适用于 64 位 Microsoft Windows* 10。用于 Linux* 操作系统的信息和说明,请参见用于 Linux 的安装指南
  • 用于 Windows* 10 带 FPGA 支持的英特尔® Distribution of OpenVINO™ 工具套件

请参见带 FPGA 支持的 Windows* 安装指南

  • Intel® System Studio 是一款一体式跨平台工具套件,专门构建以简化系统成型,提高系统和物联网设备应用程序在英特尔® 平台上的性能。如果您通过 Intel® System Studio 使用英特尔® Distribution of OpenVINO™,请前往使用 Intel® System Studio

简介

重要

  • 本指南中的所有步骤都需要执行,除非另有说明。
  • 除了下载软件包外,您还必须安装所有的依赖包并完成配置步骤。

当所有这些步骤都完成时,您的安装才算完成:

  1. 安装英特尔® Distribution of OpenVINO™ 工具套件核心组件
  2. 安装依赖包:
  3. 设置环境变量
  4. 配置模型优化器
  5. 运行两份验证脚本来验证安装
  6. 可选: 

关于英特尔® Distribution of OpenVINO™ 工具套件

英特尔® Distribution of OpenVINO™ 工具套件可加快部署可模拟人类视觉的应用程序和解决方案。该工具套件基于复杂神经网络(CNN),通过英特尔® 硬件扩展了计算机视觉 (CV) 工作负载,从而最大化性能。

英特尔® Distribution of OpenVINO™ 工具套件包括了英特尔® Deep Learning Deployment Toolkit(英特尔® DLDT)。要获得更多信息,请在线参阅英特尔® Distribution of OpenVINO™ 工具套件概述页面。

适用于 Windows* 10 的英特尔® Distribution of OpenVINO™ 工具套件

已被纳入安装包

以下组件默认安装:

组件描述
模型优化器该工具导入、转换并优化在常用框架中训练好的模型,使其变成一种可供英特尔工具——尤其是推理引擎使用的格式。
注意:受欢迎的框架包括 Caffe*、TensorFlow*、MXNet* 和 ONNX* 等。
推理引擎这是运行深度学习模型的引擎。它包括了一套库,在您的应用程序中轻松进行推理集成。
OpenCV*为英特尔® 硬件编译的 OpenCV* 社区版本
推理引擎样本一套简单的控制台应用程序,展示了如何在您的应用程序中使用英特尔的深度学习推理引擎。
演示一套控制台应用程序,展示了您如何在应用程序中使用推理引擎来解决特定使用案例
其它工具一套用于加工您模型的工具
预训练模型的文档Open Model Zoo 库可以找到预训练模型的文档

系统要求

只有搭载英特尔® CPU、英特尔® Processor Graphics、英特尔® Movidius™ 神经电脑棒、英特尔® 神经电脑棒 2 和包含英特尔® Movidius™ 视觉处理器选项的英特尔® Vision Accelerator Design 才支持 Windows* 安装。Linux* 需要使用 FPGA。

硬件

处理器备注:

操作系统

软件

安装步骤

安装英特尔® Distribution of OpenVINO™ 工具套件核心组件

  1. 如果您尚未下载英特尔® Distribution of OpenVINO™ 工具套件,请下载最新版本。默认情况下,该文件以w_openvino_toolkit_p_<version>.exe形式保存到Downloads目录中。
  2. 前往Downloads文件夹,双击w_openvino_toolkit_p_<version>.exe。一个窗口会打开,让您选择安装目录和组件。默认安装目录是C:\Program Files (x86)\IntelSWTools\openvino_<version>,为了操作方便,也会创建最新安装的快捷方式:C:\Program Files (x86)\IntelSWTools\openvino。如果您选择不同的安装目录,安装程序将为您创建目录:

    openvino-install-windows-01.png
  3. 单击下一步
  4. 安装程序将询问您是否同意收集信息。选择您想提供的选择。单击下一步
  5. 如果您缺少外部依赖包,您将看到一个警告画面。写下您缺少的依赖包。此时您不需要进行任何额外操作。安装好英特尔® Distribution of OpenVINO™ 工具套件核心组件后,安装缺少的依赖包。下面的示例画面显示了您缺少两个依赖包:

    openvino-install-windows-02.png
  6. 单击下一步
  7. 当安装的第一部分完成时,最终的画面告诉您,核心组件已经安装,并需要额外的步骤:

    openvino-install-windows-03.png
  8. 点击完成,关闭安装向导。一个新的浏览器窗口会打开,显示安装指南的下一部分,来设置环境变量。您处于同一文档中。新窗口会在您未预先打开本安装指南并运行安装程序时打开。
  9. 如果安装显示您必须安装依赖包,则首先安装它们。如果没有缺少的依赖包,您可以继续下一步,设置环境变量

设定环境变量

注意:如果您将英特尔® Distribution of OpenVINO™ 产品安装到默认安装目录以外,则用您安装软件的目录替换C:\Program Files (x86)\IntelSWTools

您必须首先更新一些环境变量,才能编译并运行 OpenVINO™ 应用程序。打开命令行,运行setupvars.bat批处理文件,临时设置您的环境变量:

cd C:\Program Files (x86)\IntelSWTools\openvino\bin\
setupvars.bat

(可选):当您关闭命令行窗口时,OpenVINO 工具套件环境变量会被删除。作为另一种选项,您可以按照下列手动步骤永久设置环境变量:

环境变量已经设定。继续下一步,配置模型优化器。

配置模型优化器

重要:这些步骤为必须。您必须至少为一个框架来配置模型优化器。如果您没有完成本节中的步骤,模型优化器将无法运行。

注意:如果您看到一个表示 Python 未安装的错误,但您确定已经安装时,您的计算机可能无法找到程序。要查看向系统环境变量添加 Python 的说明,请参见更新您的 Windows 环境变量

模型优化器是英特尔® Distribution of OpenVINO™ 工具套件的一个关键组件。如果您不通过模型优化器来运行模型,则无法使用您训练好的模型来进行推理。当您通过模型优化器运行预训练的模型时,您的输出是网络的中间表示 (IR)。IR 是一对文件,描述整个模型:

推理引擎可以使用一个 CPU、GPU、VPU 硬件通用的 API 来读取、加载和推理 IR 文件。

模型优化器是一种基于 Python* 的命令行工具 (mo.py),位于 C:\Program Files (x86)\IntelSWTools\openvino\deployment_tools\model_optimizer。对经过 Caffe*、TensorFlow*、MXNet* 和 ONNX* 等框架训练的模型使用这个工具,将它们转换为可供推理引擎使用的优化 IR 格式。

本节介绍了如何使用脚本来配置模型优化器,不论是针对所有支持的框架进行配置,还是针对单个框架进行配置。如果您想要手动配置模型优化器而不是使用脚本,请参见配置模型优化器页面上的使用手动配置流程部分。

有关模型优化器的更多信息,请参见模型优化器开发人员指南

模型优化器配置步骤

您可以同时为所有支持的框架,或着单次单个框架来配置模型优化器配置。选择最适合自己需要的选项。如果您看到错误消息,请确保您已经安装所有依赖包。

重要:需要互联网接入才能成功执行以下步骤。如果您只有通过代理服务器才能访问互联网,请确保它已经在您的环境中得到配置。

注意:在以下步骤中:

  • 如果您想要使用已安装的另一版本的英特尔® Distribution of OpenVINO™ 工具套件中的模型优化器,则将openvino替换为openvino_<version>
  • 如果您将英特尔® Distribution of OpenVINO™ 工具套件安装到默认安装目录以外,则用您安装软件的目录替换C:\Program Files (x86)\IntelSWTools

这些步骤使用命令行执行,确保您看到错误消息。

选项 1:同时为所有支持的框架配置模型优化器:

  1. 打开命令提示符。要做到这一点,在您的搜索 Windows 方框中输入cmd,然后按下回车键。在打开的窗口中键入命令:

    command_prompt.PNG
  2. 前往模型优化器的先决条件目录。
    cd C:\Program Files (x86)\IntelSWTools\openvino\deployment_tools\model_optimizer\install_prerequisites
  3. 运行以下批处理文件,为 Caffe*、TensorFlow*、MXNet*、Kaldi* 和 ONNX* 配置模型优化器:
    install_prerequisites.bat

选项 2:分别为每个框架配置模型优化器:

  1. 前往模型优化器的先决条件目录:
    cd C:\Program Files (x86)\IntelSWTools\openvino\deployment_tools\model_optimizer\install_prerequisites
  2. 运行您将通过模型优化器来使用的框架的批处理文件。您可以运行多个:
    • 用于 Caffe:
      install_prerequisites_caffe.bat
    • 用于 TensorFlow:
      install_prerequisites_tf.bat
    • 用于 MXNet
      install_prerequisites_mxnet.bat
    • 用于 ONNX
      install_prerequisites_onnx.bat
    • 用于 Kaldi
      install_prerequisites_kaldi.bat

模型优化器针对一个或多个框架得到配置。通过和下列画面类似的画面来表示配置成功:

Configure-MO.PNG

您可以使用两个简短的演示来查看运行英特尔 Distribution of OpenVINO 工具套件的结果,并验证您安装成功。演示脚本必须进行,因为它们也会执行额外的配置步骤。继续到下一部分。

如果您想要使用 GPU 或 VPU,或者更新您 Windows* 环境变量,则请阅读可选步骤部分。

使用验证脚本来验证您的安装

重要:此部分为必须。除确认您的安装已成功之外,演示脚本还执行其他步骤,例如,设定您的计算机,以便使用推理引擎样本。

注意:本节中的路径均假设您使用了默认安装目录。如果您使用的目录不同于C:\Program Files (x86)\IntelSWTools,则使用您安装软件的位置来更新目录。

为了验证安装并编译两个样本,在 CPU 上运行随产品一同提供的验证应用程序:

  1. 打开命令行窗口。
  2. 前往推理引擎演示目录:
    cd C:\Program Files (x86)\IntelSWTools\openvino\deployment_tools\demo\
  3. 根据下一部分的说明,运行验证脚本。

运行图像分类验证脚本

要运行脚本,运行demo_squeezenet_download_convert_run.bat文件:

demo_squeezenet_download_convert_run.bat

该脚本会下载一个 SqueezeNet 模型,使用模型优化器将其转换为.‍bin.‍xml中间表示 (IR) 文件。推理引擎要求此模型转换,这样它才能将 IR 用作输入,并在英特尔硬件上实现最佳性能。
这个验证脚本构建了异步图像分类样本应用程序,并在演示目录中使用car.png图像运行。要获得中间演示的简短描述,请参见模型优化器配置

当验证脚本完成时,您将拥有十个最常用类别的标签和推理能力:

image_classification_script_output_win.png

此演示已完成。保持命令行打开,并继续到下一部分,运行推理管道演示。

运行推理管道验证脚本

要运行脚本,仍然在命令行中打开demo_security_barrier_camera.bat文件:

demo_security_barrier_camera.bat

这个脚本会下载三款预训练模型 IR,构建安全性障碍摄像头演示应用程序,并用下载的模型和demo目录中的car_1.bmp图像运行该程序,展示一个推理管道。验证脚本使用车辆识别,其中车辆属性的构建互为基础,以缩小特定属性的范围。

首先,一个物体被识别为车辆。这个识别用于作为下一模型的输入,该模型能识别特定的车辆属性,包括车牌。最后,识别出的属性,包括车牌,都输入到第三个模型,该模型识别车牌中的特定字符。

演示完成时,您将有两个打开的窗口:

inference_pipeline_script_win.png

关闭图像查看窗口,结束演示。

要获得更多关于验证脚本的信息,查看C:\Program Files (x86)\IntelSWTools\openvino\deployment_tools\demo中的README.txt

要详细的 OpenVINO™ 预训练对象侦测和对象识别模型的说明,请参见 OpenVINO™ 工具套件预训练模型页面。

在本节中,您看到了英特尔® Distribution of OpenVINO™ 工具套件功能的预览。

祝贺您。您已经完通过 CPU 来使用您训练好的模型所需的安装、配置和构建步骤。

如果您想要使用英特尔® Processor graphics(GPU)、英特尔® Movidius™ 神经电脑棒、英特尔® 神经电脑棒 2 或搭载英特尔® Movidius™ (视觉处理器)的英特尔® Vision Accelerator Design,或者将 CMake* 和 Python* 添加到您的 Windows* 环境变量,则请阅读下一部分来了解额外的步骤。

如果您想要在支持的硬件设备之一上继续,并运行图像分类样本应用程序,请参见运行图像分类样本应用程序部分。

可选步骤

如果您想要进行下列任务,则可以使用可选步骤:

可选:适用于英特尔® Processor Graphics(GPU)的额外安装步骤

注意:只有您想要使用 GPU 时,才需要这些步骤。

如果您的应用程序可以将计算卸载到英特尔® 集成显卡上,您必须拥有适用于 Windows 15.65 或更高版本的英特尔显卡驱动程序。要查看您是否已经安装此驱动:

  1. 在您的 Windows 搜索框中输入设备管理器设备管理器打开。
  2. 点击下拉箭头,查看显示适配器。您会看到在您计算机上安装的适配器:

    DeviceManager.PNG
  3. 右击适配器名称并选择属性
  4. 点击驱动标签来查看驱动版本。确保版本号是 15.65 或更高。

    DeviceDriverVersion.PNG
  5. 如果您的设备驱动版本低于 15.65,那么请下载并安装更高的版本

您已经更新好设备驱动,可以使用您的 GPU 了。

可选:搭载英特尔® Movidius™ VPU 的英特尔® 视觉加速设计的额外安装步骤

注意:只有当您想要使用搭载英特尔® Movidius™ VPU 的英特尔® 视觉加速设计时,这些步骤才是必须的。

要在搭载英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design 上执行推理,需要进行下列额外安装步骤:

  1. 如果您的搭载英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design 需要 SMBUS 到 PCIe 插槽的连接(HW 版本 Fab-B 和之前版本的原始视频数据卡),那么请安装 SMBUS 驱动:
    1. 前往<INSTALL_DIR>\deployment_tools\inference-engine\external\hddl\SMBusDriver目录,<INSTALL_DIR>是安装英特尔 Distribution of OpenVINO 工具套件的目录。
    2. 右键点击hddlsmbus.inf文件,然后从弹出菜单中选择安装
  2. 下载并安装 Visual Studio 2015 版本的 Visual C++ Redistributable

您已经安装好您的设备驱动程序,且准备好使用您的搭载英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design。

并参见:

配置完成后,您可以运行带 HDDL 插件的运行脚本,验证搭载英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design。

  1. 打开命令行窗口。
  2. 前往推理引擎演示目录:
    cd C:\Program Files (x86)\IntelSWTools\openvino\deployment_tools\demo\
  3. 运行图像分类验证脚本。如果您只有通过代理服务器才能访问互联网,请确保它已经在您的环境中得到配置。
    demo_squeezenet_download_convert_run.bat -d HDDL
  4. 运行推理管道验证脚本:
    demo_security_barrier_camera.bat -d HDDL

可选:更新您的 Windows 环境变量

注意:这些步骤仅在特殊情况下才会需要,比如,您忘记在 CMake* 或 Python* 安装期间勾选相应复选框,将应用程序添加到您的 Windows PATH环境变量中。

PATH如果您执行的指令返回错误信息,指出无法找到应用程序时,使用这些步骤来更新您的 Windows。如果您没有在安装期间将 CMake 或 Python 添加到PATH环境变量中,那么这就有可能发生。

  1. 在您的 Windows 搜索框中,输入编辑系统环境变量并按下回车键。一个类似于下列画面的窗口将显示:
    System_Properties.PNG
  2. 在屏幕下方,点击环境变量
  3. 系统变量下,单击路径,然后单击编辑
    Environment_Variables-select_Path.PNG
  4. 在打开的窗口中,单击浏览。浏览窗口打开:
    Add_Environment_Variable.PNG
  5. 如果您需要将 CMake 添加到PATH,浏览到您安装 CMake 的目录。默认目录是C:\Program Files\CMake
  6. 如果您需要将 Python 添加到PATH,浏览到您安装 Python 的目录。默认目录是C:\Users\<USER_ID>\AppData\Local\Programs\Python\Python36\Python
  7. 反复单击确定,关闭每一个画面。

您的PATH环境变量已更新。

运行图像分类样本应用程序

重要:本节要求您运行验证脚本来验证安装。此脚本构建了图像分类样本应用程序,下载了需要的 Caffe* Squeezenet 模型,并将其转换为 IR。

在本节中,您将运行图像分类样本应用程序,在三种类型的英特尔® 硬件:CPU、GPU、VPU 上使用 Caffe* Squeezenet1.1 模型。

运行图像分类验证脚本时,会自动构建图像分类样本应用程序二进制文件,还会创建 FP16 模型 IR 文件。

位于C:\Users\<username>\Documents\Intel\OpenVINO\inference_engine_samples_build\intel64\Release\目录中的图像分类样本应用程序二进制文件。Caffe* Squeezenet 模型 IR 文件(.bin.xml)位于C:\Users\<username>\Documents\Intel\OpenVINO\openvino_models\ir\public\squeezenet1.1\FP16\目录中。

注意:如果您将英特尔® Distribution of OpenVINO™ 工具套件安装到默认安装目录以外,C:\Program Files (x86)\IntelSWTools则用您安装软件的目录替换。

要运行样本应用程序:

  1. 设置环境变量:
    cd C:\Program Files (x86)\IntelSWTools\openvino\bin\setupvars.bat
  2. 前往样本构建目录:
    cd C:\Users<username>\Documents\Intel\OpenVINO\inference_engine_samples_build\intel64\Release
  3. 运行样本可执行文件,将demo目录中的car.png文件作为输入图像,使用您的 FP16 模型和硬件设备插件来执行推理。

    注意:在 CPU 以外的硬件上运行样本应用程序需要执行额外的硬件配置步骤

    • 用于 CPU:
      classification_sample_async.exe -i "C:\Program Files (x86)\IntelSWTools\openvino\deployment_tools\demo\car.png" -m "C:\Users<username>\Documents\Intel\OpenVINO\openvino_models\ir\public\squeezenet1.1\FP16\squeezenet1.1.xml" -d CPU
    • 用于 GPU:
      classification_sample_async.exe -i "C:\Program Files (x86)\IntelSWTools\openvino\deployment_tools\demo\car.png" -m "C:\Users<username>\Documents\Intel\OpenVINO\openvino_models\ir\public\squeezenet1.1\FP16\squeezenet1.1.xml" -d GPU
    • 用于 VPU(英特尔® Movidius™ 神经电脑棒和英特尔® 神经电脑棒 2):
      classification_sample_async.exe -i "C:\Program Files (x86)\IntelSWTools\openvino\deployment_tools\demo\car.png" -m "C:\Users<username>\Documents\Intel\OpenVINO\openvino_models\ir\public\squeezenet1.1\FP16\squeezenet1.1.xml" -d MYRIAD
    • 用于 VPU(搭载英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design):
      classification_sample_async.exe -i "C:\Program Files (x86)\IntelSWTools\openvino\deployment_tools\demo\car.png" -m "C:\Users<username>\Documents\Intel\OpenVINO\openvino_models\ir\public\squeezenet1.1\FP16\squeezenet1.1.xml" -d HDDL

要了解样本应用程序的信息,请参见推理引擎样本概览

恭喜,您已经完成适用于 Windows* 的英特尔® Distribution of OpenVINO™ 工具套件的安装。要了解有关英特尔® Distribution of OpenVINO™ 工具套件工作的更多信息,下面提供了 Hello World 教程和其他资源。

总结

在本文档中,您安装了英特尔® Distribution of OpenVINO™ 工具套件及其依赖包。您也为一个或多个框架配置了模型优化器。在软件安装和配置后,您运行了两个验证脚本。您可能也安装了不同的驱动程序,让您能够使用 GPU 或 VPU 来推理您的模型,并运行图像分类样本应用程序。

您现在已经准备好进入下一步,了解更多关于使用常见深度学习框架进行训练的模型到推理引擎格式的转换,您可以使用下列链接,也可以继续运行样本应用程序

要了解有关转换深度学习模型的更多信息,前往:

其它资源