安装适用于 Linux* 的英特尔® Distribution of OpenVINO™ 工具套件

注意

  • 这些步骤适用于 Ubuntu*、CentOS 和 Yocto*。
  • 如果您在 Windows* 操作系统中使用英特尔® Distribution of OpenVINO™ 工具套件,请参阅适用于 Windows* 系统的安装指南
  • 适用于采用 FPGA 的英特尔 Distribution of OpenVINO 工具套件

支持,请参见带 FPGA 支持的 Linux* 安装指南

  • CentOS 和 Yocto 安装需要一些本指南未包含的更改。
  • 需要互联网连接来执行本指南中的步骤。
  • 英特尔® System Studio 是一款一体式跨平台工具套件,专门构建以简化系统成型,提高系统和物联网设备应用程序在英特尔® 平台上的性能。如果您通过 英特尔® System Studio 使用英特尔® Distribution of OpenVINO™,请前往使用 英特尔® System Studio

简介

英特尔® Distribution of OpenVINO™ 工具套件可以快速部署可模拟人类视觉的应用程序和解决方案。该工具套件基于复杂神经网络(CNN),通过英特尔® 硬件扩展了计算机视觉 (CV) 工作负载,从而最大化性能。英特尔® Distribution of OpenVINO™ 工具套件包括了英特尔® 深度学习部署工具套件(英特尔® DLDT)。

适用于 Linux* 的英特尔® Distribution of OpenVINO™ 工具套件:

安装中已经包含的,且默认安装的:

组件描述
模型优化器该工具导入、转换并优化在受欢迎的框架中训练好的模型,使其变成一种能被英特尔工具——尤其是能被推理引擎使用的格式。 
受欢迎的框架包括 Caffe*、TensorFlow*、MXNet* 和 ONNX*。
推理引擎这是运行深度学习模型的引擎。它包括了一套库,在您的应用程序中轻松进行推理集成。
适用于 OpenCL™ 2.1 的驱动程序和运行时刻为英特尔® 处理器的 GPU/CPU 启用 OpenCL
英特尔® Media SDK提供了硬件加速的视频编码和帧处理
OpenCV为英特尔® 硬件编译的 OpenCV* 社区版本
推理引擎代码样本一套简单的控制台应用程序,可展示如何在应用程序中使用特定 OpenVINO 功能,以及如何执行特定任务,例如加载模型、运行推理、查询特定设备功能等。
演示应用一套简单的控制台应用程序,可提供强大的应用程序模板,帮助您实施特定的深度学习场景。
其它工具一套用于加工您模型的工具
预训练模型的文档Open Model Zoo 库中可以找到预训练模型的文档

开发和目标平台

开发和目标平台具有相同的要求,但您可以根据您的目标用途在安装期间选择不同的组件。

硬件

处理器备注:

操作系统

概述

本指南提供了如何安装英特尔® Distribution of OpenVINO™ 工具套件的分步说明。每种兼容硬件类型都提供了不同的链接,包括下载、初始化和配置步骤。指南将涵盖以下步骤:

  1. 安装英特尔® Distribution of OpenVINO™ 工具套件
  2. 安装外部软件依赖
  3. 设置 OpenVINO™ 环境变量:可选择更新为 .bashrc
  4. 配置模型优化
  5. 运行验证脚本来验证安装和编译样本
  6. 适用于英特尔® Processor Graphics (GPU) 的步骤
  7. 适用于英特尔® Movidius™ 神经电脑棒和英特尔® 神经电脑棒 2 的步骤
  8. 适用于配备英特尔® Movidius™ VPU 的英特尔® 视觉加速器设计的步骤
    安装完您的英特尔® Movidius™ 视觉处理器后,您将返回本指南来完成 OpenVINO™ 安装。
  9. 运行样本应用程序
  10. 使用面部侦测教程

安装英特尔® Distribution of OpenVINO™ 工具套件核心组件

适用于 Linux* 的英特尔® Distribution of OpenVINO™ 工具套件下载英特尔® Distribution of OpenVINO™ 工具套件的软件包文件。从下拉菜单中选择适用于 Linux 的英特尔® Distribution of OpenVINO™ 工具套件软件包。

  1. 打开命令行终端窗口。
  2. 将目录改为您下载了适用于 Linux* 的英特尔 Distribution of OpenVINO 工具套件软件包文件的目录。
    如果您将软件包文件下载到当前用户的Downloads目录:
    cd ~/Downloads/
    默认情况下,该文件会被保存为l_openvino_toolkit_p_<version>.tgz
  3. 解压缩 .tgz 文件:
    tar -xvzf l_openvino_toolkit_p_<version>.tgz
    文件会被解压缩到l_openvino_toolkit_p_<version>目录。
  4. 前往l_openvino_toolkit_p_<version>目录:
    cd l_openvino_toolkit_p_<version>
    如果您已经安装过之前版本的英特尔 Distribution of OpenVINO 工具套件,请重命名或删除这两个目录:

安装说明:

  1. 选择您的安装选项:
    • 选项 1:GUI 安装向导:
      sudo ./install_GUI.sh
    • 选项 2:命令行说明:
      sudo ./install.sh
  2. 按照您屏幕上的说明操作。注意信息消息,比如,以下信息会在您必须完成额外步骤时出现:
    openvino-install-linux-01.png
  3. 如果您选择默认选项,那么安装摘要的 GUI 画面是这样的:
    openvino-install-linux-02.png
    • 可选:您可以选择自定义来更改安装目录或您想要安装的组件:
      openvino-install-linux-03.png
      当以 root 权限安装时,英特尔 Distribution of OpenVINO 的默认安装目录是/opt/intel/openvino_<version>/
      为了简化操作,还创建了最新安装的软连接/opt/intel/openvino/

      注意:无论选择的 OpenVINO 安装路径为何,英特尔® Media SDK 组件都在/opt/intel/mediasdk目录中安装。

  4. 一个完成画面说明核心组件已经安装:
openvino-install-linux-04.png

第一个内核组件已安装。继续下一部分安装额外的依赖包。

安装外部软件依赖

注意:如果您将英特尔® Distribution of OpenVINO™ 产品安装到默认安装目录以外,则用您安装软件的目录替换/opt/intel

这些依赖包用于:

  1. 变更为install_dependencies目录:
    cd /opt/intel/openvino/install_dependencies
  2. 运行脚本来下载和安装外部软件依赖包:
    sudo -E ./install_openvino_dependencies.sh
    已安装依赖包。继续到下一部分来设置您的环境变量。

设定环境变量

您必须首先更新一些环境变量,才能编译并运行 OpenVINO™ 应用程序。运行以下脚本来临时设置您的环境变量:

source /opt/intel/openvino/bin/setupvars.sh

可选:OpenVINO 环境变量会在关闭命令行界面时被删除。作为另一种选项,您可以按照下列步骤永久设置环境变量:

  1. <user_directory>中打开.bashrc文件:
    vi <user_directory>/.bashrc
  2. 在文件末尾添加这一行:
    source /opt/intel/openvino/bin/setupvars.sh
  3. 保存和关闭文件:按 Esc 键并输入:wq
  4. 要测试您的变更,打开一个新的命令行终端。您将看到[setupvars.sh] OpenVINO environment initialized

环境变量已经设定。继续下一步,配置模型优化器。

配置模型优化

模型优化器是一种基于 Python* 的命令行工具,用于从受欢迎的深度学习框架(例如 Caffe*、TensorFlow*、Apache MXNet*、ONNX* 和 Kaldi*)导入训练模型。

模型优化器是英特尔 Distribution of OpenVINO 工具套件的一个关键组件。如果您不通过模型优化器来运行模型,则无法使用您训练好的模型来进行推理。当您通过模型优化器运行预训练的模型时,您的输出是网络的中间表示 (IR)。中间表示是一对文件,描述整个模型:

如需有关模型优化器的更多信息,请参阅模型优化器开发人员指南。 

模型优化器配置步骤

您可以选择立即配置所有支持的框架每次配置一个框架。选择最适合自己需要的选项。如果您看到错误消息,请确保您已经安装所有依赖包。

注意:由于在 CentOS 中没有正式支持 TensorFlow 框架,因此用于 TensorFlow 的模型优化器无法在那些系统上配置和运行。

重要:需要互联网接入才能成功执行以下步骤。如果您只有通过代理服务器才能访问互联网,请确保它已经在您的操作系统环境中得到配置。

选项 1:同时配置所有支持的框架

  1. 前往模型优化器的先决条件目录:
    cd /opt/intel/openvino/deployment_tools/model_optimizer/install_prerequisites
  2. 运行脚本来为 Caffe、TensorFlow、MXNet、Kaldi* 和 ONNX 配置模型优化器:
    sudo ./install_prerequisites.sh

选项 2:单独配置每个框架

只有您没有选择上述选项 1 时,才能单独配置单个框架。

  1. 前往模型优化器的先决条件目录:
    cd /opt/intel/openvino/deployment_tools/model_optimizer/install_prerequisites
  2. 为您的模型框架运行脚本。您可以运行多个脚本:
    • 用于 Caffe:
      sudo ./install_prerequisites_caffe.sh
    • 用于 TensorFlow:
      sudo ./install_prerequisites_tf.sh
    • 用于 MXNet
      sudo ./install_prerequisites_mxnet.sh
    • 用于 ONNX
      sudo ./install_prerequisites_onnx.sh
    • 用于 Kaldi
      sudo ./install_prerequisites_kaldi.sh
      模型优化器针对一个或多个框架得到配置。

您现在可以通过运行验证脚本来编译样本。

运行验证脚本来验证安装

重要:此部分为必须。除确认您的安装已成功之外,演示脚本还执行其他步骤,例如,设定您的计算机,以便使用推理引擎样本。

为了验证安装并编译两个样本,使用下列步骤在 CPU 上运行随产品一同提供的验证应用程序。

注意:要在英特尔® Processor Graphics 或英特尔® 神经电脑棒 2 设备上运行演示应用程序,请确保您首先完成适用于英特尔® Processor Graphics (GPU)适用于英特尔® 神经电脑棒 2 的额外步骤

  1. 前往推理引擎演示目录:
    cd /opt/intel/openvino/deployment_tools/demo
  2. 运行图像分类验证脚本
    ./demo_squeezenet_download_convert_run.sh
    此验证脚本下载了 SqueezeNet 模型,使用模型优化器将模型转换为 .bin 和 .xml 中间表示文件 (IR)。推理引擎要求此模型转换,这样它才能将 IR 用作输入,并在英特尔硬件上实现最佳性能。
    这个验证脚本构建了异步图像分类样本应用程序,并使用位于演示目录中的car.png图像运行。当验证脚本完成时,您将拥有十个最常用类别的标签和推理能力:
    image_classification_script_output_lnx.png
  3. 运行推理管道验证脚本

    ./demo_security_barrier_camera.sh

    这个脚本会下载三款预训练模型 IR,构建安全性障碍摄像头演示应用程序,并用下载的模型和demo目录中的car_1.bmp图像运行该程序,展示一个推理管道。验证脚本使用车辆识别,其中车辆属性相互建立,以便缩小到特定的属性。

    首先,一个物体被识别为车辆这个识别用于作为下一模型的输入,该模型能识别特定的车辆属性,包括车牌。最后,识别出的属性,包括车牌,都输入到第三个模型,该模型识别车牌中的特定字符。

    完成验证脚本后,您将看到一幅图像,显示了渲染为带边缘方框的结果框架,以及文字:

    inference_pipeline_script_lnx.png
  4. 关闭图像查看器窗口,完成验证脚本。

要了解验证脚本,请参阅/opt/intel/openvino/deployment_tools/demo中的README.txt文件。

要了解英特尔 Distribution of OpenVINO™ 预训练对象侦测和对象识别模型的描述,请参阅预训练的 OpenVINO™ 工具套件模型概述

您已经完成本指南中所有必要的安装、配置和构建步骤,可以使用您的 CPU 配合训练好的模型开始工作了。要使用其他硬件,请参阅;

适用于英特尔® Processor Graphics (GPU) 的步骤

只有当您想要启用工具套件组件,在您的系统上使用显卡处理器(GPU)时,才需要进行本节中的步骤。

  1. 前往 install_dependencies 目录:
    cd /opt/intel/openvino/install_dependencies/
  2. 输入超级用户模式:
    sudo -E su
  3. 安装使用 GPU 插件所需要的英特尔® OpenCL™ 显卡计算运行时驱动程序组件,并为英特尔® 集成显卡写入自定义层:
    ./install_NEO_OCL_driver.sh
    您可以看到以下命令行输出:

忽略那些建议,继续运行。

  1. 可选安装头文件来编译新代码。您可以在 Khronos OpenCL™ API Headers 中找到这些头文件。

适用于英特尔® Movidius™ 神经电脑棒和英特尔® 神经电脑棒 2 的步骤

只有当您想要在采用英特尔® Movidius™ Myriad™ 2 视觉处理器 的英特尔® Movidius™ 神经电脑棒 或采用英特尔® Movidius™ Myriad™ Myriad™ X 视觉处理器 的英特尔® 神经电脑棒 2 上进行推理时,才需要这些步骤。也请参见英特尔® 神经电脑棒 2 的入门页面:

  1. 将当前的 Linux 用户添加到users群组:注
    sudo usermod -a -G users "$(whoami)"
    注销并登录,使设定生效。
  2. 要在英特尔® Movidius™ 神经电脑棒、英特尔® 神经电脑棒 2 上执行推理,请按照下列步骤来安装 USB 规则:
    sudo cp /opt/intel/openvino/inference_engine/external/97-myriad-usbboot.rules /etc/udev/rules.d/
    sudo udevadm control --reload-rules
    sudo udevadm trigger
    sudo ldconfig

    注意:您可能需要重新启动机器来让该操作生效。

适用于配备英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design 的步骤

要安装和配置配备英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design,请参见配备英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design 的配置指南

注意:安装完您的英特尔® Movidius™ 视觉处理器后,您将返回本指南来完成英特尔® Distribution of OpenVINO™ 安装。

配置完成后,您可以运行带 HDDL 插件的运行脚本,验证搭载英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design:

  1. 前往推理引擎演示目录:
    cd /opt/intel/openvino/deployment_tools/demo
  2. 运行图像分类验证脚本。如果您只有通过代理服务器才能访问互联网,请确保它已经在您的操作系统环境中得到配置。
    ./demo_squeezenet_download_convert_run.sh -d HDDL
  3. 运行推理管道验证脚本
    ./demo_security_barrier_camera.sh -d HDDL

运行样本应用程序

重要:本节要求您运行验证脚本来验证安装。此脚本构建了图像分类样本应用程序,下载了需要的 Caffe* Squeezenet 模型,并将其转换为 IR。

在本节中,您将运行图像分类样本应用程序,在三种类型的英特尔® 硬件:CPU、GPU、VPU 上使用 Caffe* Squeezenet1.1 模型。

运行图像分类验证脚本时,会自动构建图像分类样本应用程序二进制文件,还会创建 FP16 模型 IR 文件。

位于/home/<user>/inference_engine_samples_build/intel64/Release目录中的图像分类样本应用程序二进制文件。Caffe* Squeezenet 模型 IR 文件(.bin.xml)位于/home/<user>/openvino_models/ir/public/squeezenet1.1/FP16/目录中。

注意:如果您将英特尔® Distribution of OpenVINO™ 产品安装到默认安装目录以外,则用您安装软件的目录替换/opt/intel

要运行样本应用程序:

  1. 设置环境变量:
    source /opt/intel/openvino/bin/setupvars.sh
  2. 前往样本构建目录:
    cd ~/inference_engine_samples_build/intel64/Release
  3. 运行样本可执行文件,将demo目录中的car.png文件作为输入图像,使用您的 FP16 模型的 IR 和硬件设备插件来执行推理。

    注意:在 CPU 以外的硬件上运行样本应用程序需要执行额外的硬件配置步骤

    • 用于 CPU
      ./classification_sample_async -i /opt/intel/openvino/deployment_tools/demo/car.png -m ~/openvino_models/ir/public/squeezenet1.1/FP16/squeezenet1.1.xml -d CPU
    • 用于 GPU
      ./classification_sample_async -i /opt/intel/openvino/deployment_tools/demo/car.png -m ~/openvino_models/ir/public/squeezenet1.1/FP16/squeezenet1.1.xml -d GPU
    • 用于 MYRIAD

      注意:在英特尔® Movidius™ 神经电脑棒、英特尔® 神经电脑棒 2 上通过 MYRIAD 插件运行推理,需要执行额外的硬件配置步骤

      ./classification_sample_async -i /opt/intel/openvino/deployment_tools/demo/car.png -m ~/openvino_models/ir/public/squeezenet1.1/FP16/squeezenet1.1.xml -d MYRIAD
    • 用于 HDDL

      注意:在配备英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design 上使用 HDDL 插件运行推理,需要执行额外的硬件配置步骤

      ./classification_sample_async -i /opt/intel/openvino/deployment_tools/demo/car.png -m ~/openvino_models/ir/public/squeezenet1.1/FP16/squeezenet1.1.xml -d HDDL

要了解样本应用程序的信息,请参见推理引擎概览

恭喜,您已经完成适用于 Linux* 的英特尔® Distribution of OpenVINO™ 工具套件的安装。要了解有关英特尔® Distribution of OpenVINO™ 工具套件工作的更多信息,下面提供了 Hello World 教程和其他资源。

Hello World 面部侦测教程

参见 OpenVINO™ Hello World 面部侦测练习

其它资源

要了解有关转换模型的更多信息,前往: