为 Linux* 安装带 FPGA 支持的英特尔® Distribution of OpenVINO™ 工具套件

注意

简介

英特尔® Distribution of OpenVINO™ 工具套件可以快速部署可媲美人类视觉的应用程序和解决方案。该工具套件基于复杂神经网络(CNN),通过英特尔® 硬件扩展了计算机视觉 (CV) 工作负载,从而最大化性能。英特尔® Distribution of OpenVINO™ 工具套件包括了英特尔® Deep Learning Deployment Toolkit(英特尔® DLDT)。

为 Linux* 安装带 FPGA 支持的英特尔® Distribution of OpenVINO™ 工具套件:

安装中已经包含的,且默认安装的:

组件描述
模型优化器该工具导入、转换并优化在受欢迎的框架中训练好的模型,使其变成一种能被英特尔工具——尤其是能被推理引擎使用的格式。 
受欢迎的框架包括 Caffe*、TensorFlow*、MXNet* 和 ONNX*。
推理引擎这是运行深度学习模型的引擎。它包括了一套库,在您的应用程序中轻松进行推理集成。
适用于 OpenCL™ 2.1 的驱动程序和运行时为英特尔® 处理器的 GPU/CPU 启用 OpenCL
Intel® Media SDK提供了硬件加速的视频编码和帧处理
预先编译的 FPGA 比特流样本适用于搭载英特尔® Arria® 10 GX FPGA 的英特尔® Programmable Acceleration Card 以及采用英特尔® Arria 10 FPGA SG2 的英特尔® Vision Accelerator Design 的预先编译的比特流样本。
英特尔® FPGA SDK for OpenCL™ 软件技术面向 OpenCL™ 的英特尔® FPGA RTE 提供实用程序、主机运行时库、驱动程序,以及 RTE 专用库和文件
OpenCV为英特尔® 硬件编译的 OpenCV* 社区版本
推理引擎代码样本一套简单的控制台应用程序,可展示如何在应用程序中使用特定 OpenVINO 功能,以及如何执行特定任务,例如加载模型、运行推理、查询特定设备功能等。
演示应用一套简单的控制台应用程序,可提供强大的应用程序模板,帮助您实施特定的深度学习场景。

开发和目标平台

开发和目标平台具有相同的要求,但您可以根据您的目标用途在安装期间选择不同的组件。

硬件

注意:英特尔® Arria 10 FPGA (Mustang-F100-A10) SG1 已不再受支持。如果您采用搭载英特尔® Arria 10 FPGA (Mustang-F100-A10) Speed Grade 1 的英特尔® Vision Accelerator Design,我们建议您继续使用英特尔® Distribution of OpenVINO™ 工具套件的 2020.1 版本。

注意:英特尔® Arria® 10 GX FPGA 开发套件已不再受支持。如需获取英特尔® Arria® 10 FPGA GX 开发套件配置指南,请参阅 2019 R1.1 文档

处理器备注:

操作系统:

概述

本指南提供了有关如何安装带有 FPGA 支持的英特尔® Distribution of OpenVINO™ 工具套件的分步说明。每种兼容硬件类型都提供了不同的链接,包括下载、初始化和配置步骤。指南将涵盖以下步骤:

  1. 安装英特尔® Distribution of OpenVINO™ 工具套件
  2. 安装外部软件依赖项
  3. 配置模型优化
  4. 运行验证脚本来验证安装和编译样本
  5. 从受支持的硬件列表中安装兼容硬件
  6. 使用面部侦测教程

安装英特尔® Distribution of OpenVINO™ 工具套件核心组件

适用于 Linux* 且带 FPGA 支持的英特尔® Distribution of OpenVINO™ 工具套件处下载英特尔® Distribution of OpenVINO™ 工具套件的软件包文件。从下拉菜单中选择适用于 Linux 的英特尔® Distribution of OpenVINO™ 工具套件软件包。

  1. 打开命令行终端窗口。
  2. 将目录更改为您保存适用于 Linux* 且带有 FPGA 支持的英特尔 Distribution of OpenVINO 工具套件包文件的目录。
    如果您将软件包文件下载到当前用户的Downloads目录:
    cd ~/Downloads/
    默认情况下,该文件会被保存为l_openvino_toolkit_fpga_p_<version>.tgz
  3. 解压缩 .tgz 文件:
    tar -xvzf l_openvino_toolkit_fpga_p_<version>.tgz
    文件会被解压缩到l_openvino_toolkit_fpga_p_<version>目录。
  4. 前往l_openvino_toolkit_fpga_p_<version>目录:
    cd l_openvino_toolkit_fpga_p_<version>
    如果您已经安装过之前版本的英特尔 Distribution of OpenVINO 工具套件,请重命名或删除这两个目录:

安装说明:

  1. 选择您的安装选项:
    • 选项 1:GUI 安装向导:
      sudo ./install_GUI.sh
    • 选项 2:命令行说明:
      sudo ./install.sh
  2. 按照您屏幕上的说明操作。注意信息消息,比如,以下信息会在您必须完成额外步骤时出现:
    install-linux-fpga-01.png
  3. 如果您选择默认选项,那么安装摘要的 GUI 画面是这样的:
    install-linux-fpga-02.png
    • 可选项:您可以为您的卡选择自定义,并仅选择比特流。这样您就可以最小化下载的大小,降低数千兆字节。
    • 以下在自定义屏幕底部列出的比特流被突出显示在下方。请选择适用于您 FPGA 的一项:
      install-linux-fpga-04.png
    • 当以 root 权限安装时,英特尔 Distribution of OpenVINO 的默认安装目录是/opt/intel/openvino_fpga_2019.<version>/
      为了简化操作,还创建了通往最新安装的符号链接:/opt/intel/openvino/
  4. 一个完成画面说明已经安装核心组件:
    install-linux-fpga-05.png

第一个内核组件已安装。继续下一部分安装额外的依赖包。

安装外部软件依赖

这些依赖包用于:

  1. 变更为install_dependencies目录:
    cd /opt/intel/openvino/install_dependencies
  2. 运行脚本来下载和安装外部软件依赖项:
    sudo -E ./install_openvino_dependencies.sh

依赖项已安装。继续下一步,配置模型优化器。

配置模型优化

模型优化器是一种基于 Python* 的命令行工具,用于从受欢迎的深度学习框架(例如 Caffe*、TensorFlow*、Apache MXNet*、ONNX* 和 Kaldi*)导入训练模型。

模型优化器是英特尔 Distribution of OpenVINO 工具套件的一个关键组件。如果您不通过模型优化器来运行模型,则无法使用您训练好的模型来进行推理。当您通过模型优化器运行预训练的模型时,您的输出是网络的中间表示 (IR)。中间表示是一对文件,描述整个模型:

如需有关模型优化器的更多信息,请参阅模型优化器开发人员指南。 

模型优化器配置步骤

重要:需要互联网接入才能成功执行以下步骤。如果您只有通过代理服务器才能访问互联网,请确保它已经在您的环境中得到配置。

您可以选择立即配置所有支持的框架每次配置一个框架。选择最适合自己需要的选项。如果您看到错误消息,请确保您已经安装所有依赖项。

注意:如果您将英特尔® Distribution of OpenVINO™ 产品安装到默认安装目录以外,则用您安装软件的目录替换/opt/intel

选项 1:同时配置所有支持的框架

  1. 前往模型优化器的先决条件目录:
    cd /opt/intel/openvino/deployment_tools/model_optimizer/install_prerequisites
  2. 运行脚本来为 Caffe、TensorFlow、MXNet、Kaldi* 和 ONNX 配置模型优化器:
    sudo ./install_prerequisites.sh

选项 2:单独配置每个框架

只有当您没有选择上述选项 1 时,才能单独配置单个框架。

  1. 前往模型优化器的先决条件目录:
    cd /opt/intel/openvino/deployment_tools/model_optimizer/install_prerequisites
  2. 为您的模型框架运行脚本。您可以运行多个脚本:
sudo ./install_prerequisites_caffe.sh

您现在可以通过运行验证脚本来编译样本。

运行验证脚本来验证安装和编译样本

为了验证安装并编译两个样本,在 CPU 上运行随产品一同提供的验证应用程序:

  1. 前往推理引擎演示目录:
    cd /opt/intel/openvino/deployment_tools/demo
  2. 运行图像分类验证脚本
    ./demo_squeezenet_download_convert_run.sh
    此验证脚本下载了 SqueezeNet 模型,使用模型优化器将模型转换为 .bin 和 .xml 中间表示文件 (IR)。推理引擎要求此模型转换,这样它才能将 IR 用作输入,并在英特尔硬件上实现最佳性能。
    这个验证脚本构建了异步图像分类样本应用程序,并在演示目录中使用car.png图像运行。当验证脚本完成时,您将拥有十个最常用类别的标签和推理能力:
    image_classification_script_output_lnx.png
  3. 运行推理管道验证脚本

    ./demo_security_barrier_camera.sh

    此验证脚本构建了软件包中包含的安全障碍摄像头演示应用程序。

    此验证脚本使用演示目录中的car_1.bmp图像,通过预训练的三个模型展示推断流程。验证脚本使用车辆识别,其中车辆属性相互建立,以便缩小到特定的属性。

    首先,一个物体被识别为车辆。这个识别用于作为下一模型的输入,该模型能识别特定的车辆属性,包括车牌。最后,识别出的属性,包括车牌,都输入到第三个模型,该模型识别车牌中的特定字符。

    完成验证脚本后,您将看到一幅图像,显示了渲染为带边缘方框的结果框架,以及文字:

    security-barrier-results.png
  4. 关闭图像查看器窗口,完成验证脚本。

要了解验证脚本,请参阅/opt/intel/openvino/deployment_tools/demo中的README.txt文件。

要了解英特尔 Distribution of OpenVINO™ 预训练对象侦测和对象识别模型的描述,请参阅预训练的 OpenVINO™ 工具套件模型概述

您已经完成本指南中所有必要的安装、配置和构建步骤,可以通过您的 CPU 来使用训练好的模型进行工作了。要使用其他硬件,请参阅下面的安装和配置您的兼容硬件

安装和配置您的兼容硬件

从以下受支持的组件列表中选择您的兼容硬件以安装。

注意:您完成硬件安装后,将返回到本指南中,来完成英特尔® Distribution of OpenVINO™ 工具套件的安装和配置。

用于安装和配置兼容硬件的链接

恭喜,您已为 FPGA 完成了英特尔® Distribution of OpenVINO™ 工具套件的安装。要了解有关英特尔® Distribution of OpenVINO™ 工具套件工作的更多信息,下面提供了 Hello World 教程和其他资源。

Hello World 面部侦测教程

请参阅带有 FPGA 的 OpenVINO™ Hello World 人脸检测练习

其它资源

要了解有关转换模型的更多信息,前往: