1 使用MVTec HALCON AI加速器接口在英特尔独立显卡上加速AI推理-德赢Vwin官网 网
0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

使用MVTec HALCON AI加速器接口在英特尔独立显卡上加速AI推理

英特尔物联网 来源:英特尔物联网 2023-09-07 17:06 次阅读
2743e0ca-4d5c-11ee-a25d-92fbcf53809c.png

1.1

什么是 HALCON

MVTec HALCON 是一款在全球范围内使用,综合性的机器视觉标准软件。它有一个专门的集成开发环境(HDevelop),专门用于开发图像处理解决方案。使用 MVTec HALCON,您可以:

  • 受益于灵活的软件架构

  • 加快所有可行的机器视觉应用发展

  • 保证快速进入市场

  • 持续地降低成本

作为一个综合工具箱,HALCON 涵盖了机器视觉应用的整个工作流程。其核心是灵活而强大的图像处理库,其中有 2100 多个算子。HALCON 适用于所有行业,并为图像处理提供卓越性能。

官网链接:

https://www.mvtec.com/

2750be3a-4d5c-11ee-a25d-92fbcf53809c.png

图片引用自:

https://www.mvtec.com/cn/products/HALCON/why-HALCON/compatibility

1.2

什么是OpenVINO

OpenVINO 是一个用于优化和部署人工智能AI)推理的开源工具平台。

2776880e-4d5c-11ee-a25d-92fbcf53809c.png

1.3

安装 HALCON 和 OpenVINO

从 21.05 版本开始,HALCON 通过全新 HALCON AI 加速器接口 (AI²),支持 OpenVINO 工具套件,从而支持 AI 模型在英特尔的硬件设备上实现推理计算加速。

当前 HALCON 的 AI 模型对英特尔的硬件设备支持,如下表所示

27d9a196-4d5c-11ee-a25d-92fbcf53809c.png

要实现使用 HALCON AI 加速器接口在英特尔硬件设备上加速 AI 推理计算,只需要一次安装 HALCON 和 OpenVINO,然后编写 HALCON AI 推理程序即可。

1.3.1

安装 HALCON

官网注册

登录 MVTec 官网 HALCON 软件下载页面(目前 HALCON 的最新版本是 23.05 Progress)

https://www.mvtec.com/downloads/halcon, 如果没有注册过 MVTec 用户账号,需要先进行注册个人或企业账号。(请注意此处需要使用公司邮箱注册,qq 邮箱、163 邮箱等私人邮箱会注册失败)

下载并解压

在官网下载完整版的安装包(需要登陆账号), 下载 HALCON: MVTec Software[1]。可以选择产品的版本和操作系统,此处以 Windows 平台的 23.05 progress 版本为例。点击图中链接会自动开始下载,可自行使用工具加速。

28772146-4d5c-11ee-a25d-92fbcf53809c.png

下载完成后,解压缩完成,打开对应的文件夹,点击 som.exe 文件,启动 SOM(Software Manager)。

安装设置

SOM 会使用默认浏览器打开安装界面,如果打开界面后未出现可选安装项目,建议重启电脑再次打开 som.exe。

可以点击“语言” 按钮切换界面语言,点击“环境”按钮修改一些设置,如程序和数据安装路径,仓库地址等等,一般使用默认值最好。

289702ea-4d5c-11ee-a25d-92fbcf53809c.png

28a939c4-4d5c-11ee-a25d-92fbcf53809c.png

然后选择“可获得的”页面,找到安装包,点击“安装”按钮, 上方按钮是为当前用户安装,下方是为所有用户安装(需要系统管理员权限),一般点选上方按钮。

设备空间足够的话(15G 以上),建议右侧全选,全部安装;点击后等待安装结束即可。

28d7ceba-4d5c-11ee-a25d-92fbcf53809c.png

加载 license 文件

291d1b14-4d5c-11ee-a25d-92fbcf53809c.png

HALCON 软件的运行还需要对应的 license 加密文件,可以向 MVTec 官方购买正式版或者申请评估。

然后,可以直接在 SOM 界面中加载 license 文件,点击上图中的红色按钮,可以打开下方界面进行 license 文件的安装和管理,将 license 文件直接拖入即可。

最后,在 Windows 桌面上找到 HALCON 集成开发环境 HDevelop 软件图标,即可正常使用 HALCON。

1.3.2

安装 OpenVINO 2021.4 LTS

请到 OpenVINO 官网[2] 下载并安装OpenVINO 2021.4.2,如下图所示。

292c5912-4d5c-11ee-a25d-92fbcf53809c.png

安装完毕后,请将 OpenVINO 运行时库的路径添加到环境变量 path 中。

第一步,运行:

C:Program Files (x86)Intelopenvino_2021.4.752insetupvars.bat
path

获取 OpenVINO 运行时库的路径,如下图所示:

295ceae6-4d5c-11ee-a25d-92fbcf53809c.png

第二步,将 OpenVINO 运行时库的路径添加到环境变量 path 中,如下图所示:

298a9ad6-4d5c-11ee-a25d-92fbcf53809c.png

到此,下载并安装 OpenVINO,然后 OpenVINO 运行时库的路径添加到环境变量 path 中的工作全部完成。

1.4

编写 HALCON AI 推理程序

1.4.1

HALCON AI 推理程序工作流程

关于 HALCON AI 推理程序工作流程,以 HALCON 的深度学习图像分类为例,程序代码为 HALCON 集成开发环境 HDevelop 的开发语言。

1. 读取已训练完成的深度学习模型:

* Read in the retrained model.
read_dl_model (RetrainedModelFileName, DLModelHandle)

2. 设置深度学习模型参数

* Set the batch size.
set_dl_model_param (DLModelHandle, 'batch_size', BatchSizeInference)
* Initialize the model for inference.
set_dl_model_param (DLModelHandle, 'device', DLDevice)

3. 导入数据集预处理的参数:

* Get the parameters used for preprocessing.
read_dict (PreprocessParamFileName, [], [], DLPreprocessParam)

4. 导入推理图像并生成深度学习样本:

* Read the images of the batch.
read_image (ImageBatch, Batch)
* Generate the DLSampleBatch.
gen_dl_samples_from_images (ImageBatch, DLSampleBatch)

5. 对深度学习样本进行预处理以匹配模型:

* Preprocess the DLSampleBatch.
preprocess_dl_samples (DLSampleBatch, DLPreprocessParam)

6. 执行深度学习推理:

* Apply the DL model on the DLSampleBatch.
apply_dl_model (DLModelHandle, DLSampleBatch, [], DLResultBatch)

1.4.2

HALCON AI 加速器接口 (AI²)

MVTec 的OpenVINO工具套件插件基于全新 HALCON AI 加速器接口 (AI²)。通过这一通用接口,客户可以快速方便地将支持的 AI 加速器硬件用于深度学习应用的推理环节。

这些特殊设备不仅在嵌入式环境中得到广泛应用,也越来越多地出现在 PC 环境中。AI 加速器接口从特定硬件中抽象出深度学习模型,因而特别能够适应未来发展。

MVTec 作为机器视觉软件的技术领导者,其软件可以在工业物联网环境中,通过使用 3D 视觉、深度学习和嵌入式视觉等现代技术,实现新的自动化解决方案。

除 MVTec 提供的插件外,还可以集成客户特定的 AI 加速器硬件。此外,不仅典型深度学习应用可以通过 AI² 加速,所有集成深度学习功能的“经典”机器视觉方法,例如 HALCON 的 Deep OCR,也能从中受益。

1.4.3

HALCON 基于 OpenVINO 的 AI 推理范例程序

本文中,我们使用的是基于 HALCON 的深度学习图像分类的官方范例程序。

本文中所使用的基于 OpenVINO 的 HALCON 范例代码已分享到 MVTec 官网,网址为:

https://www.mvtec.com/cn/technologies/deep-learning/ai-accelerator-interface

下载后将该程序保存至 HALCON 范例程序指定的文件路径中:

%HALCONEXAMPLES%/hdevelop/Deep-Learning/Classification/。

默认情况下,由于推理需要加载已经过训练的深度学习模型,所以需要使用 HALCON 的开发环境 Hdevelop 依次先运行该路径下的范例程序,从而可以完成训练并保存模型:

  • classify_pill_defects_deep_learning_1_preprocess.hdev

  • classify_pill_defects_deep_learning_2_train.hdev

接着打开下载的范例并运行(或按 F5),首先需要查询 HALCON 所支持的 OpenVINO 设备:

* This example needs the HALCON AI²-interface for the Intel Distribution of the OpenVINO Toolkit * and a installed version of the Intel Distribution of the OpenVINO Toolkit.
query_available_dl_devices ('ai_accelerator_interface', 'openvino', DLDeviceHandlesOpenVINO)

之后,继续执行程序,在可视化界面会依次显示所有查询到的 OpenVINO 设备信息,包括本文所需使用的英特尔 Arc A770 独立显卡,这里我们看到支持的推理精度有 FP32 和 FP16,如下所示。

29df16ce-4d5c-11ee-a25d-92fbcf53809c.png

然后,需要选择 OpenVINO 设备,目前 HALCON AI² 接口所支持的 OpenVINO 设备包括英特尔的 CPUGPU,HDDL 以及 MYRIAD。在安装 HALCON 时,只内置安装了 CPU 插件,需要额外安装 OpenVINO 工具套件来支持 GPU 等其他设备,具体安装参考章节 1.3.2。这里我们指定 OpenVINO 运行设备为“GPU”,即英特尔的独立显卡。

* The device parameter 'type' can be used for further selection.
* It states the OpenVINO plugin responsible for handling the
* device. Depending on your OpenVINO installation, possible values
* are e.g. 'CPU', 'GPU', 'HDDL', and 'MYRIAD'. If you did not install
* OpenVINO, HALCON will install the 'CPU' plugin.
OpenVINODeviceType := 'GPU'

继续运行程序,会针对 GPU 的不同浮点精度做推理优化,得到经过 OpenVINO 加速优化的推理模型。

* To convert the model to 'float16'/'float32' precision, no samples have to be provided to
* optimize_dl_model_for_inference.
* No additional conversion parameters are required, so use the default parameters.
get_dl_device_param (DLDeviceHandleOpenVINO, 'optimize_for_inference_params', OptimizeForInferenceParams)
optimize_dl_model_for_inference (DLModelHandle, DLDeviceHandleOpenVINO, 'float32', [], OptimizeForInferenceParams, DLModelHandleOpenVINO, ConversionReport)

在可视化窗口会展示 CPU 和 GPU 分别在 FP32 和 FP16 下的性能比对,包括推理时间和 Top-1 错误率。

2a22f786-4d5c-11ee-a25d-92fbcf53809c.png

至此,OpenVINO 的配置测试已基本完成,接着就是执行深度学习的推理,在可视化窗口里可以看到对于推理步骤的图示和文字解释,其中会再次展示所使用的推理设备,即英特尔的独立显卡信息。

2a84ec8e-4d5c-11ee-a25d-92fbcf53809c.png

推理的工作流程可以参考 1.4.1 章节,在执行推理的同时,可以打开任务管理器,观察英特尔独立显卡的运行状态。范例中,默认使用 FP16 精度加速推理,也可以根据具体需要切换成 FP32 精度进行对比测试。

2ac5b69c-4d5c-11ee-a25d-92fbcf53809c.png

1.5

总结

MVTec HALCON AI 加速器接口(AI²)可帮助 MVTec 软件产品用户充分利用与 OpenVINO 工具套件兼容的 AI 加速器硬件。如此一来,对于关键工作负载,可以在英特尔计算设备(包括 CPU、GPU 和 VPU)上明显缩短深度学习推理时间。

由于支持硬件范围得到扩展,用户现在可以充分利用各种英特尔设备的性能来加速深度学习应用,不再局限于少数特定设备。同时,这种集成可以无缝进行,不受特定硬件细节约束。现在只需更改参数,即可在 OpenVINO工具套件支持的设备上执行现有深度学习应用的推理过程。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表德赢Vwin官网 网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英特尔
    +关注

    关注

    61

    文章

    9949

    浏览量

    171687
  • 加速器
    +关注

    关注

    2

    文章

    796

    浏览量

    37838
  • 深度学习
    +关注

    关注

    73

    文章

    5500

    浏览量

    121109

原文标题:使用 MVTec HALCON AI 加速器接口在英特尔独立显卡上加速 AI 推理|开发者实战

文章出处:【微信号:英特尔物联网,微信公众号:英特尔物联网】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    英特尔发布全新企业AI一体化方案

    近日,英特尔正式推出了全新的企业AI一体化方案。该方案以英特尔至强处理英特尔Gaudi 2D AI
    的头像 发表于 12-03 11:20 208次阅读

    使用PyTorch英特尔独立显卡训练模型

    《PyTorch 2.5重磅更新:性能优化+新特性》中的一个新特性就是:正式支持英特尔独立显卡训练模型!
    的头像 发表于 11-01 14:21 353次阅读
    使用PyTorch<b class='flag-5'>在</b><b class='flag-5'>英特尔</b><b class='flag-5'>独立</b><b class='flag-5'>显卡</b><b class='flag-5'>上</b>训练模型

    英特尔聚焦AI座舱

    英特尔推出首款锐炫车载独立显卡(dGPU)和第一代英特尔软件定义车载SoC系列,满足当前消费者对汽车内部配备更多屏幕、获得更高清晰度等AI
    的头像 发表于 10-30 16:26 197次阅读

    英特尔携手百度智能云加速AI落地

    2024年9月25日-26日举办的2024百度云智大会上,作为大会的联合主办方,英特尔带来了AI全栈软硬件方案,深入讲解了如何基于英特尔 至强 处理
    的头像 发表于 10-12 10:08 467次阅读

    Inflection AI转向英特尔Gaudi 3,放弃英伟达GPU

    近日,人工智能技术公司Inflection AI宣布了一项重要决策,其最新的企业平台将放弃采用英伟达(Nvidia)的GPU,转而选择英特尔的Gaudi 3加速器
    的头像 发表于 10-10 17:21 481次阅读

    Inflection AI携手英特尔推出企业级AI系统

    近日,AI初创企业Inflection AI英特尔联合宣布了一项重大合作——推出基于英特尔Gaudi 3 AI
    的头像 发表于 10-09 16:40 429次阅读

    英特尔发布Gaudi3 AI加速器,押注低成本优势挑战市场

    英特尔近期震撼发布了专为AI工作负载设计的Gaudi3加速器,这款新芯片虽速度上不及英伟达热门型号H100与H200 GPU,但英特尔巧妙
    的头像 发表于 09-26 16:16 811次阅读

    英特尔® 酷睿™ Ultra 处理面向多行业加速AI产业升级

    持竞争力,企业亟需更高效的计算平台来处理日益复杂的数据分析和AI推理任务。 为响应这一时代需求,英特尔正式发布英特尔® 酷睿™ Ultra 处理
    发表于 09-14 20:36 1.3w次阅读
    <b class='flag-5'>英特尔</b>® 酷睿™ Ultra 处理<b class='flag-5'>器</b>面向多行业<b class='flag-5'>加速</b><b class='flag-5'>AI</b>产业升级

    支持140亿参数AI模型,229TOPS!英特尔重磅发布第一代车载独立显卡

    英特尔院士、英特尔公司副总裁、汽车事业部总经理Jack Weast指出,今年的CES英特尔发布了第一代
    的头像 发表于 08-12 09:07 9346次阅读
    支持140亿参数<b class='flag-5'>AI</b>模型,229TOPS!<b class='flag-5'>英特尔</b>重磅发布第一代车载<b class='flag-5'>独立</b><b class='flag-5'>显卡</b>

    英特尔助力京东云用CPU加速AI推理,以大模型构建数智化供应链

    英特尔助力京东云用CPU加速AI推理,以大模型构建数智化供应链
    的头像 发表于 05-27 11:50 527次阅读
    <b class='flag-5'>英特尔</b>助力京东云用CPU<b class='flag-5'>加速</b><b class='flag-5'>AI</b><b class='flag-5'>推理</b>,以大模型构建数智化供应链

    英特尔公布Gaudi 3 AI加速器中国特供版计划

    这两款专供版加速卡,分别被命名为HL-328和HL-388,它们代表了英特尔AI加速领域的最新技术成果。
    的头像 发表于 04-15 15:19 735次阅读

    英特尔升级AI PC加速计划

    近日,英特尔公司正式推出“AI PC加速计划”,旨在通过两大新举措进一步推动人工智能技术个人电脑领域的应用与发展。
    的头像 发表于 03-28 11:46 669次阅读

    英特尔宣布AI PC加速计划新增两项AI举措

    首先,“AI PC 开发者计划”面向软件研发人员和独立软件开发商,为他们提供便捷的开发环境,助力加速大规模运用新型 AI技术。此计划包含一系列全面的工具、优化工作流方案、
    的头像 发表于 03-27 16:03 375次阅读

    英特尔发布AI PC加速计划,确立AI PC新标准

    同时,英特尔也自定了更为简化的AI PC定义,即CPU、GPU和NPU均应具备专属AI加速能力,这恰恰反映了其最新力作Meteor Lake及其后继产品的设计理念。按照这种设计,不同组
    的头像 发表于 03-27 10:10 446次阅读

    英特尔专家为您揭秘第五代英特尔® 至强® 可扩展处理如何为AI加速

    % 1 ,AI 推理性能提升42% 2 。 这一系列性能提升的背后,存在着怎样的创新与突破?第五代英特尔 至强 可扩展处理为什么要强调为AI
    的头像 发表于 12-23 12:20 730次阅读