1 快速下载OpenVIN Notebooks中的AI大模型-德赢Vwin官网 网
0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

快速下载OpenVIN Notebooks中的AI大模型

英特尔物联网 来源:英特尔物联网 2023-12-16 10:22 次阅读

作者:杨雪锋 博士

英特尔边缘计算创新大使

01OpenVINO Notebooks 简介

OpenVINO Notebooks 是 Jupyter Notebook 形式的 OpenVINO 范例程序大集合,方便开发者快速学习并掌握 OpenVINO 推理程序,并通过 Copy&Paste 方式将范例中的关键程序应用到自己的 AI 软件中去。

01运行 AI 大模型的挑战

OpenVINO Notebooks 提供了非常丰富的 AI 大模型范例程序,例如:Dolly2、Stable Diffusion、LLama2、ChatGLM2 等等,方便广大开发者学习并应用 AI 大模型。

但运行 AI 大模型范例程序时,由于众所周知的原因,通常会遇到因无法从 HuggingFace 官网下载模型,导致范例程序无法运行的情况。

以 240-dolly-2-instruction-following.ipynb 为例,运行“Download and Convert Model”代码时会收到报错信息,如下图所示:

fa4f1e70-9b41-11ee-8b88-92fbcf53809c.png

鉴于直接从 HuggingFace 官网无法下载 AI 大模型,可以考虑使用国内的两个下载速度非常好的网站:

一个是HuggingFace 的国内镜像网站;另一个是魔搭社区。

本文将演示分别从HuggingFace 的国内镜像网站和魔搭社区来解决下载 AI 大模型问题。

03从HuggingFace 国内镜像网站

解决下载问题

3.1命令行模式

第一步,安装下载工具:

pip install -U huggingface_hub hf_transfer

左滑查看更多

第二步,设置环境变量

Linux中,执行:

export HF_HUB_ENABLE_HF_TRANSFER=1
export HF_ENDPOINT=https://hf-mirror.com

左滑查看更多

在Windows中,执行:

SET HF_HUB_ENABLE_HF_TRANSFER=1
SET HF_ENDPOINT=https://hf-mirror.com

左滑查看更多

第三步,运行下载命令,下载模型到本地

huggingface-cli download --resume-download databricks/dolly-v2-3b --local-dir dolly-v2-3b

左滑查看更多

fa5c7fc0-9b41-11ee-8b88-92fbcf53809c.png

3.2用下载器下载

在模型页面,右键菜单启动:“多选下载模式”,如下图所示。

模型页面:

fa7c4562-9b41-11ee-8b88-92fbcf53809c.png

然后选择所有要下载的文件,最后按“Enter”启动下载。

faa46ca4-9b41-11ee-8b88-92fbcf53809c.png

实际测试,迅雷下载的方式,速度最快,平均在 6MB/s 左右。

facc62cc-9b41-11ee-8b88-92fbcf53809c.png

3.3从本地加载模型权重

将 dolly-v2-3b 下载到本地后,把 model_id 改为 model_local_path, 让程序从本地加载模型权重,例如:

model_id = "databricks/dolly-v2-3b"
model_local_path = "D:/dolly-v2-3b"
tokenizer = AutoTokenizer.from_pretrained(model_local_path,local_file_only=True)
ov_model = OVModelForCausalLM.from_pretrained(model_local_path, device=current_device, export=True, ov_config=ov_config, load_in_8bit=False,local_file_only=True)

左滑查看更多

在 240-dolly-2-instruction-following.ipynb 中“Download and Convert Model”代码块更改如下所示:

from pathlib import Path
from transformers import AutoTokenizer
from optimum.intel.openvino import OVModelForCausalLM


model_id = "databricks/dolly-v2-3b"
model_local_path = "D:/dolly-v2-3b"
model_path = Path("dolly-v2-3b")
tokenizer = AutoTokenizer.from_pretrained(model_local_path,local_file_only=True)
current_device = device.value
ov_config = {'PERFORMANCE_HINT': 'LATENCY', 'NUM_STREAMS': '1', "CACHE_DIR": ""}
if model_path.exists():
  ov_model = OVModelForCausalLM.from_pretrained(model_path, device=current_device, ov_config=ov_config)
else:
  ov_model = OVModelForCausalLM.from_pretrained(model_local_path, device=current_device, export=True, ov_config=ov_config, load_in_8bit=False,local_file_only=True)
  ov_model.half()
  ov_model.save_pretrained(model_path)

左滑查看更多

240-dolly-2-instruction-following.ipynb 从本地加载模型的运行效果,如下图所示:

fae8d4e8-9b41-11ee-8b88-92fbcf53809c.png

04从魔搭社区解决下载问题

4.1使用 modelscope API 下载模型

第一步,安装 modelscope:

pip install modelscope

左滑查看更多

第二步,运行 Python 脚本,下载模型到本地

from modelscope import snapshot_download 
model_dir = snapshot_download("ZhipuAI/chatglm2-6b", revision = "v1.0.12")
print(model_dir)

左滑查看更多

下载速度非常快,模型保存在“model_dir”所展示的路径里,如下图所示。

fb00a9c4-9b41-11ee-8b88-92fbcf53809c.png

4.2使用 git lfs工具下载

git lfs install 
git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git

左滑查看更多

4.3从本地加载模型权重

打开 OpenVINO Notebooks 的 254-llm-chatbot.ipynb,把本地模型所在路径传入 AutoModelForCausalLM.from_pretrained(),如下图所示:

fb1d77a2-9b41-11ee-8b88-92fbcf53809c.png

#从本地载入分词器
tok = AutoTokenizer.from_pretrained("D:/chatglm2-6b", trust_remote_code=True)

左滑查看更多

254-llm-chatbot.ipynb 从本地加载模型的运行结果,如下图所示:

fb3e29ac-9b41-11ee-8b88-92fbcf53809c.png

总 结

当遇到从 HuggingFace 官网无法下载 AI 大模型时,可以从国内镜像网站或魔搭社区下载,然后从本地加载模型权重,实现 OpenVINO Notebooks 的范例代码顺利运行。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表德赢Vwin官网 网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英特尔
    +关注

    关注

    61

    文章

    9949

    浏览量

    171687
  • AI
    AI
    +关注

    关注

    87

    文章

    30728

    浏览量

    268872
  • 大模型
    +关注

    关注

    2

    文章

    2423

    浏览量

    2637
  • OpenVINO
    +关注

    关注

    0

    文章

    92

    浏览量

    196
  • AI大模型
    +关注

    关注

    0

    文章

    315

    浏览量

    305

原文标题:快速下载 OpenVINO™ Notebooks 中的 AI 大模型 | 开发者实战

文章出处:【微信号:英特尔物联网,微信公众号:英特尔物联网】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    使用cube-AI分析模型时报错的原因有哪些?

    使用cube-AI分析模型时报错,该模型是pytorch的cnn转化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.
    发表于 03-14 07:09

    STM CUBE AI错误导入onnx模型报错的原因?

    使用cube-AI分析模型时报错,该模型是pytorch的cnn转化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.
    发表于 05-27 07:15

    聆思CSK6视觉语音大模型AI开发板入门资源合集(硬件资料、大模型语音/多模态交互/英语评测SDK合集)

    丰富外设配件 配套多模态应用示例,支持快速上手体验大模型语音交互、智能视觉等 AI 应用 板载 DAPLINK 调试器,外接一条USB 线即可实现烧录、调试、串口日志查看 板载网络模组,支持开发联网类
    发表于 06-18 17:33

    AI模型可以设计电路吗?

    AI模型
    德赢Vwin官网 网官方
    发布于 :2024年01月02日 15:09:29

    AI模型怎么解决芯片过剩?

    AI模型
    德赢Vwin官网 网官方
    发布于 :2024年01月02日 15:42:05

    AI模型可以取代大学教育吗?

    AI模型
    德赢Vwin官网 网官方
    发布于 :2024年01月02日 16:27:52

    AI算法中比较常用的模型都有什么?

    AI算法中比较常用的模型都有什么
    发表于 08-27 09:19

    【KV260视觉入门套件试用体验】Vitis AI 构建开发环境,并使用inspector检查模型

    量化 七、Vitis AI 通过迁移学习训练自定义模型 八、Vitis AI 将自定义模型编译并部署到KV260 铺垫 Vitis
    发表于 10-14 15:34

    如何使用NVIDIA TAO快速准确地训练AI模型

    利用 NVIDIA TLT 快速准确地训练人工智能模型的探索表明,人工智能在工业过程具有巨大的潜力。
    的头像 发表于 04-20 17:45 2792次阅读
    如何使用NVIDIA TAO<b class='flag-5'>快速</b>准确地训练<b class='flag-5'>AI</b><b class='flag-5'>模型</b>

    AI模型和小模型是什么?AI模型和小模型的区别

      随着人工智能的不断发展和应用,机器学习模型的大小越来越成为一个重要的问题。在机器学习,我们通常将模型分为两类:大模型和小模型。本文将介
    发表于 08-08 16:55 9114次阅读

    OpenVIN赋能BLIP实现视觉语言AI边缘部署

    ,使用 OpenVINO 轻松文生图》,我们介绍了利用OpenVINO 运行Stable Diffusion模型快速实现文生图应用。让人人可以成为绘画大师,利用AI随心作画。
    的头像 发表于 09-04 10:54 1w次阅读
    <b class='flag-5'>OpenVIN</b>赋能BLIP实现视觉语言<b class='flag-5'>AI</b>边缘部署

    如何快速下载OpenVINO NotebooksAI模型

    OpenVINO Notebooks是Jupyter Notebook形式的OpenVINO范例程序大集合,方便开发者快速学习并掌握OpenVINO推理程序,并通过Copy&Paste方式将范例的关键程序应用到自己的
    的头像 发表于 12-12 14:40 1119次阅读
    如何<b class='flag-5'>快速</b><b class='flag-5'>下载</b>OpenVINO <b class='flag-5'>Notebooks</b><b class='flag-5'>中</b>的<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>

    AI模型在MCU的应用

    机遇。将AI模型集成到MCU,不仅提升了设备的智能化水平,还使得设备能够执行更复杂的任务,实现自主决策和实时响应。本文将从AI模型在MCU
    的头像 发表于 07-12 10:24 890次阅读

    AI模型在自然语言处理的应用

    AI模型在自然语言处理(NLP)的应用广泛且深入,其强大的语义理解和生成能力为NLP任务带来了显著的性能提升。以下是对AI模型在NLP
    的头像 发表于 10-23 14:38 445次阅读

    AI模型市场分析

    随着人工智能技术的快速发展,AI模型已成为全球科技竞争的新高地、未来产业的新赛道以及经济发展的新引擎。下面,AI部落小编分析了当前AI
    的头像 发表于 11-01 09:51 147次阅读