通义千问近日开源了其首个千亿级参数模型Qwen1.5-110B,这是其全系列中首个达到千亿级别的开源模型。Qwen1.5-110B模型继承了Qwen1.5系列的Transformer解码器架构,并在技术上引入了分组查询注意力方法(GQA),极大地提升了模型在推理时的效率。
这款拥有1100亿参数的模型支持高达32K的上下文长度,同时展现出了卓越的多语言能力。无论是中文、英文、法语、德语、西班牙语、俄语,还是日语、韩语、越南语和阿拉伯语等,Qwen1.5-110B都能提供精准、流畅的语言处理体验。这一里程碑式的开源模型,无疑将为AI领域的科研人员、开发者和爱好者提供更为强大、灵活的工具。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表德赢Vwin官网
网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
开源
+关注
关注
3文章
3309浏览量
42469 -
通义千问
+关注
关注
1文章
25浏览量
237
发布评论请先 登录
相关推荐
阿里通义千问发布Qwen2.5-Turbo开源AI模型
近日,阿里通义千问官方宣布,经过数月的精心优化与改进,正式推出了Qwen2.5-Turbo开源AI模型。这款新
通义千问三款主力模型再降价
阿里云百炼平台再次掀起降价风暴,三款通义千问主力模型——Qwen-Turbo、Qwen-Plus及Qwen-Max,继5月首次大幅度降价后,再次迎来价格调整。此次降价力度空前,Qwen
通义千问发布第二代视觉语言模型Qwen2-VL
阿里巴巴旗下的通义千问近日宣布,其第二代视觉语言模型Qwen2-VL正式问世,并宣布旗舰模型Qwen2-VL-72B的API已顺利接入阿里云
【附实操视频】聆思CSK6大模型开发板接入国内主流大模型(星火大模型、文心一言、豆包、kimi、智谱glm、通义千问)
接入文心一言、通义千问、豆包、智谱glm、kimi等国内的大模型,但由于各家接口和数据格式不一样,调试验证会浪费很多时间。因此本篇以聆思CSK6大模
发表于 08-22 10:12
智能硬件接入主流大模型做语音交互(附文心一言、豆包、kimi、智谱glm、通义千问示例)
接入文心一言、通义千问、豆包、智谱glm、kimi等国内的大模型,这个是必须可以的。但由于各家接口和数据格式不一样,有些朋友直接参考chatgpt的方式没有走通,因此本篇以聆思CSK6
发表于 08-21 19:13
阿里通义千问Qwen2大模型发布并同步开源
阿里巴巴集团旗下的通义千问团队宣布,全新的Qwen2大模型正式发布,并在全球知名的开源平台Hugging Face和ModelScope上同
阿里通义千问Qwen2大模型发布
阿里巴巴最近发布了其通义千问系列的新成员——Qwen2大模型,并在Hugging Face和ModelScope两大平台上实现了同步开源。这
ChatGPT、Gemini、通义千问等一众大语言模型,哪家更适合您?
] 就以“ChatGPT、Gemini、通义千问等一众大语言模型,哪家更适合您”这样的主题,开展了一次深度的大语言模型的测评。开放夜现场测评
阿里云正式发布通义千问2.5,中文性能全面赶超GPT-4 Turbo
在通义大模型发布一周年之际,阿里云迈出了历史性的一步。近日,阿里云正式发布通义千问2.5版本,其性能全面超越GPT-4 Turbo,荣登中文
阿里云发布通义千问2.5
阿里云近日正式发布了通义千问2.5,标志着其人工智能技术在中文语境下取得了重要突破。据阿里云智能集团首席技术官周靖人介绍,通义千
阿里云通义千问发布320亿参数模型,优化性能及效率
与之前的模型相比,新版320亿参数模型在性能、效率以及内存占用方面取得了明显改善。具体来说,32B在智能体场景下能力优于14B模型,并且推理成本较小。
联发科天玑9300等旗舰芯片搭载通义千问大模型,成功实现
通义千问大模型可在离线环境下轻松应对多轮AI对话。此外,阿里云也承诺与联发科进行深度合作,为全球手机制造商提供端侧大模型解决方案。
联发科天玑9300搭载通义千问大模型,阿里云提供解决方案
通义千问大模型已开源多项版本,包括18亿、70亿、140亿及720亿参数等版本伴随视觉、音频多模
评论