qwen大模型官网,用于理解和分析用户输入的自然语言,以及图片、音频、视频等多模态数据
Qwen大模型简介
qwen大模型官网: https://qwen2.org/
qwen大模型github项目地址: https://github.com/QwenLM
2024 年 2 月,Qwen 迎来了重要的升级,推出了 Qwen1.5 系列。该系列不仅在模型规模上有所扩展,还引入了分组查询注意力(GQA)技术,显著提升了模型的推理效率和性能表现。其中,Qwen1.5-110B 更是成为该系列的旗舰版本,突破千亿参数大关,成为业界首款公开的超 1000 亿参数语言模型。这一成就使得 Qwen 在处理复杂语言任务时具备更强的能力,能够学习到更深层次的语言结构和语境理解,为用户提供更加精准、流畅且自然的交互体验。同时,Qwen1.5 系列在多语言支持方面也有了显著提升,涵盖了英语、中文、法语、西班牙语、德语等多国语言,真正实现了跨文化的无障碍交流。
2024 年 6 月 7 日,阿里云再次发布开源模型 Qwen2-72B,这是 Qwen 模型发展历程中的又一重要里程碑。Qwen2 系列在多个方面实现了代际飞跃,包含了 5 个尺寸的预训练和指令微调模型,从 Qwen2-0.5B 到 Qwen2-72B,满足了不同场景和用户的需求。所有尺寸模型都使用了 GQA 机制,让用户能够体验到推理加速和显存占用降低的优势。在训练数据方面,增加了 27 种语言相关的高质量数据,进一步提升了模型的多语言能力。此外,Qwen2 还增大了上下文长度支持,Qwen2-72B-Instruct 能够完美处理 128k 上下文长度内的信息抽取任务,在代码、数学、推理、指令遵循等能力上都有了大幅提升。在多个权威评测中,Qwen2-72B 取得了优异的成绩,超越了包括美国 Llama3-70B 在内的多个模型,展现出了强大的实力。
1. 模型架构与版本
-
Qwen2.5-Max:这是Qwen系列的旗舰模型,采用超过20万亿tokens的预训练数据,展现出卓越的综合性能。
-
Qwen2.5-VL:专注于视觉语言多模态任务,能够处理图像、视频等多模态输入。
-
Qwen2.5-Coder:专注于编程辅助,支持多种编程语言。
-
Qwen2.5-Math:专注于数学问题的解决。
2. 功能特性
-
多模态交互:Qwen2.5-VL能够识别和分析图像、视频中的文本、图表、图标等,并支持长视频理解和事件捕捉。
-
指令跟踪与生成:Qwen2.5系列模型在指令跟踪、长文本生成、结构化数据理解等方面有显著提升。
-
强大的推理能力:Qwen2.5-Max在知识测试、编程、推理等多个基准测试中表现突出,超越了DeepSeek V3、Llama-3.1-405B等模型。
-
灵活的定制化应用:支持根据企业需求进行定制化开发,适用于智能客服、自动化办公、编程辅助等多种应用场景。
3. 性能与评测
-
超大规模预训练数据:Qwen2.5-Max采用超过20万亿tokens的预训练数据,确保模型具备卓越的学习和推理能力。
-
基准测试表现:在MMLU-Pro、LiveCodeBench、LiveBench等多个权威评测中,Qwen2.5-Max展现出与DeepSeek V3、GPT-4和Claude-3.5-Sonnet比肩甚至领先的性能。
-
多模态能力:Qwen2.5-VL在视觉理解、多模态交互以及自动化任务执行等方面表现出色,支持多种输入方式和结构化输出。
4. 使用与体验
-
在线体验:用户可以通过Qwen Chat平台直接与模型进行对话。
-
API服务:企业可以通过阿里云大模型服务平台的API服务集成Qwen模型。
应用场景
通义千问凭借其强大的语言及多模态数据处理能力,为用户带来高效、智能的语言服务体验,其能力包括但不限于文字创作、翻译服务和对话模拟等,具体应用场景如下:
-
文字创作:撰写故事、公文、邮件、剧本和诗歌等。
-
文本处理:润色文本和提取文本摘要等。
-
编程辅助:编写和优化代码等。
-
翻译服务:提供各类语言的翻译服务,如英语、日语、法语或西班牙语等。
-
对话模拟:扮演不同角色进行交互式对话。
-
数据可视化:图表制作和数据呈现等。
文本生成-通义千问
以下是通义千问模型的商业版。相较于开源版,商业版具有最新的能力和改进。
各模型会不定期更新升级。如需使用固定版本,请选择快照版本。快照版本通常维护至下个快照版本发布时间的后一个月。
通义千问-Max
通义千问系列效果最好的模型,适合复杂、多步骤的任务。使用方法 | API参考 | 在线体验
模型名称 |
版本 |
上下文长度 |
最大输入 |
最大输出 |
输入成本 |
输出成本 |
免费额度 (注) |
(Token数) |
(每千Token) |
||||||
qwen-max
|
稳定版 |
32,768 |
30,720 |
8,192 |
0.0112元 Batch调用:0.0056元 |
0.0448元 Batch调用:0.0224元 |
100万Token 有效期:百炼开通后180天内 |
qwen-max-latest
|
最新版 |
0.0112元 |
0.0448元 |
||||
qwen-max-2025-01-25
|
快照版 |
||||||
qwen-max-2024-09-19
|
0.02元 |
0.06元 |
|||||
qwen-max-2024-04-28
|
8,000 |
6,000 |
2,000 |
0.04元 |
0.12元 |
||
qwen-max-2024-04-03
|
|||||||
qwen-max-2024-01-07
|
最新的qwen-max-0125模型:通义千问系列效果最好的模型,代码编写与理解能力、逻辑能力、多语言能力显著提升,回复风格面向人类偏好进行大幅调整,模型回复详实程度和格式清晰度明显改善,内容创作、JSON格式遵循、角色扮演能力定向提升。
通义千问-Plus
能力均衡,推理效果、成本和速度介于通义千问-Max和通义千问-Turbo之间,适合中等复杂任务。使用方法 | API参考 | 在线体验
模型名称 |
版本 |
上下文长度 |
最大输入 |
最大输出 |
输入成本 |
输出成本 |
免费额度 (注) |
(Token数) |
(每千Token) |
||||||
qwen-plus
|
稳定版 |
131,072 |
129,024 |
8,192 |
0.0008元 Batch调用:0.0004元 |
0.002元 Batch调用:0.001元 |
100万Token 有效期:百炼开通后180天内 |
qwen-plus-latest
|
最新版 |
0.0008元 |
0.002元 |
||||
qwen-plus-2025-01-12
|
快照版 |
||||||
qwen-plus-2024-12-20
|
|||||||
qwen-plus-2024-11-27
|
|||||||
qwen-plus-2024-11-25
|
|||||||
qwen-plus-2024-09-19
|
|||||||
qwen-plus-2024-08-06
|
128,000 |
0.004元 |
0.012元 |
||||
qwen-plus-2024-07-23
|
32,000 |
30,000 |
8,000 |
||||
qwen-plus-2024-06-24
|
|||||||
qwen-plus-2024-02-06
|
最新的qwen-plus-2025-01-12模型:相对于qwen-plus-2024-12-20模型,中英文整体能力有提升,中英常识、阅读理解能力提升较为显著,在不同语言、方言、风格之间自然切换的能力有显著改善,中文指令遵循能力显著提升。
通义千问-Turbo
通义千问系列速度最快、成本极低的模型,适合简单任务。使用方法 | API参考 | 在线体验
|
|
|
|
|
|
|
|
|
|
|
模型名称 |
版本 |
上下文长度 |
最大输入 |
最大输出 |
输入成本 |
输出成本 |
免费额度 (注) |
(Token数) |
|
(每千Token) |
|||||
qwen-turbo
|
稳定版 |
1,000,000 |
1,000,000 |
8,192 |
0.0003元 Batch调用:0.00015元 |
0.0006元 Batch调用:0.0003元 |
100万Token 有效期:百炼开通后180天内 |
qwen-turbo-latest
|
最新版 |
0.0003元 |
0.0006元 |
||||
qwen-turbo-2024-11-01
|
快照版 |
1000万Token 有效期:百炼开通后180天内 |
|||||
qwen-turbo-2024-09-19
|
131,072 |
129,024 |
100万Token 有效期:百炼开通后180天内 |
||||
qwen-turbo-2024-06-24
|
8,000 |
6,000 |
2,000 |
0.002元 |
0.006元 |
||
qwen-turbo-2024-02-06
|
最新的qwen-turbo-2024-11-01模型:在qwen-turbo-2024-09-19模型的能力之上扩展了上下文长度,模型支持的最大上下文长度从128k扩展到1M。
Qwen-Long
通义千问系列上下文窗口最长,能力均衡且成本较低的模型,适合长文本分析、信息抽取、总结摘要和分类打标等任务。使用方法 | 在线体验
模型名称 |
上下文长度 |
最大输入 |
最大输出 |
输入成本 |
输出成本 |
免费额度 (注) |
(Token数) |
(每千Token) |
|||||
qwen-long |
10,000,000 |
10,000,000 |
6,000 |
0.0005元 Batch调用:0.00025元 |
0.002元 Batch调用:0.001元 |
100万Token 有效期:百炼开通后180天内 |
通义千问VL
通义千问VL是具有视觉(图像)理解能力的文本生成模型,不仅能进行OCR(图片文字识别),还能进一步总结和推理,例如从商品照片中提取属性,根据习题图进行解题等。使用方法 | API参考 | 在线体验
通义千问VL模型按输入和输出的总Token数进行计费。
图像转换为Token的规则:512×512像素的图像约等于334个Token,其他分辨率图像按比例换算;最小单位是28×28像素,即每28×28像素对应一个Token,如果图像的长或宽不是28的整数倍,则向上取整至28的整数倍;一张图最少4个Token。
|
|
|
|
|
|
|
|
|
|
模型名称 |
版本 |
上下文长度 |
最大输入 |
最大输出 |
输入成本 |
输出成本 |
免费额度 (注) |
(Token数) |
(每千Token) |
||||||
qwen-vl-max
|
稳定版 |
32,768 |
30,720
|
2,048 |
0.003元 Batch调用:0.0015元 |
0.009元 Batch调用:0.0045元 |
100万Token 有效期:百炼开通后180天内 |
qwen-vl-max-latest
|
最新版 |
0.003元 |
0.009元 |
||||
qwen-vl-max-2024-12-30
|
快照版 |
||||||
qwen-vl-max-2024-11-19
|
|||||||
qwen-vl-max-2024-10-30
|
0.02元 |
||||||
qwen-vl-max-2024-08-09
|
|||||||
qwen-vl-max-2024-02-01
|
8,000 |
6,000
|
2,000 |
||||
qwen-vl-plus
|
稳定版 |
8,000 |
6,000
|
0.0015元 Batch调用:0.00075元 |
0.0045元 Batch调用:0.00225元 |
||
qwen-vl-plus-latest
|
最新版 |
32,000 |
30,000
|
2,048 |
0.0015元 |
0.0045元 |
|
qwen-vl-plus-2025-01-02
|
快照版 |
||||||
qwen-vl-plus-2024-08-09
|
|||||||
qwen-vl-plus-2023-12-01 |
8,000 |
6,000 |
2,000 |
0.008元 |
通义千问OCR
通义千问OCR模型是专用于文字提取的模型。相较于通义千问VL模型,它更专注于文档、表格、试题、手写体文字等类型图像的文字提取能力。它能够识别多种语言,包括英语、法语、日语、韩语、德语、俄语和意大利语等。使用方法 | API参考|在线体验
|
|
|
|
|
|
|
|
|
模型名称 |
版本 |
上下文长度 |
最大输入 |
最大输出 |
输入输出单价 |
免费额度 (注) |
(Token数) |
(每千Token) |
|||||
qwen-vl-ocr
|
稳定版 |
34096 |
30000
|
4096 |
0.005元 |
100万Token 有效期:百炼开通后180天内 |
qwen-vl-ocr-latest
|
最新版 |
|||||
qwen-vl-ocr-2024-10-28
|
快照版 |
通义千问Audio
通义千问Audio是音频理解模型,支持输入多种音频(人类语音、自然音、音乐、歌声)和文本,并输出文本。该模型不仅能对输入的音频进行转录,还具备更深层次的语义理解、情感分析、音频事件检测、语音聊天等能力。使用方法
通义千问Audio模型按输入和输出的总Token数进行计费。
音频转换为Token的规则:每一秒钟的音频对应25个Token。若音频时长不足1秒,则按25个Token计算。
|
|
|
|
|
|
|
|
|
|
模型名称 |
版本 |
上下文长度 |
最大输入 |
最大输出 |
输入成本 |
输出成本 |
免费额度 (注) |
(Token数) |
(每千Token) |
||||||
qwen-audio-turbo
|
稳定版 |
8,000 |
6,000 |
1,500 |
目前仅供免费体验。
|
10万Token 有效期:百炼开通后180天内 |
|
qwen-audio-turbo-latest
|
最新版 |
8,192 |
6,144 |
2,048 |
|||
qwen-audio-turbo-2024-12-04
|
快照版 |
||||||
qwen-audio-turbo-2024-08-07
|
8,000 |
6,000 |
1,500 |
通义千问ASR(Beta版本)
通义千问ASR是基于Qwen-Audio训练,专用于语音识别的模型。目前支持的语言有:中文和英文。使用方法
|
|
|
|
|
|
|
|
|
|
模型名称 |
版本 |
上下文长度 |
最大输入 |
最大输出 |
输入成本 |
输出成本 |
免费额度 (注) |
(Token数) |
(每千Token) |
||||||
qwen-audio-asr
|
稳定版 |
8,192 |
6,144 |
2,048 |
目前仅供免费体验。
|
10万Token 有效期:百炼开通后180天内 |
|
qwen-audio-asr-latest
|
最新版 |
||||||
qwen-audio-asr-2024-12-04
|
快照版 |
通义千问数学模型
通义千问数学模型是专门用于数学解题的语言模型。使用方法 | API参考 | 在线体验
|
|
|
|
|
|
|
|
|
|
模型名称 |
版本 |
上下文长度 |
最大输入 |
最大输出 |
输入成本 |
输出成本 |
免费额度 (注) |
(Token数) |
(每千Token) |
||||||
qwen-math-plus
|
稳定版 |
4,096 |
3,072 |
3,072 |
0.004元 |
0.012元 |
100万Token 有效期:百炼开通后180天内 |
qwen-math-plus-latest
|
最新版 |
||||||
qwen-math-plus-2024-09-19
|
快照版 |
||||||
qwen-math-plus-2024-08-16
|
|||||||
qwen-math-turbo
|
稳定版 |
0.002元 |
0.006元 |
||||
qwen-math-turbo-latest
|
最新版 |
||||||
qwen-math-turbo-2024-09-19
|
快照版 |
通义千问Coder
通义千问代码模型。使用方法 | API参考 | 在线体验
|
|
|
|
|
|
|
|
|
|
模型名称 |
版本 |
上下文长度 |
最大输入 |
最大输出 |
输入成本 |
输出成本 |
免费额度 (注) |
(Token数) |
(每千Token) |
||||||
qwen-coder-plus
|
稳定版 |
131,072 |
129,024 |
8192 |
0.0035元 |
0.007元 |
100万Token 有效期:百炼开通后180天内 |
qwen-coder-plus-latest
|
最新版 |
||||||
qwen-coder-plus-2024-11-06
|
快照版 |
||||||
qwen-coder-turbo
|
稳定版 |
131,072 |
129,024 |
8,192 |
0.002元 |
0.006元 |
100万Token 有效期:百炼开通后180天内 |
qwen-coder-turbo-latest
|
最新版 |
||||||
qwen-coder-turbo-2024-09-19
|
快照版 |
通义千问翻译模型
基于通义千问模型优化的机器翻译大语言模型,擅长中英互译、中文与小语种互译、英文与小语种互译,小语种包括日、韩、法、西、德、葡(巴西)、泰、印尼、越、阿等26种。在多语言互译的基础上,提供术语干预、领域提示、记忆库等能力,提升模型在复杂应用场景下的翻译效果。使用方法
|
|
|
|
|
|
|
|
|
模型名称 |
上下文长度 |
最大输入 |
最大输出 |
输入成本 |
输出成本 |
免费额度 (注) |
(Token数) |
(每千Token) |
|||||
qwen-mt-plus |
2,048 |
1,024 |
1,024 |
0.015元 |
0.045元 |
50万Token 有效期:百炼开通后180天内 |
qwen-mt-turbo |
0.001元 |
0.003元 |
50万Token 有效期:百炼开通后180天内 |
文本生成-通义千问-开源版
-
模型名称中,xxb表示参数规模,例如qwen2-72b-instruct表示参数规模为72B,即720亿。
-
百炼支持调用通义千问的开源版,您无需本地部署模型。对于开源版,建议使用Qwen2.5或Qwen2模型。
QwQ
QwQ模型是由 Qwen 团队开发的实验性研究模型,专注于增强 AI 推理能力,尤其是数学和编程领域。QwQ模型的局限性请参见QwQ官方博客。使用方法 | API参考|在线体验
|
|
|
|
|
|
|
|
|
模型名称 |
上下文长度 |
最大输入 |
最大输出 |
输入成本 |
输出成本 |
免费额度 (注) |
(Token数) |
(每千Token) |
|||||
qwq-32b-preview |
32,768 |
30,720 |
16,384 |
0.0035元 Batch调用:0.00175元 |
0.007元 Batch调用:0.0035元 |
100万Token 有效期:百炼开通后180天内 |
Qwen2.5
Qwen2.5是Qwen大型语言模型的最新系列。针对Qwen2.5,我们发布了一系列基础语言模型和指令调优语言模型,参数规模从5亿到720亿不等。Qwen2.5在Qwen2基础上进行了以下改进:
-
在我们最新的大规模数据集上进行预训练,包含多达18万亿个Token。
-
由于我们在这些领域的专业专家模型,模型的知识显著增多,编码和数学能力也大幅提高。
-
在遵循指令、生成长文本(超过8K个标记)、理解结构化数据(例如表格)和生成结构化输出(尤其是JSON)方面有显著改进。对系统提示的多样性更具弹性,增强了聊天机器人的角色扮演实现和条件设置。
-
支持超过29种语言,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。
使用方法 | API参考 | 在线体验
|
|
|
|
|
|
|
|
|
模型名称 |
上下文长度 |
最大输入 |
最大输出 |
输入成本 |
输出成本 |
免费额度 (注) |
(Token数) |
(每千Token) |
|||||
qwen2.5-14b-instruct-1m |
1,000,000 |
1,000,000 |
8,192 |
0.001元 |
0.003元 |
100万Token 有效期:百炼开通后180天内 |
qwen2.5-7b-instruct-1m |
0.0005元 |
0.001元 |
||||
qwen2.5-72b-instruct |
131,072 |
129,024 |
0.004元 |
0.012元 |
||
qwen2.5-32b-instruct |
0.0035元 |
0.007元 |
||||
qwen2.5-14b-instruct |
0.001元 |
0.003元 |
||||
qwen2.5-7b-instruct |
0.0005元 |
0.001元 |
||||
qwen2.5-3b-instruct |
32,768 |
30,720 |
0.0003元 |
0.0009元 |
||
qwen2.5-1.5b-instruct |
限时免费 |
|||||
qwen2.5-0.5b-instruct |
Qwen2
阿里云的通义千问2-开源版。使用方法 | API参考 | 在线体验
|
|
|
|
|
|
|
|
|
模型名称 |
上下文长度 |
最大输入 |
最大输出 |
输入成本 |
输出成本 |
免费额度 (注) |
(Token数) |
(每千Token) |
|||||
qwen2-72b-instruct |
131,072 |
128,000 |
6,144 |
0.004元 |
0.012元 |
100万Token 有效期:百炼开通后180天内 |
qwen2-57b-a14b-instruct |
65,536 |
63,488 |
0.0035元 |
0.007元 |
||
qwen2-7b-instruct |
131,072 |
128,000 |
0.001元 |
0.002元 |
||
qwen2-1.5b-instruct |
32,768 |
30,720 |
限时免费 |
|||
qwen2-0.5b-instruct |
Qwen1.5
阿里云的通义千问1.5-开源版。使用方法 | API参考 | 在线体验
|
|
|
|
|
|
|
|
|
模型名称 |
上下文长度 |
最大输入 |
最大输出 |
输入成本 |
输出成本 |
免费额度 (注) |
(Token数) |
(每千Token) |
|||||
qwen1.5-110b-chat |
32,000 |
30,000 |
8,000 |
0.007元 |
0.014元 |
100万Token 有效期:百炼开通后180天内 |
qwen1.5-72b-chat |
2,000 |
0.005元 |
0.01元 |
|||
qwen1.5-32b-chat |
0.0035元 |
0.007元 |
||||
qwen1.5-14b-chat |
8,000 |
6,000 |
0.002元 |
0.004元 |
||
qwen1.5-7b-chat |
0.001元 |
0.002元 |
||||
qwen1.5-1.8b-chat |
32,000 |
30,000 |
限时免费 |
|||
qwen1.5-0.5b-chat |
Qwen
阿里云的通义千问-开源版。使用方法 | API参考 | 在线体验
|
|
|
|
|
|
|
|
|
模型名称 |
上下文长度 |
最大输入 |
最大输出 |
输入成本 |
输出成本 |
免费额度 (注) |
(Token数) |
(每千Token) |
|||||
qwen-72b-chat |
32,000 |
30,000 |
2,000 |
0.02元 |
0.02元 |
100万Token 有效期:百炼开通后180天内 |
qwen-14b-chat |
8,000 |
6,000 |
0.008元 |
0.008元 |
||
qwen-7b-chat |
7,500 |
1,500 |
0.006元 |
0.006元 |
||
qwen-1.8b-chat |
8,000 |
2,000 |
限时免费 |
|||
qwen-1.8b-longcontext-chat |
32,000 |
30,000 |
限时免费(需申请) |
QVQ
QVQ模型是由 Qwen 团队开发的实验性研究模型,专注于提升视觉推理能力,尤其在数学推理领域。QVQ模型的局限性请参见QVQ官方博客。使用方法 | API参考
|
|
|
|
|
|
|
|
|
模型名称 |
上下文长度 |
最大输入 |
最大输出 |
输入成本 |
输出成本 |
免费额度 (注) |
(Token数) |
(每千Token) |
|||||
qvq-72b-preview |
32,768 |
16,384
|
16,384 |
0.012元 |
0.036元 |
10万Token 有效期:百炼开通后180天内 |
Qwen-VL
阿里云的通义千问VL开源版。使用方法 | API参考
其中,Qwen2.5-VL在Qwen2-VL的基础上做了如下改进:
-
在指令跟随、数学计算、代码生成、结构化输出(JSON输出)等方面的能力有显著提升。
-
支持对图像中的文字、图表、布局等视觉内容进行统一解析,并增加了精准定位视觉元素的能力,支持检测框(矩形框的左上角和右下角坐标)和点坐标(矩形框的中心点坐标)的表示方式。
-
结合强大的定位和推理能力,模型的Agent能力大幅增强,可与手机、电脑、机器人等设备集成,根据视觉环境和文本指令进行自动操作。
-
支持对长视频文件(最长10分钟)进行理解,具备秒级别的事件时刻定位能力,能理解时间先后和快慢。
|
|
|
|
|
|
|
|
|
模型名称 |
上下文长度 |
最大输入 |
最大输出 |
输入成本 |
输出成本 |
免费额度 (注) |
(Token数) |
(每千Token) |
|||||
qwen2.5-vl-72b-instruct |
131,072 |
129,024
|
2,048 |
0.016元 |
0.048元 |
100万Token 有效期:百炼开通后180天内 |
qwen2.5-vl-7b-instruct |
0.002元 |
0.005元 |
||||
qwen2.5-vl-3b-instruct |
0.0012元 |
0.0036元 |
||||
qwen2-vl-72b-instruct |
32,768 |
30,720
|
2,048 |
0.016元 |
0.048元 |
|
qwen2-vl-7b-instruct |
32,000 |
30,000
|
2,000 |
目前仅供免费体验。
|
10万Token 有效期:百炼开通后180天内 |
|
qwen2-vl-2b-instruct |
限时免费 |
|||||
qwen-vl-v1 |
8,000 |
6,000
|
1,500 |
目前仅供免费体验。
|
||
qwen-vl-chat-v1 |
Qwen-Audio
阿里云的通义千问Audio开源版。使用方法
|
|
|
|
|
|
|
|
|
模型名称 |
上下文长度 |
最大输入 |
最大输出 |
输入成本 |
输出成本 |
免费额度 (注) |
(Token数) |
(每千Token) |
|||||
qwen2-audio-instruct
|
8,000 |
6,000 |
1,500 |
目前仅供免费体验。
|
10万Token 有效期:百炼开通后180天内 |
|
qwen-audio-chat |
Qwen-Math
基于Qwen模型构建的专门用于数学解题的语言模型。Qwen2.5-Math相比Qwen2-Math有了实质性的改进。Qwen2.5-Math支持中文和英文,并整合了多种推理方法,包括CoT(Chain of Thought)、PoT(Program of Thought)和 TIR(Tool-Integrated Reasoning)。使用方法 | API参考| 在线体验
|
|
|
|
|
|
|
|
|
模型名称 |
上下文长度 |
最大输入 |
最大输出 |
输入成本 |
输出成本 |
免费额度 (注) |
(Token数) |
(每千Token) |
|||||
qwen2.5-math-72b-instruct |
4,096 |
3,072 |
3,072 |
0.004元 |
0.012元 |
100万Token 有效期:百炼开通后180天内 |
qwen2.5-math-7b-instruct |
0.001元 |
0.002元 |
||||
qwen2.5-math-1.5b-instruct |
限时免费 |
|||||
qwen2-math-72b-instruct |
0.004元 |
0.012元 |
||||
qwen2-math-7b-instruct |
0.001元 |
0.002元 |
||||
qwen2-math-1.5b-instruct |
目前仅供免费体验。
|
Qwen-Coder
通义千问代码模型开源版。Qwen2.5-Coder相比CodeQwen1.5有了实质性的改进。Qwen2.5-Coder在包含5.5万亿Token的编程相关数据上进行了训练,使即使较小的编程专用模型也能在编程评估基准测试中表现出媲美大型语言模型的竞争力。API参考 | 在线体验
|
|
|
|
|
|
|
|
|
模型名称 |
上下文长度 |
最大输入 |
最大输出 |
输入成本 |
输出成本 |
免费额度 (注) |
(Token数) |
(每千Token) |
|||||
qwen2.5-coder-32b-instruct |
131,072 |
129,024 |
8,192 |
0.0035元 |
0.007元 |
100万Token 有效期:百炼开通后180天内 |
qwen2.5-coder-14b-instruct |
0.002元 |
0.006元 |
||||
qwen2.5-coder-7b-instruct |
0.001元 |
0.002元 |
||||
qwen2.5-coder-3b-instruct |
32,768 |
30,720 |
限时免费 |
限时免费 |
||
qwen2.5-coder-1.5b-instruct |
100万Token 有效期:百炼开通后180天内 |
|||||
qwen2.5-coder-0.5b-instruct |
限时免费 |
基础限流
关于模型的限流条件,请参见限流。
数据评估
本站别摸鱼导航提供的qwen大模型都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由别摸鱼导航实际控制,在2025年2月1日 下午7:38收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,别摸鱼导航不承担任何责任。