Qwen1.5-110B与其他开源AI大模型评分对比 原图定位 4 月 28 日,阿里云通义千问 Qwen1.5-110B 开源,该模型拥有超 1000 亿参数,可以处理 32K tokens 的上下文长度,并支持英、中、法、西、德、俄、日、韩、越、阿等多种语言,是通义千问 Qwen1.5 系列中规模最大的模型。Qwen1.5-110B 沿用了 Transformer 的解码器架构,包括分组查询注意力(GQA)使得模型推理更加高效。目前,Qwen1.5-110B 在 MMLU、TheoremQA、ARC-C、GSM8K、MATH 和 HumanEval 等多个基准测评中超越了 Meta 的 Llama-3-70B。在最近的 HuggingFace 开源大模型排行榜 Open LLM Leaderboard 上,开源的 Qwen1.5-110B 已经登上了榜首,成为了比 Llama-3-70B 更优秀的模型。图表 4 展示了 Qwen1.5-110B 与部分知名开源大模型的 评分数值,对比图表 4 中的 10 项大模型评价基 准,Qwen1.5-110B 已经在其中的 MMLU,TheoremQA,ARC-C 等七项评价基准中得分超过了 Llama-3-70B。