12月1日,阿里云举行通义千问发布会,开源通义千问720亿参数模型Qwen-72B、18亿参数模型Qwen-1.8B和音频大模型Qwen-Audio。其间,根据Qwen-72B,大中型企业可开发商业运用,高校、科研院所可展开人工智能驱动的科研工作。
本年8月以来,阿里云开源了Qwen-7B、Qwen-14B和视觉了解模型Qwen-VL。这几款参数模型先后冲上HuggingFace、Github大模型榜单,得到中小企业和个人开发者的喜爱,累计下载量逾越150万,催生出150多款新模型、新运用。
发布会上介绍,通义千问现在共开源18亿、70亿、140亿、720亿参数的4款大言语模型,以及视觉了解、音频了解两款多模态大模型,完成“全尺度、全模态”开源。其间,研制团队优化了Qwen-72B的指令遵从、东西运用等技术,使之能更好地被下流运用集成。比方,Qwen-72B搭载了强壮的体系指令才能,用户只用一句提示词就可定制AI帮手,要求大模型扮演某个人物或许履行特定的回复使命。
会上介绍,Qwen-72B能处理最多32k的长文本输入,在长文本了解测验集LEval上获得了逾越ChatGPT-3.5-16k的作用。Qwen-72B根据3T tokens高质量数据练习,在10个威望基准测评中夺得开源模型最优成果,在部分测评中逾越闭源的GPT-3.5和GPT-4。
详细而言,英语使命上,Qwen-72B在MMLU基准测验获得开源模型最高分;中文使命上,Qwen-72B霸榜C-Eval、CMMLU、GaokaoBench等基准,得分逾越GPT-4;数学推理方面,Qwen-72B在GSM8K、MATH测评中断层式抢先其他开源模型;代码了解方面,Qwen-72B在HumanEval、MBPP等测评中的体现大幅度的进步,代码才能有了质的腾跃。
当天发布的Qwen-Audio则可以感知和了解人声、天然声、动物声、音乐声等各类语音信号。用户都可以输入一段音频,要求模型给出对音频的了解,乃至根据音频进行文学创作、逻辑推理、故事续写等等。音频了解可以赋予大模型挨近人类的听觉才能。
此外,继本年8月开源视觉了解大模型Qwen-VL后,本次发布会宣告了Qwen-VL的严重更新——大幅度的进步通用OCR、视觉推理、中文文本了解根底才能,还能处理各种分辨率和标准的图画,乃至能“看图做题”。
阿里云CTO周靖人表明,开源生态对促进中国大模型的技术进步与运用落地至关重要,通义千问将继续投入开源,期望成为“AI年代最敞开的大模型”,与同伴们一起促进大模型生态建设。
工作时间:周一至周五 9:00-18:00
联系人:李经理
手机:15831016066
邮件:9087617@QQ.COM
地址:河北省邯郸市永年区临洺关镇西名阳村北