[Techweb] 7月23日,阿里巴巴·汤伊·齐旺(Alibaba Tongyi Qianwen)发布了迄今为止最具替代性模型Qwen3-Coder,并正式开放了资源。据报道,QWEN3-CODER的尺寸多种多样。当前最强的版本,QWEN3-CODER-480B-A35B-INSTRUCTY是MOE模型,具有480B的35B参数参数。它本机支持256K令牌的上下文,并可以通过纱线扩展到1M令牌,具有出色的代码和代理功能。 QWEN3-CODER-480B-A35B-INSTRUCTION实现了模型在编码代理中的开放资源的SOTA效应,代理使用和使用与Claude Sonnet4相当的代理。为了促进开发人员更好地使用QWEN3-CODER,THYI团队还打开了命令行工具QWEN代码的来源。 QWEN代码是基于Gemini代码的二级开发,并且适合提示和工具调用协议,因此QWEN代码可以在编码代理的活动中最大化QWEN3-CODER性能。此外,Qwen3-Coder的API也可以与Claude Code和Cline等工具一起使用。目前,Qwen3-编码已在摩德式社区和拥抱面的平台上采购,世界各地的开发人员可以免费下载和使用它。 Qwen3-Coder即将连接到阿里巴巴的AI编程产品Tongyi Lingma,API也已在阿里巴巴云Baiil发射。今年5月23日,Claude 4双模型的人类Claude Opus 4和Claude Sonnet 4发行了关键词“不间断的编码7小时”,声称可以提供出色的编码和推理功能。在整个开幕期间,拟人化AI编程助理Claude Code被提出。 Sa Makapaswe -Bench的编程基准验证了时间,Claude Opus 4和Claude Sonnet 4分数分别开放了扩展的思维,分别为79.4%和80.2%,显着超过OpenAI codex -1,OpenAI Codex -1,OpenAI O3,OpenAI GPT -4.1,openai gpt -4.1,gemini 2.5 Pro和其他型号GPT -pro和其他模型-4.1,gemini and gemini and gemini和其他模型f倒下的冠军。根据TGYYI团队的说法,此Qwen3-Coder升级正在从各个角度扩展以提高模型代码的技能。包括数据扩展:总计7.5T(代码70%),同时保持一般和数学功能,具有出色的编程功能;上下文扩展:本地支持256K上下文,扩展到1M纱线,针对仓库级别和动态数据(例如提拉请求)进行了优化,帮助编码代理;综合数据扩展:使用QWEN2.5代码来进行线素并重写低质量数据,总体数据质量的显着提高。此外,在现实世界软件工程(例如SWE-Bench)的工作中,Talyyi团队在QWEN3-CODER的训练后阶段进行了RL代理,这鼓励该模型使用工具通过多次接触旋转来解决问题,并且在Alibaba Cloud的同一时间内可以实现20K独立的环境。 ThIS IS基础设施可以提供大规模的反馈和增强研究,而Qwen3-Coder最终意识到开放式SOTA源对经过验证的SWE-Bench的影响。