Qwen3-Coder?提供多種尺寸,此前開源了頂配版Qwen3-Coder-480B-A35B-Instruc,今天又開源了輕量版本Qwen3-Coder-Flash,全稱為Qwen3-Coder-30B-A3B-Instruct。
Qwen3-Coder-Flash是什么?
Qwen3-Coder-Flash 是阿里通義千問開源的 30B 參數編程大模型。Qwen3-Coder-Flash擁有超強的Agent能力,在代理式編程(Agentic Coding)、瀏覽器使用(Agentic Browser-Use)、工具調用(Tool Use)等領域,超越當前頂級開源模型,僅略遜于頂配版Qwen3-Coder-480B-A35B-Instruct,及Claude Sonnet-4、GPT4.1等領先閉源模型。
該模型支持 256K tokens 原生上下文長度,并可通過 YaRN 技術擴展至 最多 1M tokens,顯著提升長上下文處理能力。它還針對 Qwen Code、CLINE、Roo Code 等平臺進行了 函數調用格式優化,提升實際部署效率。
模型權重已在 ModelScope 與 Hugging Face 平臺開放下載,并可通過 Qwen Chat 在線體驗。

Qwen3-Coder-Flash的主要特性
- 卓越的Agentic能力:Qwen3-Coder-Flash擁有超強的Agent能力。在代理式編程(Agentic Coding)、瀏覽器使用(Agentic Browser-Use)、工具調用(Tool Use)等領域,超越當前頂級開源模型,僅略遜于頂配版Qwen3-Coder-480B-A35B-Instruct,及Claude Sonnet-4、GPT4.1等領先閉源模型。
- 倉庫級長上下文理解:原生支持 256K tokens,支持 YaRN 可擴展至 1M tokens,整個項目庫都能理解,再也不用擔心代碼上下文斷層了。
- 支持多平臺使用:具備專門設計的函數調用格式,為Qwen Code、CLINE、Roo Code、Kilo Code等平臺作了優化,用起來超順手。
如何體驗Qwen3-Coder-Flash?
Qwen3-Coder-Flash已在魔搭社區、Hugging Face正式開源,開發者可在本地硬件自由部署。同時,也在 Qwen Chat 上同步上線了新模型。
- 在線體驗:chat.qwen.ai
- 開源模型:
?版權聲明:如無特殊說明,本站所有內容均為AIHub.cn原創發布和所有。任何個人或組織,在未征得本站同意時,禁止復制、盜用、采集、發布本站內容到任何網站、書籍等各類媒體平臺。否則,我站將依法保留追究相關法律責任的權利。

