全国首发开源 | 模态跃迁技术团队完成 Qwen3-ASR 成功适配海光 K100-AI

图片[1]-全国首发开源 | 模态跃迁技术团队完成 Qwen3-ASR 成功适配海光 K100-AI-AI Express News

近日,模态跃迁技术团队在国内率先完成了通义千问团队最新开源语音识别大模型 Qwen3-ASR 在海光 K100-AI DCU 上的适配工作,实现了该模型在国产算力平台上的高效部署与推理。本文将从技术背景讲起,解析适配的技术意义,展示适配成果,并说明该方案的应用前景

开源链接:

https://github.com/mercallureAI/Qwen3ASR-K100

Qwen3-ASR 简介

Qwen3-ASR 是阿里巴巴通义千问团队于2026年1月推出的新一代开源端到端自动语音识别模型系列,包含 1.7B 和 0.6B 两个参数规模版本。该模型基于 Qwen3-Omni 多模态基础模型构建,支持 52 种语言及方言 的识别,涵盖 30 种主流语言和 22 种中文方言,同时支持语音、歌声、带背景音乐的歌曲等多种音频类型的识别。

在性能表现上,Qwen3-ASR-1.7B 在多项公开评测基准中达到了开源 ASR 模型的最优水平,并可与最强的商用 API 相媲美。0.6B 版本则在精度与效率之间取得了出色的平衡,在 128 并发场景下可达到 2000 倍的吞吐量。两个版本均支持离线与流式统一推理,可处理长音频转写任务。

海光 K100-AI 简介

图片[2]-全国首发开源 | 模态跃迁技术团队完成 Qwen3-ASR 成功适配海光 K100-AI-AI Express News

海光 K100-AI 深度计算单元(DCU)

海光 K100-AI 是海光信息推出的面向深度学习场景的高性能DCU(Deep-learning Computing Unit,深度计算单元)。作为国产AI 算力的代表性产品,K100-AI 凭借充裕的显存容量和高带宽,为大模型推理提供了坚实的硬件基础,是当前国产 AI 算力生态中的重要一环。

FP16/BF16 算力
196 TFLOPS
INT8 算力
392 TOPS
显存容量
64 GB
显存带宽
896 GB/s
PCIe 接口
5.0 x16
功耗
350W

适配的技术意义

Qwen3-ASR 的高效运行依赖 vLLM 推理框架,其官方要求的 vLLM 版本为 0.14.0。然而,海光 DCU 当前官方支持的 vLLM 版本仅为 0.11.0,新版本预计要到今年四月随新版 DTK 一同发布。这意味着在官方适配到位之前,要在海光 K100-AI 上运行最新的 Qwen3-ASR 模型,存在显著的 框架兼容性障碍

核心突破:模态跃迁团队基于自主研发的"跃迁基座"——一套面向国产异构 GPU 集群的大模型部署与推理加速方案,通过对底层推理框架的深度适配与优化,成功跨越了这一版本限制,提前两个月实现了 Qwen3-ASR-1.7B 模型在海光 K100-AI 上的无缝部署与稳定运行。

这一工作验证了通过专业的 AI 基础设施技术攻关,可以有效缩短顶尖开源模型在国产算力平台上的落地周期,加速国产 AI 生态的自主可控进程。

适配成果

图片[3]-全国首发开源 | 模态跃迁技术团队完成 Qwen3-ASR 成功适配海光 K100-AI-AI Express News

Qwen3-ASR-1.7B 在海光 K100-AI 上成功运行的终端日志

从运行日志中可以看到,Qwen3-ASR-1.7B 模型在海光 K100-AI 上完成了从加载到推理的全流程。关键运行指标如下:

模型权重加载耗时
4.24 秒
模型内存占用
3.87 GiB
可用 KV 缓存
35.92 GiB
GPU KV 缓存容量
336,320 tokens
引擎初始化总耗时
24.09 秒
支持任务类型
generate, transcription

在实际推理测试中,系统成功完成了中英文混合语音的识别任务,输出结果准确流畅,充分验证了该适配方案的可用性与稳定性。

图片

武汉模态跃迁科技有限公司,是一家大模型领域科技企业,专注以多模态大模型、AI Agent为代表的新一代人工智能技术研发与产业落地,旨在以大模型基座驱动产业智能进化。

模态跃迁核心团队来自领域内首个国家级科研机构——武汉大学国家多媒体软件工程技术研究中心,是多模态人工智能产业联盟理事单位、微信生态一级合作伙伴、英伟达生态联盟成员,已完成华为昇腾合作伙伴认证,并获得了多家人工智能领域头部投资机构融资。

模态跃迁在多模态大模型、AI Agent、AI Infra 领域有深厚技术积累,核心产品是全链路大模型通用中间件基座——“跃迁基座”。“跃迁基座”是一套面向大规模人工智能应用的综合技术中台,整合了多模态模型、智能体框架、RAG框架、合成数据引擎、本地推理加速技术等中间组件,致力于打造一个高效、可扩展且安全的技术生态系统,为各行业AI应用提供强大底层支撑。

基于跃迁基座,模态跃迁提供大模型训练/部署/推理优化等AI Infra服务,并构建了水利水文、高校教育、工程咨询等领域的大模型赋能方案。成功服务了多家海内外大型企业与国际知名高校科研院所。

<原文链接:https://mp.weixin.qq.com/s/pSRG4I3AGFg4udGc1EQIdQ

© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享
模态跃迁的头像-AI Express News
评论 抢沙发

请登录后发表评论

    暂无评论内容