字节Seed最新模型,让豆包学会闭嘴听人说话(骂人也更自然了!)

AIGC动态2小时前发布 Si-Planet
65 0 0
字节Seed最新模型,让豆包学会闭嘴听人说话(骂人也更自然了!)

 

文章摘要


【关 键 词】 字节跳动全双工AI 语音豆包更新技术分野

字节跳动旗下 AI 研究团队_seed 于 4 月 9 日发布全新语音模型 Seeduplex 并在豆包 App 完成全量部署,其核心在于解决了长期存在的通信延迟与状态分离问题。以往语音助手多采用对讲机式的半双工逻辑,即先听完全部发言后再进行生成回复,期间系统会自动判定输入通道关闭。新版模型通过引入全双工特性,实现了在同一时间段内对用户音频和模型回复的处理并行流转,从根本上改变了人机交互的等待状态。相比于旧架构对声纹信号的机械式切分,新技术能将语义上下文实时纳入同一模型进行综合决策。

性能数据印证了这一架构优势,判停延迟降低 250 毫秒的同时,复杂环境内的抢话比例削减了四成。在实际测试中,面对交通噪音或背景广播等干扰,AI 能够精准区分目标指令与其他杂音。这种能力的提升意味着用户在进行口语训练、行车操作或社交场合对话时无需特意寻找安静区域。此外,交互反馈变得更加细腻,当用户表达意图中途切换语句时,系统能够准确捕捉并调整回复逻辑,而非强制等待整句结束,使得交流节奏更接近自然的人际谈话状态。目前对比结果显示,中断响应速度甚至优于真人平均水平,尽管整体自然度距完美人机匹配尚有差距。

业界全双工技术演进呈现多样化路径,涵盖原生模型并行构建与分层管道串联两种主流方向。虽然学术界已有如 Moshi 等项目尝试底层同构处理,但其商业化落地的稳定性尚未经充分验证。相比之下,现有生产方案虽然在工具调用兼容性上较为成熟,却始终受制于轮流处理带来的物理限制。字节方面承认在当前工程实践中需克服高并发场景下的抖动与卡顿难题。随着未来对视觉输入支持与多层级信息检索能力的增强,该技术有望进一步推动智能助手在多角色协同与实时感知场景中的广泛应用。从模拟设备到数字拟人化的演变过程中,每一阶段的参数优化都在逐步缩小机器理解与人类思维之间的隔阂距离,最终形态将取决于多维场景下的综合表现。

原文和模型


【原文链接】 阅读原文 [ 2355字 | 10分钟 ]
【原文作者】 硅星人Pro
【摘要模型】 qwen3.5-flash
【摘要评分】 ★★★☆☆

© 版权声明
“绘蛙”

相关文章

“讯飞星辰”

暂无评论

暂无评论...