新京报贝壳财经讯(记者罗亦丹)6月26日,科大讯飞语音合成技术全新升级,一句话声音复刻与超拟人合成两大核心能力实现突破。


此次讯飞技术突破的关键,除了星火语音大模型底座的基础和持续迭代,还构建了一套三阶段层次化语音建模框架。首先,通过星火底座大模型精确捕捉发音规律和韵律特征。其次,在音色恢复阶段解耦并重构声学特征。最后,通过高精度声码器恢复高保真波形。


这套语音建模框架突破了语义表征,采用mel VQ-AE模型结合语音自监督预训练编码器。这种结构实现了发音内容与音色特征的可控分离,也显著提升了语义LLM的建模稳定性。


只需一句话录音,AI就能完整捕捉用户喉腔共鸣、口音特点、气息流转等发音特征,精准还原用户的停顿习惯、情感起伏和呼吸节奏,达到真人难以区分的复刻效果。


在需要深入交流的场景里,仅有相似音色并不足够。讯飞的超拟人合成技术此次进阶的重点是赋予AI声音以“上下文情商”。面对多轮对话的复杂度,科大讯飞开发了上下文感知的语音生成系统。该系统融合历史文本及对应音频特征,通过跨模态编码器分析上下文,让AI声音能像真人一般敏锐响应情绪转变和话题转换。在真人与AI声音的对话测试中,随着话题和情绪变化,合成声音的语气会实时调整,给出恰如其分的情感回应,整体自然度接近真人水平。


科大讯飞研究院院长刘聪表示:“我们希望声音不止于工具,更成为承载情感与个性的新维度,赋能更多场景行业、催生更多可能”。属于AI声音的多元化、情感化时代,正加速驶入现实。


校对 穆祥桐