以ChatGPT为代表的新一代人工智能的出现,引发了人们关于人工智能风险治理的激烈讨论。当前学术研究主要聚焦于文本生成大模型的风险与规制,却忽略了更具独特性且风险较高的语音生成式人工智能。语音生成的关键环节包括数据分析、声学建模和语音波形生成。通过分析上述关键环节的运行,发现其中存在隐私泄露,侵犯人格权益和技术滥用等风险。欲防止上述风险的发生,应对“治理理念”和“规制措施”两方面进行调整。治理理念方面,应秉持目的限制原则,坚持适度监管以防过度干预,并以“可信赖”原则为核心宗旨。规制措施的设置上,应涵盖声音保护、政府监管、组织共治和权利保障四个方面,以积极应对语音生成式人工智能带来的风险。