当前位置: 首页 /

1秒音频就能让你的声音被“偷走”? 央视揭露AI仿声乱象

近期,AI声音克隆乱象频发。从配音演员声音被盗用到AI拟声诈骗,技术滥用正威胁每个人的声音权益。

专家表示,仅需1秒清晰音频,AI就能生成克隆语音,微调后甚至可模仿原声朗读,以假乱真。

声音作为个人生物识别信息,受民法典明确保护。平台有义务标注AI内容、建立侵权投诉通道。

AI克隆不能成为侵权挡箭牌,严管滥用,严惩盗用;

公众也要增强权利保护意识,谨防声音被“偷走”。