近日,一位知名配音演員在社交平臺稱,自己僅為某品牌節目錄制了前半部分旁白,但卻在后半部分也聽到了自己的聲音。她認為自己的聲音在未經本人授權的情況下,被非法用于AI模型訓練。制作方旋即發布致歉聲明,將此事歸結為“工作疏忽”。
近年來,“聲音被偷”的案例早已屢見不鮮。從技術層面看,如今的AI僅憑一張人臉照片,就能生成動態影像,克隆聲音自然更不在話下。事實上,不少平臺都有商家公然提供聲音克隆服務,“7.8元包1500字”的廣告隨處可見。
幾塊錢就能“復制”一個人的聲音,如果放任不管,以配音為職業的人何以謀生?這樣的服務合法嗎?答案很明確:未經本人授權就不合法。《中華人民共和國民法典》明確將聲音納入保護范圍。未經許可通過AI訓練生成“仿制聲音”,就是侵權。司法實踐中,法院已多次支持配音演員維權。去年,北京互聯網法院就對全國首例“AI聲音侵權案”作出一審判決,侵權公司被判賠償配音師25萬元。
這一判決再次敲響警鐘:聲音權與肖像權一樣,都是每個人不容侵犯的合法權益。在日常生活中,肖像權因直觀可見而更易被理解和重視——比如明星頭像被盜用,大家一眼就能看出不妥。但聲音無形,一些人便誤以為其中有“操作空間”,這也成了部分商家堂而皇之提供克隆服務的心理誘因。
縱容AI克隆聲音,不僅傷害配音從業者,更會引發嚴重的社會問題。如今不少短視頻平臺上流傳著各類仿冒視頻,克隆明星、學者等公眾人物的聲音,散播真假難辨的內容。有的誘導消費、投資,有的涉及極端觀點,不僅誤導分辨力弱的用戶,還可能讓被模仿的公眾人物無辜“背鍋”。
比如,今年8月,運動員全紅嬋就被卷入“AI仿冒帶貨”風波,有博主利用AI仿冒全紅嬋的聲音帶貨土雞蛋,直到賣出幾萬件商品后,才被全紅嬋家人發現并辟謠。還有博主復刻演員靳東的磁性嗓音,進行24小時語音直播,專門誘導中老年粉絲打賞。
竊“聲”亦是偷,莫以疏忽視。“李鬼”橫行的內容生態,顯然不是清朗的互聯網空間該有的。要遏制非法的AI聲音克隆,不能只靠配音演員孤軍奮戰。我們首先應從認知上明確:聲音,同樣是法律賦予每個人的寶貴權利。“偷取”聲音,與盜用肖像、偷竊財物一樣,都是不折不扣的違法行為。唯有形成這樣的共識,我們才能構筑系統防線,凝聚多方力量,守住每個人獨一無二的“聲音名片”。
在實踐層面,需認識到這些亂象源于AI技術被濫用,應通過完善法規、加強監管、落實平臺責任、提升用戶意識共同治理。今年9月,《人工智能生成合成內容標識辦法》正式實施,要求生成音頻必須添加標識,以實現可識別、可追溯;2025年4月起,中央網信辦在全國啟動“清朗·整治AI技術濫用”專項行動,強化AI技術源頭治理,清理違規應用。平臺應加強技術審核,建立“AI濫用黑名單”,對多次違規的主體采取聯合懲戒措施。用戶也需提高辨識能力,對AI生成內容保持警惕。
責任編輯:潘陽薇AI