“國慶上網(wǎng),被雷軍整整罵了7天!边B日來,短視頻平臺上出現(xiàn)了大量“雷軍”的發(fā)言視頻,涉及堵車、調(diào)休、游戲等熱門話題,不僅言辭犀利還常爆粗口。有網(wǎng)友跑去雷軍社交媒體賬號下就此提出疑問,雷軍回復(fù)以三個表示憤怒的表情。眼下,各種AI克隆雷軍的配音模仿、惡搞視頻仍層出不窮。
從相關(guān)視頻來看,“雷軍”本人出鏡,口音似乎也是本人。有的網(wǎng)友不以為意,認(rèn)為這不過是最常見的“惡搞”“玩!保有的網(wǎng)友則半信半疑,更有“數(shù)字化生存”經(jīng)驗欠缺者對此深信不疑。“雷軍AI配音”乍看是一場娛樂狂歡,但潛藏的危險不能不引起我們的警惕。
從彼雷軍到此雷軍,使用“AI配音”就可以實現(xiàn)一鍵直達(dá)。近年來,通過AI實現(xiàn)的聲音和畫面深度偽造的技術(shù)門檻不斷降低,為這種“一鍵變聲”“一鍵變臉”大肆泛濫提供了可能。目前,市面上已有大量的AI配音小程序,用戶只需在程序內(nèi)選擇相應(yīng)的人物聲音并輸入文字,便可借用他人的聲音發(fā)表言論。有的軟件免費向用戶開放部分使用權(quán)限,收費版也價格較低。
深度偽造作為一種技術(shù),是中性的。但是,在深度偽造技術(shù)之下,我們可能無法區(qū)別真假,過去崇尚的“眼見為實”受到?jīng)_擊,只能信以為真。而真?zhèn)坞y辨的混沌地帶,也將成為滋生各種亂象的溫床。在AI詐騙中,犯罪分子憑借一段原始語音、照片等就可以編造謠言甚至陷阱,早已是屢見不鮮的套路。
《2024人工智能安全報告》顯示,2023年基于AI的深度偽造欺詐增長了3000%,僅今年上半年,AI詐騙案案值已超過1.85億元。就目前而言,面對深度偽造技術(shù),我們普通人僅有的生存經(jīng)驗完全無法招架,每個人都很有可能成為“受害者”。
當(dāng)制作者還沉浸在自己制作的AI配音視頻大獲流量的時候,殊不知已涉嫌侵權(quán)。沒錯,聲音作為個人特征的一部分,受到法律明確保護(hù)。民法典規(guī)定,任何組織或個人未經(jīng)聲音權(quán)人同意,不得擅自使用、公開或侵害其聲音權(quán)益。在一些AI配音小程序中,一些內(nèi)置的名人聲音,多用“你懂的”式昵稱來命名而非真名,可能也是處于規(guī)避侵權(quán)糾紛的考慮。不過,這也暴露出,這種侵權(quán)式“AI配音”屬明知故犯。
當(dāng)深度偽造嵌入我們的數(shù)字生活,該怎么辦?這并非無病呻吟強(qiáng)說愁。一方面,要用魔法打敗魔法,推動反深偽檢測技術(shù)持續(xù)更新迭代,以應(yīng)對層出不窮的深度偽造騙局;另一方面,要加強(qiáng)技術(shù)監(jiān)管,明確生成式人工智能服務(wù)合法與非法的邊界,對相關(guān)違法行為進(jìn)行嚴(yán)肅懲處,以“前車之鑒”構(gòu)筑其參照坐標(biāo)。各個社交平臺也應(yīng)負(fù)起相應(yīng)的治理責(zé)任,增強(qiáng)對疑似AI生成內(nèi)容的甄別,通過加水印或增加提示等手段,提醒觀看者引起注意。