原標題:雷軍,、劉德華成受害者 總臺揭露AI合成名人音視頻亂象
從惡搞企業(yè)家雷軍到AI制作張文宏醫(yī)生音視頻為自己帶貨,甚至還有不法分子利用AI深度合成視頻,,進行詐騙,。過去一年,AI深度合成音視頻侵權(quán)現(xiàn)象愈演愈烈,。
此前就曾有網(wǎng)友曾利用AI制作的劉德華聲音,,為自己博取流量,劉德華電影公司還緊急發(fā)布聲明提醒網(wǎng)民,,不要落入偽造劉德華聲音的AI語音合成技術(shù)騙局,。近日記者調(diào)查發(fā)現(xiàn),實現(xiàn)AI深度合成音視頻并不算難事,,甚至在一些購物平臺,,AI深度合成技術(shù)已經(jīng)成為眾多網(wǎng)店牟利的工具,只需花費幾十元,,就可定制AI深度合成名人音視頻,。
網(wǎng)絡(luò)主播直播教學 用開源工具AI深度合成
這些AI深度合成的聲音和換臉是如何制作出來的?記者調(diào)查發(fā)現(xiàn),,相應(yīng)的深度合成軟件在網(wǎng)絡(luò)上下載并不算難,,而且還有一些網(wǎng)絡(luò)主播會開直播教網(wǎng)友如何使用。
記者在手機應(yīng)用商城搜索換臉換聲,,會出現(xiàn)眾多工具,。不過記者發(fā)現(xiàn)換臉工具,,設(shè)定了固定的場景,且從效果看逼真度不高,。那么網(wǎng)店制作的逼真度高的AI深度合成的聲音和換臉是如何做到的,?
中國網(wǎng)絡(luò)空間安全協(xié)會人工智能安全治理專業(yè)委員會專家 薛智慧:當前咱們有很多開源的這些軟件和工具都可以實現(xiàn)這種換聲換臉的效果,可以供網(wǎng)民自由下載,,在自己的電腦上進行安裝和使用,。
專家表示此類軟件目前在網(wǎng)絡(luò)上有數(shù)十種,不過不論換聲還是換臉軟件,,不同的場景需要調(diào)整相應(yīng)的參數(shù),,步驟較多,屬于半專業(yè)軟件,,有一定的技術(shù)門檻,,所以不被網(wǎng)民熟知。但是記者發(fā)現(xiàn)目前在短視頻平臺有眾多主播在教網(wǎng)民使用相關(guān)軟件,。
未經(jīng)授權(quán) 合成制作他人視頻聲音屬侵權(quán)
那么,,在網(wǎng)絡(luò)購物平臺使用AI深度合成技術(shù),制作出售名人的音視頻,,是否觸犯相關(guān)法律呢,?專家表示,相關(guān)法律法規(guī)明確規(guī)定,,未經(jīng)授權(quán),,不得深度合成制作發(fā)布他人信息。網(wǎng)店接單AI深度合成制作名人視頻,,已經(jīng)屬于侵權(quán)行為,,并應(yīng)該承擔相應(yīng)的法律責任。
中國計算機學會計算機安全專業(yè)委員會委員 呂延輝:《中華人民共和國民法典》規(guī)定,,自然人享有肖像,、聲音等權(quán)益,,任何組織或個人利用信息技術(shù)偽造都是侵權(quán)行為,。2023年國家網(wǎng)信辦,、工信部,、公安部聯(lián)合發(fā)布出臺的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》要求,,任何組織和個人不得利用深度合成服務(wù)制作,、復(fù)制,、發(fā)布,、傳播法律,、行政法規(guī)禁止的信息,。2024年網(wǎng)信辦發(fā)布的《人工智能生成合成內(nèi)容標識辦法(征求意見稿)》也提出,對AI生成合成內(nèi)容要進行標識,,以便公眾識別和區(qū)分,,防止誤導(dǎo)性信息傳播。
網(wǎng)店使用AI深度合成技術(shù)制作名人的視頻,,應(yīng)該承擔什么樣的法律責任,?
北京航空航天大學法學院副教授 趙精武:在司法實踐中,國內(nèi)已經(jīng)審結(jié)了首例AI生成聲音人格權(quán)侵權(quán)案,。在這個案子里,,原告作為配音演員,在沒有經(jīng)過授權(quán)的情況下,,他的聲音被AI生成后對外出售,。法院在審理中認為,我國的民法典已經(jīng)在人格權(quán)編,,將自然人的聲音視為一種人格權(quán)益,,具有人身專屬性。所以,,法院最終認定被告的行為構(gòu)成侵權(quán),。
專家:提高防范意識 可以用AI檢測AI
其實,不僅是名人,,普通人甚至動畫形象,,如果未經(jīng)本人或版權(quán)方同意,就用AI合成制作其音視頻,,也可以判斷為侵權(quán)行為,,應(yīng)當承擔法律責任,。隨著相關(guān)技術(shù)的普及,,我們又該如何防范AI深度合成音視頻侵權(quán)的問題呢?繼續(xù)看專家的解讀,。
中國網(wǎng)絡(luò)空間安全協(xié)會人工智能安全治理專業(yè)委員會專家 薛智慧:從技術(shù)角度來說,,其實可以利用AI技術(shù)來對抗跟檢測AI。當前也有一些典型的AI技術(shù),,能夠?qū)@些圖片或者音視頻進行檢測,,來判斷或者分析這些圖片是否后期加工和合成的。
中國計算機學會計算機安全專業(yè)委員會委員 呂延輝:防范AI侵權(quán)問題需要從法律,、平臺和公眾等多個層面綜合施策,。法律層面,要進一步完善相關(guān)立法,,細化AI克隆技術(shù)的法律條款,,明確侵權(quán)行為的定義和責任,同時加強執(zhí)法力度。平臺層面,,要強化相關(guān)政策法規(guī)的宣貫和執(zhí)行,,做好已有數(shù)據(jù)的保護,應(yīng)用技術(shù)手段來規(guī)避AI克隆侵權(quán)問題的發(fā)生,,同時也要建立健全內(nèi)容審核和侵權(quán)舉報機制,,及時發(fā)現(xiàn)和處理侵權(quán)問題。
法律專家也提醒AI深度合成制作和信息發(fā)布者,,不要存僥幸心理,,法律沒有灰色地帶,切勿因小失大,。
北京航空航天大學法學院副教授 趙精武:法律并不是禁止使用AI合成技術(shù),,而是禁止不合法不合理的使用,尤其是禁止不進行任何顯著標識和提示的AI合成信息的發(fā)布和傳播,。
[來源:央視新聞客戶端 編輯:王榮]大家愛看