原標(biāo)題:雷軍、劉德華成受害者 總臺揭露AI合成名人音視頻亂象
從惡搞企業(yè)家雷軍到AI制作張文宏醫(yī)生音視頻為自己帶貨,甚至還有不法分子利用AI深度合成視頻,進(jìn)行詐騙。過去一年,AI深度合成音視頻侵權(quán)現(xiàn)象愈演愈烈。
此前就曾有網(wǎng)友曾利用AI制作的劉德華聲音,為自己博取流量,劉德華電影公司還緊急發(fā)布聲明提醒網(wǎng)民,不要落入偽造劉德華聲音的AI語音合成技術(shù)騙局。近日記者調(diào)查發(fā)現(xiàn),實現(xiàn)AI深度合成音視頻并不算難事,甚至在一些購物平臺,AI深度合成技術(shù)已經(jīng)成為眾多網(wǎng)店牟利的工具,只需花費幾十元,就可定制AI深度合成名人音視頻。
網(wǎng)絡(luò)主播直播教學(xué) 用開源工具AI深度合成
這些AI深度合成的聲音和換臉是如何制作出來的?記者調(diào)查發(fā)現(xiàn),相應(yīng)的深度合成軟件在網(wǎng)絡(luò)上下載并不算難,而且還有一些網(wǎng)絡(luò)主播會開直播教網(wǎng)友如何使用。
記者在手機應(yīng)用商城搜索換臉換聲,會出現(xiàn)眾多工具。不過記者發(fā)現(xiàn)換臉工具,設(shè)定了固定的場景,且從效果看逼真度不高。那么網(wǎng)店制作的逼真度高的AI深度合成的聲音和換臉是如何做到的?
中國網(wǎng)絡(luò)空間安全協(xié)會人工智能安全治理專業(yè)委員會專家 薛智慧:當(dāng)前咱們有很多開源的這些軟件和工具都可以實現(xiàn)這種換聲換臉的效果,可以供網(wǎng)民自由下載,在自己的電腦上進(jìn)行安裝和使用。
專家表示此類軟件目前在網(wǎng)絡(luò)上有數(shù)十種,不過不論換聲還是換臉軟件,不同的場景需要調(diào)整相應(yīng)的參數(shù),步驟較多,屬于半專業(yè)軟件,有一定的技術(shù)門檻,所以不被網(wǎng)民熟知。但是記者發(fā)現(xiàn)目前在短視頻平臺有眾多主播在教網(wǎng)民使用相關(guān)軟件。
未經(jīng)授權(quán) 合成制作他人視頻聲音屬侵權(quán)
那么,在網(wǎng)絡(luò)購物平臺使用AI深度合成技術(shù),制作出售名人的音視頻,是否觸犯相關(guān)法律呢?專家表示,相關(guān)法律法規(guī)明確規(guī)定,未經(jīng)授權(quán),不得深度合成制作發(fā)布他人信息。網(wǎng)店接單AI深度合成制作名人視頻,已經(jīng)屬于侵權(quán)行為,并應(yīng)該承擔(dān)相應(yīng)的法律責(zé)任。
中國計算機學(xué)會計算機安全專業(yè)委員會委員 呂延輝:《中華人民共和國民法典》規(guī)定,自然人享有肖像、聲音等權(quán)益,任何組織或個人利用信息技術(shù)偽造都是侵權(quán)行為。2023年國家網(wǎng)信辦、工信部、公安部聯(lián)合發(fā)布出臺的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》要求,任何組織和個人不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播法律、行政法規(guī)禁止的信息。2024年網(wǎng)信辦發(fā)布的《人工智能生成合成內(nèi)容標(biāo)識辦法(征求意見稿)》也提出,對AI生成合成內(nèi)容要進(jìn)行標(biāo)識,以便公眾識別和區(qū)分,防止誤導(dǎo)性信息傳播。
網(wǎng)店使用AI深度合成技術(shù)制作名人的視頻,應(yīng)該承擔(dān)什么樣的法律責(zé)任?
北京航空航天大學(xué)法學(xué)院副教授 趙精武:在司法實踐中,國內(nèi)已經(jīng)審結(jié)了首例AI生成聲音人格權(quán)侵權(quán)案。在這個案子里,原告作為配音演員,在沒有經(jīng)過授權(quán)的情況下,他的聲音被AI生成后對外出售。法院在審理中認(rèn)為,我國的民法典已經(jīng)在人格權(quán)編,將自然人的聲音視為一種人格權(quán)益,具有人身專屬性。所以,法院最終認(rèn)定被告的行為構(gòu)成侵權(quán)。
專家:提高防范意識 可以用AI檢測AI
其實,不僅是名人,普通人甚至動畫形象,如果未經(jīng)本人或版權(quán)方同意,就用AI合成制作其音視頻,也可以判斷為侵權(quán)行為,應(yīng)當(dāng)承擔(dān)法律責(zé)任。隨著相關(guān)技術(shù)的普及,我們又該如何防范AI深度合成音視頻侵權(quán)的問題呢?繼續(xù)看專家的解讀。
中國網(wǎng)絡(luò)空間安全協(xié)會人工智能安全治理專業(yè)委員會專家 薛智慧:從技術(shù)角度來說,其實可以利用AI技術(shù)來對抗跟檢測AI。當(dāng)前也有一些典型的AI技術(shù),能夠?qū)@些圖片或者音視頻進(jìn)行檢測,來判斷或者分析這些圖片是否后期加工和合成的。
中國計算機學(xué)會計算機安全專業(yè)委員會委員 呂延輝:防范AI侵權(quán)問題需要從法律、平臺和公眾等多個層面綜合施策。法律層面,要進(jìn)一步完善相關(guān)立法,細(xì)化AI克隆技術(shù)的法律條款,明確侵權(quán)行為的定義和責(zé)任,同時加強執(zhí)法力度。平臺層面,要強化相關(guān)政策法規(guī)的宣貫和執(zhí)行,做好已有數(shù)據(jù)的保護(hù),應(yīng)用技術(shù)手段來規(guī)避AI克隆侵權(quán)問題的發(fā)生,同時也要建立健全內(nèi)容審核和侵權(quán)舉報機制,及時發(fā)現(xiàn)和處理侵權(quán)問題。
法律專家也提醒AI深度合成制作和信息發(fā)布者,不要存僥幸心理,法律沒有灰色地帶,切勿因小失大。
北京航空航天大學(xué)法學(xué)院副教授 趙精武:法律并不是禁止使用AI合成技術(shù),而是禁止不合法不合理的使用,尤其是禁止不進(jìn)行任何顯著標(biāo)識和提示的AI合成信息的發(fā)布和傳播。
[來源:央視新聞客戶端 編輯:王榮]大家愛看