原標(biāo)題:院士帶貨竟是AI偽造,!新技術(shù)如何才能用在正道上,?
快速進化的AI生成技術(shù),讓生成假照片,、假圖像,,甚至視頻換臉都更加容易,且真假難辨。尤其是AI合成的假視頻甚至冒充名醫(yī),、名人進行虛假宣傳,,對公眾實施詐騙。中國工程院院士,、天津中醫(yī)藥大學(xué)名譽校長張伯禮也是受害者之一,。
院士帶貨 竟是AI偽造
不久前,網(wǎng)絡(luò)中出現(xiàn)了這樣一個視頻,,視頻中張伯禮院士正在為某美白護膚品進行宣傳,。
中國工程院院士 天津中醫(yī)藥大學(xué)名譽校長 張伯禮:這些內(nèi)容全是假的。我從來沒用過這個護膚品,,我也沒做過這方面的宣傳,,更沒研究過,所以里邊完全是編造的,。
實際上,,這是一個AI制作的視頻,視頻中使用張院士的形象和聲音,,從而達(dá)到以假亂真的效果,。張院士介紹,像這樣涉及他形象和聲音的假視頻在網(wǎng)絡(luò)上傳播的至少還有十幾條,。
《中華人民共和國民法典》規(guī)定,,自然人享有肖像、聲音等權(quán)益,,任何組織或個人利用信息技術(shù)偽造都是侵權(quán)行為,。為此,天津中醫(yī)藥大學(xué)緊急給網(wǎng)信部門發(fā)函,,申請對涉嫌侵犯張伯禮院士肖像權(quán)及姓名權(quán)的相關(guān)視頻和公眾號進行管控處理,。
中國工程院院士 天津中醫(yī)藥大學(xué)名譽校長 張伯禮:非常氣憤,我覺得假視頻對我的影響還是第二位的,,更可怕的是這些東西誤導(dǎo)消費者,,對老百姓造成的影響,又花了錢,,有的時候還買了假藥,,影響老百姓的健康,同時也違反國家的法律,,破壞市場秩序。專家的形象受到玷污,,我們確實也很氣憤,,但是又很無奈。
近年來,通過AI深度偽造技術(shù)假冒名人的事件頻繁發(fā)生,。除了張伯禮院士之外,,一些商家通過AI換臉、合成人聲等手段,,將一些名醫(yī),、名人、企業(yè)家的面容與聲音進行移花接木,,有的用于直播帶貨,、有的用于推廣營銷產(chǎn)品、有的被制作成了搞笑視頻,。
專家:AI偽造
是必須消滅的一個“攔路虎”
AI生成技術(shù)原本是一件好事,,然而被別有用心的人利用后,卻成了編造虛假信息的工具,。專家呼吁,,AI偽造是新興技術(shù)發(fā)展的“攔路虎”,必須從嚴(yán)懲治,。
專家指出,,AI換臉擬聲,不當(dāng)濫用,,成為違法侵權(quán)行為的重災(zāi)區(qū),,易引發(fā)侵犯肖像權(quán)、侵犯公民個人信息以及詐騙等犯罪行為,,不利于構(gòu)建“以人為本,、智能向善”的人工智能發(fā)展生態(tài)。
復(fù)旦大學(xué)新聞學(xué)院教授 馬凌:我看到了好多像這種數(shù)字人,,他會截取某些人的形象,,某些人的音頻來生成一個非法的數(shù)字人,就可以直播帶貨了,。所以它影響到的不僅是老年群體,,也影響到了更廣大的群體,包括部分上網(wǎng)的孩子也會受到影響,。
據(jù)介紹,,另一方面,AI生成虛假信息泛濫也對社會公信力構(gòu)成了嚴(yán)峻挑戰(zhàn),。
復(fù)旦大學(xué)新聞學(xué)院教授 馬凌:AI造假新聞現(xiàn)場,,它給新聞業(yè)帶來的負(fù)面影響太大了。正常的新聞工作者是不會使用這樣的圖像,,但是如果被某些別有用心的人所利用,,被社交媒體所廣泛利用,它毀損的是社會的公信力,它不僅抹黑了媒體,,也讓公眾的認(rèn)知發(fā)生混亂,。長此以往,可能整個社會都會充滿互相不信任的情緒,。
近日,,為了促進人工智能健康發(fā)展,規(guī)范人工智能生成合成內(nèi)容標(biāo)識,,國家互聯(lián)網(wǎng)信息辦公室等部門聯(lián)合發(fā)布了《人工智能生成合成內(nèi)容標(biāo)識辦法》,,9月1日起施行。服務(wù)提供者應(yīng)當(dāng)按照要求對生成合成內(nèi)容添加顯式標(biāo)識,,以及在生成合成內(nèi)容的文件元數(shù)據(jù)中添加隱式標(biāo)識,。任何組織和個人不得為他人實施惡意行為提供工具或者服務(wù),不得通過不正當(dāng)標(biāo)識手段損害他人合法權(quán)益,。
中國政法大學(xué)傳播法研究中心副主任 朱?。杭硬患覣I的標(biāo)識,表面上看,,形式上是一個法律的明確規(guī)定,,它的客觀影響很深遠(yuǎn)。不僅是確定知識產(chǎn)權(quán),,更重要的是保障信息的公開公正,,保障信息的順暢流轉(zhuǎn)。
中國工程院院士 天津中醫(yī)藥大學(xué)名譽校長 張伯禮:例如在網(wǎng)絡(luò)自媒體發(fā)布,,應(yīng)該有一個監(jiān)管,。有的是平臺發(fā)布,平臺的從業(yè)者應(yīng)該有審查的責(zé)任,。我們?nèi)ネ对V舉報,,得有專門部門去接收,承擔(dān)起責(zé)任,。第二點要加強監(jiān)管,,網(wǎng)絡(luò)部門、互聯(lián)網(wǎng)監(jiān)管部門得發(fā)揮作用,。再就是法律,,甚至是公安部門都要介入才行,加大處罰,,不管是誰的連帶責(zé)任,。我覺得應(yīng)該出臺一些綜合的治理措施來解決這個問題,不能再拖了,。
AI解讀AI:
給AI留下最深印象的AI虛假信息是什么,?
AI技術(shù)在大幅提高各行各業(yè)工作效率的同時,,也大幅降低造假門檻。對于AI來說,,近期發(fā)生的AI制造虛假信息的案例,有哪些讓它印象深刻呢,?AI能否辨別AI生成的虛假內(nèi)容呢,?
總臺央視記者 鄭怡哲:用AI解讀AI,剛剛我問了人工智能最近印象深刻的AI造假的案例,,它列舉了很多,,而且做了分類。
例如,,自然災(zāi)害謠言是它認(rèn)為影響非常大的一個類別,,AI制作的虛假信息成了“恐慌放大器”。很多人熟悉的西藏定日縣地震后,,一張“被埋廢墟的小男孩”圖片在網(wǎng)絡(luò)瘋傳,,該圖因男孩有六根手指被識破,但已造成大量恐慌,。
還有一個類別,,AI技術(shù)偽造名人背書與權(quán)威數(shù)據(jù)偽造,利用公眾信任牟利,。前段時間盛傳的“80后死亡率5.2%”“每20個80后就有1人去世”等虛假信息,,在公共領(lǐng)域造成的危害非常大。所以央視新聞頻道在西藏定日地震廢墟小男孩的虛擬照片,,以及80后死亡率的問題上,,迅速給出辟謠,讓觀眾了解到最權(quán)威的信息,。
總臺央視記者 鄭怡哲:能否用AI識別AI造假的內(nèi)容呢,?AI告訴我,現(xiàn)在還真有不少機構(gòu)和軟件已經(jīng)實現(xiàn)了這項技術(shù),。拿圖片來說,,有一些是肉眼能判斷,一眼假的AI生成圖,。還有一些看起來相對真實的偽造圖片,,其實在人工智能看來,也往往暗藏了像素規(guī)律甚至是電子簽名,。AI也承認(rèn),,這些技術(shù)上的所謂“缺陷”,未來可能通過深度偽造而更加難以識別,。但是AI的創(chuàng)造能力和辨別能力,,本就是互相博弈,,不斷攀升。平臺治理,,有效監(jiān)管,,還有公眾的防范意識,要結(jié)合起來,,才能讓新技術(shù)用在正道上,。
(央視新聞客戶端 總臺央視記者 楊陽 李斌 鄭怡哲 趙酉龍 王殿甲)
[來源:央視新聞客戶端 編輯:趙曉珊]大家愛看