西藏定日縣的6.8級地震,牽動億萬網(wǎng)友的心。但一些虛假信息,比如AI(人工智能)生成的圖片,也在造成誤導(dǎo)。


比如下面圖片中,一個戴帽子的小孩被重壓在倒塌的建筑物下。在某短視頻平臺上,至少有10個以上的賬號發(fā)布該內(nèi)容,有的賬號甚至和西藏日喀則地震關(guān)聯(lián),獲得好幾萬的轉(zhuǎn)、評、贊。不少網(wǎng)友看到圖片后,都為圖中的孩子落淚,甚至不斷追問,圖片中的小孩怎么樣了,并未留意到可能的疑點(diǎn)。


某平臺上多個的賬號發(fā)布該內(nèi)容。


后新京報記者查證發(fā)現(xiàn),上述圖片由AI創(chuàng)作,且原始作者在2024年11月18日發(fā)布了相同畫面的短視頻,并聲明該視頻由AI生成?!白屑?xì)看的話,可以從圖像細(xì)節(jié)發(fā)現(xiàn)問題,比如圖中‘孩子’的右手出現(xiàn)了六根手指、雙眼瞳孔反光不同等不符合常理的特征?!比鹑R智慧聯(lián)合創(chuàng)始人蕭子豪告訴新京報貝殼財(cái)經(jīng)記者。


那么,在人工智能給我們的學(xué)習(xí)、工作和生活帶來諸多便利之余,普通人應(yīng)如何辨別人工智能生成或深度偽造的內(nèi)容?平臺在聚合和傳播信息之余,應(yīng)如何維護(hù)社區(qū)生態(tài),使其不受人工智能生成的謠言的影響?


深度偽造:肉眼已喪失對數(shù)字世界辨識的能力?


螞蟻集團(tuán)大模型數(shù)據(jù)安全總監(jiān)楊小芳向貝殼財(cái)經(jīng)記者解釋了人工智能生成內(nèi)容的發(fā)展:AIGC(人工智能生成內(nèi)容,包括圖片、視頻、聲音等)的初期,(生成的內(nèi)容)沒有那么真,很多圖片一看就知道是AI生成的或者深度偽造的。但現(xiàn)在有越來越擬真的趨勢,包括網(wǎng)絡(luò)上的一些知名企業(yè)家的聲音內(nèi)容,以及一些實(shí)時視頻,甚至能進(jìn)行互動,達(dá)到了以假亂真的程度。


AI深度偽造技術(shù),也稱為深度偽像(Deepfake)是一種利用人工智能技術(shù)生成逼真的虛假內(nèi)容,通常是指用于偽造人物的視頻、音頻、圖像等。其主要原理涉及兩個關(guān)鍵技術(shù):生成對抗網(wǎng)絡(luò)(GANs)和深度學(xué)習(xí)。


“這是世界性難題,國外的社交媒體也充斥著大量深度偽造的視頻內(nèi)容,平臺雖然會開發(fā)識別算法、鑒真算法,也在實(shí)驗(yàn)性地應(yīng)用,但并沒有想象中管用,或者說鑒別速度跟不上傳播速度。”安全專家李鐵軍告訴貝殼財(cái)經(jīng)記者。


“當(dāng)前大模型能力的持續(xù)提升,AI生成的圖片和視頻已經(jīng)很難用肉眼去辨別真?zhèn)瘟?。我們已?jīng)來到了一個‘人類肉眼喪失對數(shù)字世界信息真?zhèn)伪孀R能力’的時代,所以每一名社會公民都應(yīng)該對網(wǎng)絡(luò)信息保持一定的警惕性,理性思考,或借助一些AI檢測工具求證。”瑞萊智慧聯(lián)合創(chuàng)始人蕭子豪說。


隨著近年來AI大模型技術(shù)的進(jìn)步,一些AI生圖大模型在追求更多真實(shí)度的同時“誤打誤撞”成了AIGC謠言和深度偽造的“幫兇”,如此前著名的stable diffusion(一款A(yù)I智能繪畫大模型)就被開發(fā)出了一鍵脫衣的功能,并一度泛濫。雖然后來該模型修改了相關(guān)功能,讓這種行為有所收斂,但由于技術(shù)開源的特性,“潘多拉的盒子”已經(jīng)打開,或許難以再度關(guān)閉。


解決方法:需法律和平臺共治


如何在人工智能時代去偽存真?


楊小芳告訴貝殼財(cái)經(jīng)記者,在AIGC發(fā)展初期,螞蟻開發(fā)了AI鑒真能力,基于大量AI生成內(nèi)容訓(xùn)練的算法模型。隨著AIGC的發(fā)展,AI生圖越來越逼真,需要進(jìn)一步引入數(shù)字水印技術(shù),也就是在AI生圖時內(nèi)置隱水印,并做到經(jīng)過圖片裁剪或媒體傳播也能夠提取水印,以追根溯源。但是,技術(shù)只是手段,AIGC管理才是核心,這需要政策和監(jiān)管的引導(dǎo)與規(guī)范、也需要行業(yè)自律。


據(jù)貝殼財(cái)經(jīng)記者了解,國內(nèi)、國際的互聯(lián)網(wǎng)企業(yè)都有開發(fā)AI鑒真工具,但這些工具也有局限性。德雷克塞爾工程學(xué)院的多媒體和信息安全實(shí)驗(yàn)室 (MISL) 多年來一直致力于研究此類技術(shù)。他們的科學(xué)家們評估了11種可供公眾使用的合成圖像檢測器。這些程序顯示出很高的效率,在檢測被篡改的圖像方面至少有90%的準(zhǔn)確率。然而,當(dāng)負(fù)責(zé)識別公開可用的AI或者大模型生成的視頻時,它們的性能下降了20%至30%。


該學(xué)院副教授兼MISL主任馬修·斯塔姆在一份報告中稱:“在沒有一個好的系統(tǒng)來檢測不良行為者制造的假貨之前,這種視頻技術(shù)就已經(jīng)發(fā)布,這真是令人不安。”


安全專家李鐵軍認(rèn)為,必須靠法律法規(guī)的威懾力來解決深度偽造問題?!捌脚_缺少主動鑒別深度偽造的動力,需要國家層面給予平臺足夠的約束,比如出現(xiàn)重大造假事件、造成嚴(yán)重社會影響的,處罰平臺,這樣平臺才有動力去鑒別真?zhèn)巍!崩铊F軍說。


事實(shí)上,我國也在完善相關(guān)法律。根據(jù)《中華人民共和國治安管理處罰法》第二十五條第(一)項(xiàng)規(guī)定,散布謠言,謊報險情、疫情、警情或者以其他方法故意擾亂公共秩序的,處五日以上十日以下拘留,可以并處五百元以下罰款;情節(jié)較輕的,處五日以下拘留或者五百元以下罰款。明知是AI生成的虛假圖片卻故意在重大災(zāi)難事件中傳播,意圖誤導(dǎo)公眾、擾亂社會秩序或獲取不當(dāng)利益的個人或組織,可能面臨行政處罰的責(zé)任。如果引起的后果特別惡劣,甚至可能構(gòu)成刑事責(zé)任。如果是轉(zhuǎn)發(fā)的人故意隱去AI標(biāo)識,可能也要承擔(dān)同樣的行政處罰責(zé)任。


此外,若平臺未能盡到合理的審核和監(jiān)管義務(wù),導(dǎo)致AI虛假圖片廣泛傳播并造成嚴(yán)重負(fù)面影響,平臺也需承擔(dān)相應(yīng)的法律責(zé)任。如可能面臨監(jiān)管部門的罰款、責(zé)令整改等。


2024年9月,國家網(wǎng)信辦公布了《人工智能生成合成內(nèi)容標(biāo)識辦法(征求意見稿)》,其中明確規(guī)定服務(wù)提供者具有對生成內(nèi)容(文字、圖片、視頻等)的標(biāo)注義務(wù),網(wǎng)絡(luò)信息內(nèi)容傳播平臺對傳播的內(nèi)容具有核驗(yàn)及標(biāo)注義務(wù),用戶上傳生成合成內(nèi)容時負(fù)有主動聲明義務(wù),使用平臺提供的標(biāo)識功能進(jìn)行標(biāo)識。雖然目前只是征求意見稿,但該標(biāo)識辦法審批生效的可能性較大,具有直接的參考作用。


隨著AIGC和深度偽造技術(shù)的發(fā)展,各平臺也均出臺了相應(yīng)規(guī)范。微信要求自媒體發(fā)布使用AI等技術(shù)生成的信息時,必須標(biāo)注內(nèi)容為AI制作;重點(diǎn)打擊造假、蹭炒社會熱點(diǎn)等違規(guī)內(nèi)容和行為。抖音要求發(fā)布者對人工智能生成內(nèi)容進(jìn)行顯著標(biāo)識,幫助用戶區(qū)分虛擬與現(xiàn)實(shí);發(fā)布者需對人工智能生成內(nèi)容產(chǎn)生的相應(yīng)后果負(fù)責(zé);禁止利用生成式人工智能技術(shù)創(chuàng)作、發(fā)布侵權(quán)內(nèi)容??焓謩t要求對數(shù)字人直播等AIGC輔助創(chuàng)作的內(nèi)容,不再給予額外流量扶持;對使用外站AIGC數(shù)字人生成的錄制直播將按“播放錄制內(nèi)容”規(guī)則管控,違規(guī)行為將受到警告、扣分、封禁賬號等處罰。


記者聯(lián)系郵箱:avril-1989@163.com

新京報貝殼財(cái)經(jīng)記者 白金蕾 羅亦丹

編輯 袁秀麗 校對 穆祥桐