亚洲精品无码乱码成人|最近中文字幕免费大全|日韩欧美卡一卡二卡新区|熟妇性饥渴一区二区三区|久久久久无码精品国产AV|欧美日韩国产va在线观看|久久精品一本到99热动态图|99国产精品欧美一区二区三区

您現(xiàn)在的位置是: 地產(chǎn) > > 正文

每經(jīng)專訪中國科學(xué)技術(shù)大學(xué)張衛(wèi)明教授:做好科普 讓大眾了解深度偽造技術(shù)的存在 預(yù)防傳統(tǒng)電詐的手段就能有效預(yù)防AI詐騙 環(huán)球報道

時間:2023-06-16 20:26:04 來源:每日經(jīng)濟新聞 發(fā)布者:DN032

以前都說“有圖有真相”“有視頻有真相”……但自AI換臉工具出現(xiàn)后,這就要打一個大大的問號了。

前不久,一男子因AI換臉,10分鐘被騙430萬元。類似這樣的新聞引起了人們對AI換臉技術(shù)的警覺。


(資料圖片僅供參考)

據(jù)《每日經(jīng)濟新聞》記者了解,市面上已經(jīng)出現(xiàn)了開源的AI換臉軟件支持實時換臉,可以應(yīng)用于線上直播,甚至視頻通話場景。

中國科學(xué)技術(shù)大學(xué)網(wǎng)絡(luò)空間安全學(xué)院副院長張衛(wèi)明教授團隊曾參與大名鼎鼎的DeepFaceLab(一種利用深度學(xué)習(xí)進行視頻換臉的工具)的開發(fā)。資料顯示,2020年,他帶領(lǐng)團隊參加由Facebook、MIT等組織的全球最大的“深度偽造檢測挑戰(zhàn)賽(DFDC)”,獲得亞軍。

近日,張衛(wèi)明教授接受了《每日經(jīng)濟新聞》(下稱“NBD”)的專訪。談及開源換臉技術(shù),他認為相關(guān)技術(shù)的科普非常重要,可以有效提升民眾的防騙素養(yǎng),“某個先進技術(shù)如果只有很少的人知道和使用,大眾缺少認知才更容易被欺騙。”

深度合成內(nèi)容的檢測要從被動轉(zhuǎn)向主動

NBD:您的多個在研項目與深度防偽檢測有關(guān),可以介紹一下相關(guān)人工智能安全領(lǐng)域的最新研究進展嗎?

張衛(wèi)明:深度偽造檢測相關(guān)研究進程,其實跟人工智能本身的技術(shù)進展有很大關(guān)聯(lián)。近兩年,以GPT為代表的生成式人工智能迎來大爆發(fā)?,F(xiàn)在的深度合成,可以看成是生成式人工智能的一個分支。與諸多技術(shù)一樣,生成式人工智能也是一把雙刃劍,它可能被惡意使用。大家目前最擔(dān)心的事情之一,是生成式人工智能帶來的大量偽造信息。

以前我們主要做深度偽造檢測,現(xiàn)在我們關(guān)心的問題更寬泛一點,包括了各種人工智能生成內(nèi)容的檢測?,F(xiàn)在的GPT越來越接近人類,可以被用來寫各種各樣的文案,包括釣魚郵件、虛假新聞等,同時還沖擊到了教育領(lǐng)域,比如現(xiàn)在學(xué)生的作業(yè),你無法斷定是不是機器寫的。所以一個很熱門的問題是,怎樣檢測這些文本是機器寫的還是人寫的。

目前,國內(nèi)外有很多團隊在研究深度合成內(nèi)容檢測,但這些檢測方法主要是被動檢測,仍存在局限。如果能在部署模型階段,植入一些標識,去做主動檢測,這個可能更重要。比如,能不能在生成內(nèi)容里嵌入水印,同時不影響內(nèi)容的質(zhì)量?目前關(guān)于人工智能生成內(nèi)容水印的研究,已經(jīng)變成了新的熱點。

其實我們國家已經(jīng)針對深度合成應(yīng)用密集出臺了相關(guān)規(guī)定,要求深度合成服務(wù)提供者應(yīng)當對生成內(nèi)容進行顯著標記。

給文本做標識是比較難的,但是這個問題確實很重要。我們注意到,OpenAI等公司也在做自己的水印技術(shù)用于機器文本鑒別。類似這樣的研究,正在變成新的熱點。

NBD:一方面,研發(fā)者可以添加水印,另一方面,一些懂技術(shù)的人,也可以去掉水印。由此可見,深度偽造與其檢測,就像一個對抗的循環(huán),您怎么看待這一現(xiàn)象呢?

張衛(wèi)明:確實存在這樣的情況,所有的安全都是一攻一防,安全技術(shù)都有它的邊界。所有的攻防,包括深度合成以及檢測的攻防,都是在動態(tài)博弈中發(fā)展,并不會說最終PK出一個結(jié)局來。

因為安全這個領(lǐng)域,有一個共識,就是沒有絕對的安全,安全永遠是相對的。你做各種各樣的安全防護,理論上來講,它都有可能被攻擊。一旦有新的攻擊出現(xiàn),那就要求我們?nèi)ハ胄碌难a救措施。安全理念的提升,也是在這種對抗過程中動態(tài)地發(fā)展。

前面提到國家出臺相關(guān)規(guī)定明確要求去打顯著標識,其實那個是指可見的水印??梢娝∮幸粋€很大的問題,容易被人刻意擦除。相對來說,不可見水印有一定的優(yōu)越性,一個方面是它不可見,別人不知道這里面有水??;另一方面,即使知道有水印,也不知道水印在什么位置。

目前做水印技術(shù),會把信息藏在非常魯棒的特征空間上,來抵抗各種各樣的擦除。當然它是有邊界的,比如說給視頻擦水印的人,他如果不計損失的話,可以把視頻質(zhì)量變得很低,確實可能把水印擦掉。所以這里面其實是一個博弈。

預(yù)防AI詐騙關(guān)鍵在于知道深度偽造技術(shù)的存在

NBD:我們了解到,您的團隊開發(fā)了一種開源的AI換臉工具,旨在科普這種技術(shù),提升大家對深度合成的認知水平。但有人認為,一旦這種深度偽造技術(shù)普及之后,民眾可能對通話安全有所擔(dān)憂。對此,您怎么看?

張衛(wèi)明:我是這么理解的,大家目前最擔(dān)心的,其實是用生成式人工智能(比如深度合成)去實施各種各樣的詐騙。這個確實影響很大,但恰恰是因為這樣,更應(yīng)該去做這樣的科普、開源,讓老百姓真的體驗到現(xiàn)在的技術(shù)發(fā)展到什么程度了。

以前我們說有圖有真相、有視頻有真相?,F(xiàn)在要有一個意識,就是有圖可能也不是真相,有實時的視頻,可能也不是真相。

對普通百姓來說,關(guān)鍵是要知道這種深度偽造技術(shù)的存在。因為做防護其實是萬變不離其宗的,不見得需要很高級的技術(shù),防傳統(tǒng)電信詐騙的手段就很有效。比如一個視頻通話里面,對方跟你聊到了金錢的事情,提到了轉(zhuǎn)賬,你可能就要提高警覺了,這可能是一個假視頻,需要多方核實一下。

所以,不知道有這個技術(shù)的存在才是可怕的。目前已經(jīng)有一些愛好者制作了很多樣例,你會看到各種社交平臺出現(xiàn)了大量這種技術(shù)的創(chuàng)造性應(yīng)用。大眾看到后就會理解,現(xiàn)在的技術(shù)可以做到什么程度。這在某種意義上是教育了更多的人,讓他們有這個認知。我們無法阻止技術(shù)的進步,讓民眾了解AI技術(shù)的發(fā)展現(xiàn)狀,才能更好地預(yù)防其潛在危害。

NBD:您認為生成式人工智能未來最適合的應(yīng)用場景有哪些?

張衛(wèi)明:未來可能有很多正向的且比較有趣的應(yīng)用,最典型的是在娛樂領(lǐng)域,比如游戲、影視劇等等。

其實我在課堂上,曾經(jīng)讓一年級本科生去暢想未來這個技術(shù)可能會怎么應(yīng)用。與社會層面更多關(guān)注這一技術(shù)的風(fēng)險所不同的是,年輕學(xué)生們認為它的正面想象空間更大。

以影視娛樂為例,他們暢想可以去換臉體驗演大片?;蛘咴诮巧缪菪陀螒蛑校ㄟ^實時換臉、VR等技術(shù),能以自己的聲音、自己的臉進入到游戲里去。

還有就是心理治療。如果能用這些技術(shù),重現(xiàn)一個人或一個場景的話,可能對心理治療會很有幫助。再有就是在線教育。通過換臉等技術(shù),讓自己特別喜歡的老師,給自己講各種課,讓自己“聽得進去”更“學(xué)得進去”。

還有一個應(yīng)用是新時代的紅色文化宣傳、科學(xué)家精神宣傳。我們最近做了一個嘗試,發(fā)布了數(shù)字人錢學(xué)森,逼真度很高。錢老數(shù)字人發(fā)布以后,好評如潮,很多媒體都報道并轉(zhuǎn)載了相關(guān)視頻。這也讓我意識到,做科學(xué)家精神宣傳、紅色文化傳承,用這種方式可能更適合現(xiàn)在的年輕人,會達到很好的宣傳效果,是一個很好的正向應(yīng)用。

(文章來源:每日經(jīng)濟新聞)

標簽:

搶先讀

相關(guān)文章

熱文推薦

精彩放送

關(guān)于我們| 聯(lián)系我們| 投稿合作| 法律聲明| 廣告投放

版權(quán)所有© 2011-2023  產(chǎn)業(yè)研究網(wǎng)  m.www-332159.com

所載文章、數(shù)據(jù)僅供參考.本站不作任何非法律允許范圍內(nèi)服務(wù)!

聯(lián)系我們:39 60 29 14 2 @qq.com

皖I(lǐng)CP備2022009963號-13