亚洲精品无码乱码成人|最近中文字幕免费大全|日韩欧美卡一卡二卡新区|熟妇性饥渴一区二区三区|久久久久无码精品国产AV|欧美日韩国产va在线观看|久久精品一本到99热动态图|99国产精品欧美一区二区三区

您現(xiàn)在的位置是: 專題 > > 正文

每經專訪中國科學技術大學張衛(wèi)明教授:做好科普 讓大眾了解深度偽造技術的存在 預防傳統(tǒng)電詐的手段就能有效預防AI詐騙|今日快訊

時間:2023-06-17 05:41:29 來源:每日經濟新聞 發(fā)布者:DN032

以前都說“有圖有真相”“有視頻有真相”……但自AI換臉工具出現(xiàn)后,這就要打一個大大的問號了。

前不久,一男子因AI換臉,10分鐘被騙430萬元。類似這樣的新聞引起了人們對AI換臉技術的警覺。

據(jù)《每日經濟新聞》記者了解,市面上已經出現(xiàn)了開源的AI換臉軟件支持實時換臉,可以應用于線上直播,甚至視頻通話場景。


(相關資料圖)

中國科學技術大學網絡空間安全學院副院長張衛(wèi)明教授團隊曾參與大名鼎鼎的DeepFaceLab(一種利用深度學習進行視頻換臉的工具)的開發(fā)。資料顯示,2020年,他帶領團隊參加由Facebook、MIT等組織的全球最大的“深度偽造檢測挑戰(zhàn)賽(DFDC)”,獲得亞軍。

近日,張衛(wèi)明教授接受了《每日經濟新聞》(下稱“NBD”)的專訪。談及開源換臉技術,他認為相關技術的科普非常重要,可以有效提升民眾的防騙素養(yǎng),“某個先進技術如果只有很少的人知道和使用,大眾缺少認知才更容易被欺騙。”

深度合成內容的檢測要從被動轉向主動

NBD:您的多個在研項目與深度防偽檢測有關,可以介紹一下相關人工智能安全領域的最新研究進展嗎?

張衛(wèi)明:深度偽造檢測相關研究進程,其實跟人工智能本身的技術進展有很大關聯(lián)。近兩年,以GPT為代表的生成式人工智能迎來大爆發(fā)?,F(xiàn)在的深度合成,可以看成是生成式人工智能的一個分支。與諸多技術一樣,生成式人工智能也是一把雙刃劍,它可能被惡意使用。大家目前最擔心的事情之一,是生成式人工智能帶來的大量偽造信息。

以前我們主要做深度偽造檢測,現(xiàn)在我們關心的問題更寬泛一點,包括了各種人工智能生成內容的檢測?,F(xiàn)在的GPT越來越接近人類,可以被用來寫各種各樣的文案,包括釣魚郵件、虛假新聞等,同時還沖擊到了教育領域,比如現(xiàn)在學生的作業(yè),你無法斷定是不是機器寫的。所以一個很熱門的問題是,怎樣檢測這些文本是機器寫的還是人寫的。

目前,國內外有很多團隊在研究深度合成內容檢測,但這些檢測方法主要是被動檢測,仍存在局限。如果能在部署模型階段,植入一些標識,去做主動檢測,這個可能更重要。比如,能不能在生成內容里嵌入水印,同時不影響內容的質量?目前關于人工智能生成內容水印的研究,已經變成了新的熱點。

其實我們國家已經針對深度合成應用密集出臺了相關規(guī)定,要求深度合成服務提供者應當對生成內容進行顯著標記。

給文本做標識是比較難的,但是這個問題確實很重要。我們注意到,OpenAI等公司也在做自己的水印技術用于機器文本鑒別。類似這樣的研究,正在變成新的熱點。

NBD:一方面,研發(fā)者可以添加水印,另一方面,一些懂技術的人,也可以去掉水印。由此可見,深度偽造與其檢測,就像一個對抗的循環(huán),您怎么看待這一現(xiàn)象呢?

張衛(wèi)明:確實存在這樣的情況,所有的安全都是一攻一防,安全技術都有它的邊界。所有的攻防,包括深度合成以及檢測的攻防,都是在動態(tài)博弈中發(fā)展,并不會說最終PK出一個結局來。

因為安全這個領域,有一個共識,就是沒有絕對的安全,安全永遠是相對的。你做各種各樣的安全防護,理論上來講,它都有可能被攻擊。一旦有新的攻擊出現(xiàn),那就要求我們去想新的補救措施。安全理念的提升,也是在這種對抗過程中動態(tài)地發(fā)展。

前面提到國家出臺相關規(guī)定明確要求去打顯著標識,其實那個是指可見的水印??梢娝∮幸粋€很大的問題,容易被人刻意擦除。相對來說,不可見水印有一定的優(yōu)越性,一個方面是它不可見,別人不知道這里面有水??;另一方面,即使知道有水印,也不知道水印在什么位置。

目前做水印技術,會把信息藏在非常魯棒的特征空間上,來抵抗各種各樣的擦除。當然它是有邊界的,比如說給視頻擦水印的人,他如果不計損失的話,可以把視頻質量變得很低,確實可能把水印擦掉。所以這里面其實是一個博弈。

預防AI詐騙關鍵在于知道深度偽造技術的存在

NBD:我們了解到,您的團隊開發(fā)了一種開源的AI換臉工具,旨在科普這種技術,提升大家對深度合成的認知水平。但有人認為,一旦這種深度偽造技術普及之后,民眾可能對通話安全有所擔憂。對此,您怎么看?

張衛(wèi)明:我是這么理解的,大家目前最擔心的,其實是用生成式人工智能(比如深度合成)去實施各種各樣的詐騙。這個確實影響很大,但恰恰是因為這樣,更應該去做這樣的科普、開源,讓老百姓真的體驗到現(xiàn)在的技術發(fā)展到什么程度了。

以前我們說有圖有真相、有視頻有真相。現(xiàn)在要有一個意識,就是有圖可能也不是真相,有實時的視頻,可能也不是真相。

對普通百姓來說,關鍵是要知道這種深度偽造技術的存在。因為做防護其實是萬變不離其宗的,不見得需要很高級的技術,防傳統(tǒng)電信詐騙的手段就很有效。比如一個視頻通話里面,對方跟你聊到了金錢的事情,提到了轉賬,你可能就要提高警覺了,這可能是一個假視頻,需要多方核實一下。

所以,不知道有這個技術的存在才是可怕的。目前已經有一些愛好者制作了很多樣例,你會看到各種社交平臺出現(xiàn)了大量這種技術的創(chuàng)造性應用。大眾看到后就會理解,現(xiàn)在的技術可以做到什么程度。這在某種意義上是教育了更多的人,讓他們有這個認知。我們無法阻止技術的進步,讓民眾了解AI技術的發(fā)展現(xiàn)狀,才能更好地預防其潛在危害。

NBD:您認為生成式人工智能未來最適合的應用場景有哪些?

張衛(wèi)明:未來可能有很多正向的且比較有趣的應用,最典型的是在娛樂領域,比如游戲、影視劇等等。

其實我在課堂上,曾經讓一年級本科生去暢想未來這個技術可能會怎么應用。與社會層面更多關注這一技術的風險所不同的是,年輕學生們認為它的正面想象空間更大。

以影視娛樂為例,他們暢想可以去換臉體驗演大片?;蛘咴诮巧缪菪陀螒蛑?,通過實時換臉、VR等技術,能以自己的聲音、自己的臉進入到游戲里去。

還有就是心理治療。如果能用這些技術,重現(xiàn)一個人或一個場景的話,可能對心理治療會很有幫助。再有就是在線教育。通過換臉等技術,讓自己特別喜歡的老師,給自己講各種課,讓自己“聽得進去”更“學得進去”。

還有一個應用是新時代的紅色文化宣傳、科學家精神宣傳。我們最近做了一個嘗試,發(fā)布了數(shù)字人錢學森,逼真度很高。錢老數(shù)字人發(fā)布以后,好評如潮,很多媒體都報道并轉載了相關視頻。這也讓我意識到,做科學家精神宣傳、紅色文化傳承,用這種方式可能更適合現(xiàn)在的年輕人,會達到很好的宣傳效果,是一個很好的正向應用。

(文章來源:每日經濟新聞)

標簽:

搶先讀

相關文章

熱文推薦

精彩放送

關于我們| 聯(lián)系我們| 投稿合作| 法律聲明| 廣告投放

版權所有© 2011-2023  產業(yè)研究網  m.www-332159.com

所載文章、數(shù)據(jù)僅供參考.本站不作任何非法律允許范圍內服務!

聯(lián)系我們:39 60 29 14 2 @qq.com

皖ICP備2022009963號-13


新疆| 四平市| 东明县| 新绛县| 蓝田县| 山西省| 临湘市| 平凉市| 尼玛县| 保靖县| 延庆县| 通许县| 策勒县| 同仁县| 洛浦县| 琼中| 黑山县| 临洮县| 墨竹工卡县| 麻江县| 舞阳县| 略阳县| 灵山县| 台中县| 栾川县| 乾安县| 文昌市| 柞水县| 潮州市| 饶河县| 林西县| 长丰县| 偏关县| 施甸县| 大悟县| 综艺| 上栗县| 永兴县| 昌图县| 四子王旗| 临泽县|