Friday, October 16, 2020

製作和鑑別假視頻的新技術

有位記者從一個匿名舉報人那裡收到一个視頻,顯示某個總統候選人的談話,承認自己搞非法活動。如果這個視頻是真實的,那會很轟動,甚至可能扭轉選舉結果。但記者用一個專門工具來播放,就發現這是Deepfake製作的。Deepfake利用人工智能進行深度學習,能夠利用你的聲音,炮製出你並沒有說的話。

但是識別檢測Deepfake產品的人工智能(AI)工具很快會普及,說不定幾年後每人都可以使用AI工具在社交媒體的各種信息中找出假冒的內容。現在,開發這種反虛假信息的工具很必要。

我現在已經領教,有時眼見也不為實。過去幾十年中的照片編輯技術很高明就不必說了,連視頻剪輯我都學會一點,如果別人剪輯的水平差一些,我能看出來。但聽說現在使用Deepfake,只需要花錢買個好的電腦設備,再搭上幾個星期的時間去嘗試,就可以搞出看上去很逼真的假東西。

Deepfake能讓你進入某個電影場景中飾演鋼鐵俠(Iron Man),可惜它也能在未經允許的情況下用某人形象來製作色情影片。迄今被濫用Deepfake的受害對象幾乎都是婦女,但它還可用於製作政治領導人錄像帶,發表煽動欺騙言論,引起危險的政治風暴。

下面視頻是加州大學伯克利分校Hany Farid教授解釋Deepfake的製作和檢測。

也許最可怕的不是別的,通過懷疑假冒,人們會比較傾向於懷疑真實的視頻內容。所以,能夠檢測出Deepfake產品並貼上標籤,非常重要。這樣可以確保公眾不會被假視頻欺騙,並接受真實視頻為真。

Deepfake的檢測已經研究三年了。最初是側重於尋找視頻中的可見問題,比如不眨眼。但假冒產品模仿得越來越好,越來越難以看出來。

Deepfake的檢測研究分為兩大類。一類是查看視頻中人物的行為。假如您有很多著名人物的視頻,比如奧巴馬,AI可以利用那些視頻來學習他的行為模式,手勢啦、講話停頓啦等等。然後,AI可以觀察他的Deepfake影像,注意到哪些地方與他的模式不匹配。 即使視頻製作完美,這種方法也可以能識別出來。

另一類研究把注意力放在所有Deepfake產品的共同特徵上。這些假視頻通常是把許多個別生成的圖像連湊在一起,假音頻也類似,你可以從拼湊的產品中識別出信息流動不連貫的部分。這些細節很難看出來或聽出來,AI卻可以檢測到,說明Deepfake技術尚不完美。將來技術發展,AI檢測也必須跟上,才能夠防止假消息肆意橫行。

在理想情況下,每人都應該有Deepfake檢測工具。但這項技術還在開發的初階,研究人員需要改進它,還要防止駭客攻擊。同時,倒是越來越多的人能夠得到Deepfake去糊弄大眾了。

Rochester理工學院的信息技術研究團隊John Sohrawardi說,我們不能旁觀,乃必須與記者們合作,因為他們處在防禦假信息的第一線--每次發表消息時,他們需要證實消息的真確性,檢查消息來源,多方尋找旁證等等。把圖像辨別工具交給他們等於提供更多信息。他們當然不能單憑技術,否則也會出錯。

這樣看來Deepfake的製作和檢測在競賽了。臉書和微軟都投入了人力物力,進入這個研究領域,爭取讓檢測走在製作的前面。無論是記者還是社交媒體平台,如果檢測到假視頻,都需要想辦法用最佳方式警告讀者。

研究表明,人們記得這些假信息的內容,但不太記得那是假的。對假視頻會不會也這樣?單單在標題上加個標籤恐怕不夠抵擋某些謠言。隨著AI技術越來越發展,Deepfake技術會繼續使用,而管理假信息,保護公眾不受騙會越來越難。

現在AI檢測假視頻的研究正在擴大,以應付假信息帶來的威脅。(本文內容取自theconversation.com文章,一個非黨派專家信息分享網站。)

No comments:

Post a Comment