(原標題:Deepfakes are getting easier than ever to make, new research paper shows)
網易科技訊 5月24日消息,據國外媒體報道,通常制作出令人信服的Deepfakes音視頻剪輯需要大量的數據集對模型進行反復訓練。目前三星人工智能中心的研究人員已經設計出一種方法,在有限訓練數據集的情況下就能制作出栩栩如生的假視頻,有時只需要一張特定的照片便可制作出以假亂真的Deepfakes效果。
研究人員從YouTube上收集的7000張名人照片中提取出“標志性”面部特征(臉部、眼睛、嘴巴等的一般形狀),然后用于訓練算法,從而實現了這一效果。
算法可以將這些特征映射到一張照片上,使其栩栩如生。正如該團隊所證明的,這種模型甚至適用于《蒙娜麗莎》和其他單幅靜止畫像。在研究人員發布的一段視頻中,阿爾伯特·愛因斯坦、費奧多爾·陀思妥耶夫斯基和瑪麗蓮·夢露的著名肖像栩栩如生,就像你用相機拍攝的真實照片一樣。
就像大多數Deepfakes應用一樣,在這種狀態下很容易看到接縫。大部分的臉都被人為的視覺效果所包圍。不過,與巧妙地把蒙娜麗莎偽裝成一個會呼吸的人相比,修復解封問題可能會更容易。
盡管存在一些缺陷,但虛假音視頻正變得越來越真實。隨著研究人員不斷開發出制作高質量Deepfakes應用的簡易方法,人們擔心這些方法會產生負面影響。當然,Deepfakes的潛在危險是真實存在的,但目前的擔憂言過其實。(辰辰)
(原標題:Apple invites press to WWDC 2019 keynote...
(原標題:華為遭遇“封鎖令”,美國在懼怕什么?) ...
附:任正非:我流淚了! 150分鐘采訪完整實錄解密美國禁令下的任正非作者 | 崔...
(原標題:快訊!ARM回應“暫停與華為業務”報道:不便評...
網易科技訊5月21日消息,今日據《財經》報道,百度無人車正在尋找外部投資機構...
(原標題:華為渡“安卓劫”:四個選項一個比一個激進) ...