分享自TFC 台灣事實查核中心 https://reurl.cc/44KNWY 【研究與動態】 最近發生的社會事件,是有人利用 #深偽技術(#DeepFake),將公眾人物的臉「移植」 到色情影片的主角臉上。 其實,深偽技術對查核組織來說已不是新名詞,但仍是棘手的敵人。去年美國大選期間, 查核中心曾發布過 #謠言風向球 文章,教大家破解偽造的政治人物影片;而在今年2月 ,查核中心也曾採訪專家,跟讀者們一同認識深偽技術的生成與辨識。現在,我們就來一 起複習這幾篇文章吧! 相關閱讀: 〈台灣團隊研究辨識Deep Fake影片 深偽技術的正邪之戰開打〉 https://tfc-taiwan.org.tw/articles/5022 〈 國外事實查核組織揭穿「拜登睡覺」的假影片〉 https://tfc-taiwan.org.tw/articles/4410 -- 查核中心提醒您:面對可疑訊息,可運用 #疑想查問戳 五字訣。 遇到可疑的性影像:#不點閱、#不下載、#不分享。 #深偽 是什麼? #AI(#人工智慧)的技術中,其中一個領域是 #機器學習(#Machine_learning),深偽 技術即是屬於機器學習裡的 #深度學習 (#deep_learning)。 深偽能做什麼? 日前曾經流行的「#FaceApp」,讓使用者美化照片、變換性別、模擬變老的模樣,這就是 一種深偽技術的運用。 成功大學數據科學研究所助理教授許志仲說,常見的深偽影片是使用電影畫面,把演員的 臉換成其他名人。不實訊息研究機構《First Draft》創辦人克萊爾.瓦杜也曾指出,「 深偽影片」能將電影或節目中名人的臉換成其他人,或是讓名人在影片中說出他們沒說過 的話。 深偽會造成什麼影響? 許志仲說,有些人製作深偽影片是為了 #研究,也有人是為了 #惡搞,但如果有人利用合 成的假影像 #操弄資訊,這就比較嚴重。 瓦杜指出,隨著科技進步,深偽影片的製作會越來越容易、越便宜。當深偽影片趨向氾濫 ,散布者的罪惡感將會減少。「深偽影片」最大的危機是造成民眾對所見所聞、以至於對 整個社會產生不信任,一點一點地 #破壞民主制度。 深偽影片能被破解嗎? 中研院資訊科技創新研究中心研究員兼副主任曹昱說,深偽技術的一端是 #生成器( #Generator),它會模仿人類,希望讓「fake」和「real」越來越像,利如生成器會透過 大量資料去學習狗的模樣,直到可以畫出真假難辨的狗。 而深偽技術的另一端是 #辨識器( #Discriminator),辨識器可以分辨畫的狗和照片的 狗。生成器與辨識器會相互較勁,雙方都會越來越精進。 肉眼如何辨識深偽影片? 許志仲說,這些生成影像的人臉都很漂亮,但臉的邊緣可能會出現瑕疵,因此可以去觀察 邊界陰影的變化,若光線變化不自然,或是臉的邊線、髮絲與背景模糊不清,就可能有問 題。也有研究指出,偽造影像生成的人臉不會正常眨眼睛。因此可觀察人的眨眼頻率,或 眼神方向。 事實查核組織面臨的挑戰 中研院資訊科技創新研究中心助研究員陳駿丞也指出,用深偽技術來製作假訊息,可能不 需要用高難度的技術來做到完美影像,只要把 #影片解析度降低,如果民眾沒有警覺性, 就可能中招;又比如用模擬變聲雖然很難擬真,但如果混入街道上嘈雜的聲音,就會提升 辨識難度。 Deep Fake 受害者訪談影片: https://youtu.be/nsslI93M4sw
-- ※ 發信站: 批踢踢實業坊(pttweb.org.tw), 來自: 42.77.10.105 (臺灣) ※ 文章網址: https://pttweb.org.tw/feminine_sex/M.1648744684.A.54B ※ 編輯: jonathan8907 (42.77.10.105 臺灣), 04/01/2022 00:45:22
zoro178 : 不過幸好只是合成的,不是真的,不然如果是真的, 04/01 00:51
zoro178 : 粉絲會很崩潰的 04/01 00:51
weltschmerz : 無解 只能仰賴民眾聰明點 不過看到長輩整天群組傳一 04/01 01:56
weltschmerz : 堆錯誤訊息的時候 我就覺得大概沒救了 04/01 01:56
douge : 源頭不就是一個真的閉眼睛的專訪 04/01 09:11
cw758: 包養網站葉配啦 04/01 09:11
douge : pelosi 那個假到不行 根本不是deepfake 04/01 09:12
q347 : https://www.youtube.com/watch?v=Ol4RWhznuqg ? 04/01 15:28