《文茜的世界周報》
【"眼見不能為憑"!原本的電影特效,運用人工智能轉換臉孔聲音,如今"深偽技術"入侵你我日常,透過AI將嘴部變化與既有語音同步,任何人說話都能被造假,美外交期刊: 深偽影片敲響情報戰新時代第一響警鐘,深偽影片加劇假新聞威脅,也可能左右全球各國選舉,目前科學家致力於開發鑑定技術減少傷害,但深偽技術正在「武器化」,成為周遭的不定時炸彈。】
{內文}
(影片旁白)
我們正在進入一個時代,在這個時代,我們的敵人可以讓任何人,在任何時候講出任何話,當公眾人物被記錄下來的,並非他們說過或做過的事,那麼我們就將進入一個「眼見不能為憑」的時代
這是一個你在現實世界不曾想像過的狀態,當代人工智能的進步,正足以讓人們的臉孔聲音徹底轉換,而這個被稱為「深度偽造」的技術,正鋪天蓋地入侵你我日常。
(歐巴馬/美國前總統/深偽影片)
川普總統是個徹頭徹尾的混蛋,你現在看我,我本該永遠不會把這些話說出口,至少不會在公開演說中講,但別人可能會像是(演員)Jordan Peele這樣的人
2018年4月BuzzFeed網站,率先把前總統歐巴馬向假新聞宣戰的影片加以變造,被視為「把話塞進別人嘴巴裡」的開山始祖,只要用AI大數據將歐巴馬的嘴部變化,與既有語音同步,看起來就像是這些話真的出自歐巴馬之口。
(歐巴馬/美國前總統/深偽影片)
展望未來,我們需要對互聯網的信任 保持警惕
從影片下端留言不難得知,確實有人發覺了異樣,但科技進步正所謂一日千里,最重要的是,人工智能與機器學習技術,早已不再是政府項目或者大公司的專利,即便是小國家或非政府組織者,都可以輕易藉由當前開放的資訊,科技商業化的環境 發展人工智能,只要有足夠的圖像 細節 訓練算法的大型資料庫,任何人都可以輕鬆進行「深度偽造」。
(Jeremy Kahn/彭博社科技記者)
事實上要製作這些影片非常容易,在過去幾個星期裡,學術研究人員甚至在特殊類型的機器學習中取得了一些突破,這將大量減少實際製作所需要的影片量
其實,好萊塢電影早在多年前,便率先開發使用這項技術,發明者Collin Frend說,這是伴隨人工智能技術演進的結果,最初是因應電影情節需要。
(Collin Frend/深偽技術創造者)
我們透過一遍又一遍觀察成千上萬的圖像,來學習重建那個人的臉,就像你想像的 ,更多研究會製做出一個愚蠢的影片或類似的東西
(深偽影片)
這對我來說真的很令人驚訝 是的 我真的很驚訝
(Collin Frend/深偽技術創造者)
除了透過人工智能技術的機器學習端之外,我並沒有在製作影片上動任何手腳
但過去,要製作如此逼真的影像電影,需要多年培訓至少數百人,及上百萬美元資金投入,相較於目前面部貼圖與人工智能技術的大幅精進,打造深偽影片已經變得易如反掌,甚至不需要具備任何專業背景,一個簡單的App就能搞定。
(Hany Farid/電腦科學專家)
你甚至不必知道GitHub(分散式版本的控制系統)是什麼,不必知道如何使用Python簡化流程,這一切都不重要,你的客戶只需要20塊美元,他們就能創造你的命運,這有點兒改變遊戲規則
近期一段美眾院民主黨籍議長裴洛西談話的深偽影片在IG上面瘋傳,被對手川普總統拿來攻擊譏笑說她口齒不清,不少人批評臉書放任假新聞流傳,臉書卻聲明表示,就算影片主角是自家老闆也會比照辦理,遭人以相同手法回擊。
(臉書創辦人/查克柏格深偽影片)
惡靈告訴我 凡能控制數據的人 就能操縱未來
越來越多人擔心,深偽影片可能正加劇當前虛假訊息及行動帶來的混亂,一段或一連串精心策劃的深偽影片,極可能左右一場選舉結果,在一座城市掀起暴動,或擴大社會中的政治分歧。
(Jeremy Kahn/彭博社科技記者)
你知道,這是一種潛在刺激腎上腺素的假新聞,我們不知道是否有人試圖利用這種情況進行某種詐欺或信息戰,或者就此而言,真正損害某人的聲譽,但這種危險,每個人都真的很害怕
美國《外交》期刊(Foreign Affairs)近期一篇報導稱,深偽影片正敲響了情報戰新時代的第一聲警鐘,除非能確知哪些信息可信 哪些不可信,否則信息量多並不能確保得出正確結果,越是追求速度與聳動性的消息,出錯的風險也就更高。
(Hany Farid/電腦科學專家)
最可怕的噩夢就是,有一段川普的影片,他說「我向北韓發射了核彈」,而且有人破解了他的推特帳號,在網路上瘋傳 30秒後,全球都被核武摧毀,這事情會發生嗎?我覺得機率不大,但也不是完全沒有可能,一想到這絕非不可能,真的會讓你嚇出一身冷汗
美國外交關係協會在一次討論中更坦言,要弄清楚北韓和伊朗的導彈或核武數量容易,難是難在如何全盤掌握中國,近期在人工智能或量子計算方面的發展究竟到了哪裡?更不要說美國情報界迄今仍未搞清楚,俄羅斯究竟是如何利用社交媒體,大規模干預2016年美國總統大選,接下來要如何面對2020的挑戰。
(Hany Farid/電腦科學專家)
目前我們正致力於開發鑑定技術,以保護世界領袖免於受到深偽技術的傷害,尤其擔心有人利用川普 梅伊 梅克爾這些世界領袖的外貌,透過創造虛假聯繫,來破壞選舉,並煽動潛在的暴力與國家
畢竟人工智能已打破了,過去美國在情報戰中的一切競爭優勢,讓越來越多訊息容易變造且難以察覺真偽,深偽技術正在「武器化」,即便科學家們蒐集數百小時的個人視頻,企圖替主要候選人建立模型,仍無法保證能對抗得了,一個打破階級財富的新科技戰正在醞釀,「深偽視頻」正在你我身邊,埋下一顆顆不定時炸彈。
https://www.youtube.com/watch?v=fSW3KEU93N4
同時也有4部Youtube影片,追蹤數超過60萬的網紅呱吉,也在其Youtube影片中提到,有一天,你在網路上看到一段影片,影片中的主角是你。奇怪的是,你並沒有拍攝過這段影片。 這並不是科幻電影劇情,現在只要利用Deepfake技術,任何人都可以用你的臉做出一段影片。 眼見不再為憑,你以為影像就是最真實的證據,但很可惜,早就不是了。 呱吉FB粉絲團:https://www.faceb...
深偽 在 報導者 The Reporter Facebook 八卦
#書評【《您已登入N號房》:2名女大生在房間目睹的罪惡與毀滅】
還記得去年震驚國際的韓國N號房性剝削案嗎?暱稱「博士」的犯罪者利誘、脅迫女性取得私密相片影片,再利用加密通訊軟體Telegram散播,甚至有聊天室進行性侵直播……該案主嫌雖已落網,然而N號房的黑暗不止於性暴力與影像散播。
公益媒體「Right Plus多多益善」總編輯葉靜倫在本篇書評中指出,《#您已登入N號房》多次提到「熟人凌辱」議題,身為事件吹哨者並化身採訪的兩位韓國女大生,除了發現身邊學長或同學也在「房間」中,也多次發現受害者分享在個人不公開社群網站的生活照,被信任的人偷走「分享」,再被 #深偽(deep fake)技術合成到性愛影像,「這些人享受著凌辱自己女友朋友家人老師,這些人都是哪些人?是我們生活中的誰?還能相信誰?」
身為記者,她們報導臥底時看見的真相;身為女性,她們更感同身受這一種身體性別才會經歷的事;身為目擊者,她們將殘忍的現場帶到大眾眼前,持續要社會正視思考數位性犯罪的威脅與倖存者的孤立處境……
#N號房 #性剝削 #數位性暴力 #報導者 時報出版 Right Plus 多多益善
深偽 在 翟本喬 - 科技時代 Facebook 八卦
《Deep Fake 正式介入台灣選舉》
1月3日有一個名為「哈囉樓主 Lucid Film」的帳號,上傳了一個使用 Deep Fake (深度偽造) 技術,偽造了吳孟達、周星馳、韓國瑜肖像的影片,在影片裡將台灣總統選舉與地下賭盤進行勾連,甚至預告會有之後的作品。
千萬不要轉傳相關影片!!!
千萬不要轉傳相關影片!!!
千萬不要轉傳相關影片!!!
有興趣的朋友可以先看寶博士葛如鈞的這篇文章:
《深偽新聞: 真實的末日,真相的危機,未知的恐慌 — 一則 Bosstown Dynamics 影片的爆紅啟示》
https://medium.com/@daaab/bosstown-dynamics-5ec23f11316f
「哈囉樓主 Lucid Film」這個團隊,利用人工智慧的自動合成技術,把人臉合成到演員臉上,製造假對話。而我們擔心的是,當演員的身形、聲音、和臉部的合成技術越來越純熟時,人們將越來越難辨識訊息的真假。
更恐怖的是,在這禮拜週末就要選舉的時刻,這樣的合成影片恐試圖透過各種管道 (Ptt、LINE 等) 來滲透全台灣參與地下賭盤的人,進而影響選舉。
兩年就曾經有一段影片,把館長和一位女直播主交換畫面,所有手勢嘴型話語都符合,只是臉和身體換過來。以當時的技術還可以看出一些破綻,但兩年之後技術和運算能力都進步了很多,我們相信要造假影片騙人是很容易的。
現在已經有假訊息泛濫的情形,假影片又來火上加油。我們在此鄭重呼籲:
1. 網友在觀看網路媒體時,已經不再能眼見為憑,必須有所警覺內容可能為合成捏造,要準備進行檢舉及提供給第三方查證中心,千萬不要輕易聽信跟轉傳。假訊息對2018選舉影響已經很大,我們不要再一次讓我們的民主被這種資訊傷害。
2. 事實查核平台目前主要是針對文字資訊查證,我們認為這些運用尖端技術合成的假影片也應一併納入檢查範圍。以目前主要是人工查證的程序來說,執行應該不算難。
3. 無論是 Google、YouTube、Facebook、Twitter、LINE 各種社群平台,應對 Deep Fake 技術開發偵測演算法 [1]。當發現內容是合成的時候,應該要加強標示,甚至下架。
這種惡意的變造實際上已經觸法 (侵害肖像權、散佈不實言論、妨害名譽、意圖使人不當選),請大家提高警覺,一同緊盯假訊息、假影片,守護台灣民主。
[1] FaceForensics++: Learning to Detect Manipulated Facial Images https://arxiv.org/abs/1901.08971 訓練模型資料集: https://github.com/ondyari/FaceForensics
深偽 在 呱吉 Youtube 的評價
有一天,你在網路上看到一段影片,影片中的主角是你。奇怪的是,你並沒有拍攝過這段影片。
這並不是科幻電影劇情,現在只要利用Deepfake技術,任何人都可以用你的臉做出一段影片。
眼見不再為憑,你以為影像就是最真實的證據,但很可惜,早就不是了。
呱吉FB粉絲團:https://www.facebook.com/froggychiu/
呱吉Instagram:https://www.instagram.com/froggychiu/
呱吉的美食廢人地圖:https://goo.gl/bpPKvW

深偽 在 挽歌之聲 Youtube 的評價
《獨與更獨》
改編:IX https://www.facebook.com/IXpage/
Vocal:Mark Tai @IX http://www.facebook.com/marktaipage
Bass:Dave Leung @IX
Beats:Ken Wan @IX
MV:91studio
Director:Brian Poon
Photography:Jeffy Lam
填詞:挽歌之聲
遊行 逐浪 上課 冥想 都一個人
獨得很 我最出塵
其實說句真心 是俗世跟我 有緣無份
引火 只想要 自焚
閒聊 漫步 跳舞 進餐 都一個人
就握緊 雙手同寢
談大愛太高深 偽善也不過 暗藏仇恨
我只遵守 我路引
亡命的恐懼 怎死去
亦不需結聚 別人眼淚
庸俗的分類 紅男 綠女
成伴徒添幾歲
嘗犯一宗罪 一種醉
沒一絲顧慮 極其乾脆
言下的尖銳 長留心裡
人自徒添幾歲
別參加 我獨身的派對
----------------------------------------------------------
原曲:壞與更壞
原詞:黃偉文
作曲:林家謙
原唱:林宥嘉

深偽 在 小伶玩具 Xiaoling Toy Youtube 的評價
#小伶玩具#伶可家族#玩具開箱#搞笑
公司更多資訊關註公司官網:https://www.lingkeent.com/
歡迎訂閱觀看伶可家族的其他頻道
《小伶玩具》 https://bit.ly/2htxgRB
《小伶剧场》 https://bit.ly/2KFT3EX
《乖宝奇趣秀》https://bit.ly/2V2BXoL
《伶可兄弟》 https://bit.ly/2VNi8im
《小伶魔法世界》https://bit.ly/3i96Z5S
《伶可家族儿歌》https://bit.ly/2Gehnwf
《伶可家族夏天》https://bit.ly/3nCVtCQ
《伶可家族小伶》https://bit.ly/2LFSTON
《伶可家族小葩》https://bit.ly/2LsUU11
《突击侠》https://bit.ly/3bwExew
有更多新奇有趣的影片等著大家唷!
喜歡我們的話就不要忘記訂閱我們的頻道!
想要更多互動
【追蹤伶可家族的sns吧】
► Weibo: http://t.cn/RHiozMB
► Wechat: ID: xiaoling|wanju
► EMAIL: contact@xiaolingent.com

深偽 在 什麼是「深偽技術」(Deepfake)?而這項人工智慧 - YouTube 的八卦

更多【科普長知識】▻ 電影少了燈光師會變怎麼樣?https://smarturl.it/xai157 假新聞、假訊息是現今媒體,可說是最普遍的事, 深偽 技術(Deepfake) ... ... <看更多>
深偽 在 深偽技術識詐宣導短片(BY法務部調查局) - YouTube 的八卦
福建連江地方檢察署 · 最新》AI 深偽 詐騙猖獗! · AI 深偽 詐騙猖狂! · 【屏東爆炸】家屬哭倒在蔡英文懷裡火警3勇消殉職1失聯@newsebc · 認識Deepfake防範假訊息. ... <看更多>