【聲明】港生活網站並無進行電話推廣活動

AI製假影片 真到零瑕疵

發佈時間: 2018/01/12

人工智能(AI)發展迅速,Photoshop假相年代已演變成假影片年代,效果逼真難辨真偽。有AI程式把著名女星頭部「移花接木」至色情影片;亦可製作對嘴形的「演講」影片,日後壞分子要誣衊任何一位名人、說出甚麼內容都可以。

早前有程式員上載一段「色情影片」,女主角酷似《神奇女俠》以色列女星姬嘉鐸(Gal Gadot),動作表情自然。他解釋先在Google、YouTube收集明星不同角度拍攝的相片及影片,把素材輸入至TensorFlow開放源碼的AI機械學習工具,讓它學習明星臉部特徵,然後創造一張近似姬嘉鐸的臉孔,再修改影片每一格畫面,複製到原本色情片女主角身上。他亦以美國天后Taylor Swift、《權力遊戲》青春女星Maisie Williams、「黑寡婦」女演員施嘉莉祖安遜等影像製作同類影片,並表示︰「只要有數百張人臉相,我就可製造數百萬張假相訓練AI。」

移花接木換樣 明星變色情女星

影片令不少人憂慮壞分子會藉此製造假影片,向受害者作出報復或勒索,專家警告,製作假影片已變得愈來愈易,且難辨真偽,只需購買特定軟件就可以做到,技術並不高深。任何人只要曾發表夠多的自拍照或影片,都有可能成假影片的受害者。

這種移花接木的AI技術被稱為「生成對抗網絡」(Generative Adversarial Network,GAN),具有極強的模仿能力,目的是欺騙鑑別系統,GAN經學習後,既可製造清晰度和細緻程度極為逼真的人像,又能欺騙人眼的判斷力。

另一深度學習技術「CycleGAN」則可實時為一位大叔YouTuber「換臉」,模擬出少女YouTuber的動作表情,即使反過來,由少女「變身」大叔也沒問題。

美國華盛頓大學亦研究出AI系統,學習大量美國前總統奧巴馬的受訪影片,分析掌握他說各個生字的嘴形變化,再製出相應嘴形的假影片,效果完美無瑕。若有壞分子想誣衊某名人說出仇恨言論,可先以程式把原聲檔轉成近似該名人的聲音,再以該AI系統即可製造幾可亂真的假影片。

實時感應器 助冬奧選手爭標

南韓平昌冬季奧運會下月舉行,三星除贊助活動,亦為兩位荷蘭短道速滑選手,度身製造智能運動衣Smart Suit,以提高訓練效率。

Smart Suit在身體下肢的5個位置配置5個感應器,連接教練的手機,顯示實時動作姿勢的數據。教練可利用數據,即時提出改善,如注意到運動員姿勢不標準,可傳遞訊號予選手配戴的手環,透過震動提示選手糾正姿勢,亦可按需要調整訓練內容。

日醫院機械人 代護士當夜更

醫護人員短缺,影響醫療質素。日本名古屋大學附屬醫院下月開始在夜更時使用機械人工作,計畫為期1年,冀紓緩護士工作。

4名機械人的主要工作是運送藥物、樣本等醫療相關物品,最多可負重約30公斤,護士及藥劑師均可透過平板電腦,直接召喚機械人。它們擁有360度視角,不僅能在人群中工作,還能在被擋住前路時避開。機械人備有一個屏幕可顯示櫃裏存放的物品,讓醫護人員適時補充。機械人在電源不足時會自行返回工作站休息充電。

資料整理:吳浩南

編輯:梁偉澄

美術:簡力斯

相片:網上圖片