「當人臉輕鬆被偷走後,真的無『法』可管嗎?」在Deepfake益趨發達的同時,網路上不僅出現合成網紅、藝人臉部的不雅影片,更有是偽裝成政治人物,捏造不實言論。甚至,還能靠著合成影片,偽造他人身分開戶。

刑事局從去年7月開始進行情蒐發現,網路上流傳多名網紅、藝人的性愛影片,而這些都經過求證非本人所拍攝的。警方循線追查,背後是從社群「台灣網紅挖面」所流出。
犯嫌透過利用換臉技術,將數名網紅、藝人或政治人物等的臉,移植到色情片AV女優身上,並後製成色情影片,以牟取不法獲利。18日,警方也破獲該案,主嫌為知名網紅小玉等3人,全案依散播猥褻物與妨害名譽等罪送辦。
Deepfake(深偽技術)一詞最早在2017年出現,是種透過人工智慧(AI)中的深度學習(Deep Learning)技術所創造出的偽造(Fake)訊息。Deepfake技術只需要特定對象大量影音素材,就能從中產生更多新數據,進而製作出擬真的影片。

高達九成的受害者都是女性!DeepFake帶來的數位性暴力遠超乎想像
即便有正面價值,但Deepfake已在全球引發無數的負面爭議。Deepfake可以幫助影像合成更加快速、方便,甚至讓畫面更擬真。也可以讓已逝的親人或古人,只靠一鍵,就能重新在頁面中眨眼、微笑等動作。
更多時候,Deepfake卻讓更多人成為數位性暴力的受害者。最早在2017年,美國社群網站Reddit就出現合成史嘉蕾喬韓森(Scarlett Johansson)與艾瑪華森(Emma Watson)等眾多好萊塢女星臉部的不雅影片。
不只在美國,去年日本警方也破獲一起製作500部以上不雅影片的3名犯嫌。他們透過Deepfake將上百名女藝人的臉,合成並後製在不雅影片中。然而,這卻只是冰山一角,經統計日本國內至少有3000多部不實的不雅影片。
且根據國外科技研究單位Sensity AI估計,所有Deepfake的影片中有90-95%是未經同意的色情內容,其中又有近90%的主角,是以女性為主。
科技媒體《The Verge》過去相關報導就指出,女性一直是Deepfake的受害者,人們可以用該技術來製作同事、朋友、同學等人的影像,「而且隨著時間的推移,這些內容的真實性只會增加」。

DeepNude恐讓人人成為「復仇式色情」的下個受害者!
然而,2019年運用類似Deepfake技術的「DeepNude」,則是只要上傳女性照片,就能透過AI技術製作出擬真的裸照。DeepNude這款軟體一上架,就遭各界撻伐。
根據《Vice》深入調查發現,當安裝該軟體在電腦中後,在50美元的付費版本中,可見到移除浮水印的色情照片。該份報導也指出,DeepNude比Deepfake更容易使用,這恐怕讓人人成為「復仇式色情」的下個受害者。
「這完全是對性隱私權的侵犯,」馬里蘭大學法學教授希特龍(Danielle Citron)就曾在2019年因Deepfake威脅向國會作證。
接續說道「這不是你真正的陰道,但其他人認為他們曾看到你赤裸的身體,」。希特龍也引述一位Deepfake受害者所說,這感覺就像成千上萬的人看到她的裸體,而她覺得她的身體已經不再是她自己的了。
罰則太輕,成為各國制裁Deepfake新型犯罪事件的主要問題。而目前網紅小玉所犯下的案件,按照現行法規,僅犯下刑法中的散布猥褻影像,以及妨害名譽兩個罪行。
19日,法務部長蔡清祥在立法院答詢時則表示,「目前罰則太輕」,並已啟動修法程序。根據《麻省理工科技評論》報導指出,美國有46個州對復仇式色情影片有所管制。至於Deepfake影片,只有在維吉尼亞、加州等少數幾個州列入管制。而英國,正著手審理與Deepfake有關的「私密形象濫用法」。
Deepfake不僅造成許多數位性暴力的受害者外,更挑起假新聞/假訊息等諸多問題,面對越來越多的受害者,各國政府無疑需加快修法的腳步。

 

新聞全文:https://reurl.cc/V50z2Z(另開視窗)