記者Cemedas Dumalalrath(江子芊)說:「你認為這是真的我嗎?這是最新的Deepfake換臉技術,隨著科技日新月異,數位犯罪手法也跟著精進,Deepfake換臉技術也有可能成為犯罪的手法之一,但不諳3C的長輩們,他們有辦法了解嗎?」
去年警方偵獲,有網紅利用人工智慧Deepfake換臉技術,將不雅影片的臉部替換為藝人或是網紅,讓大眾誤會這些影片原本就是這些藝人和網紅所拍攝的,並且販售得利,甚至連總統蔡英文都遭殃,令社會譁然。
長輩林英妹、田國榮說:「這個問題真的非常的大,如果說沒有你們的宣導的話,我們這一群老人根本就不知道有這一種的詐騙的手法,所以我感覺這個是非常危害社會的一種事情。」「我們都不知道這種訊息,我要宣導我們的家人還有親戚朋友,來預防這種詐騙集團的事情。」
對於不熟悉3C產品的長輩,只能透過文健站的宣導或是家人的提醒,才會得之這樣的消息。然而現在不只有照片能夠仿造,影片、聲音都可以被有心人士利用人工智慧技術,做出非法行為。
刑事警察局預防科股長張睿瑜說:「我們考量這一類案件對被害人的身心影響非常地大,包括由法務部來檢討現行的法規是否罰則過輕,以及衛生福利部檢討目前的被害人保護措施是否有不足的地方,那各部會都在積極推動當中。」
刑事警察局也呼籲民眾務必多留意周遭環境,降低有心人士特意架設攝影工具偷拍影像的風險,避免發生惡意流傳或檔案資料遭侵入、盜取等情事發生。另外若收到來源不明的照片、影片時,更不要轉傳,以免觸犯法律。
整理:施容亘/責任編輯:嘎兆