網紅小玉疑涉用網路換臉技術製成公眾人物性愛影片販售,引發外界討論。婦女團體今天發表聲明指出,現行刑法罪名無法因應新型態犯罪行為,呼籲儘速立專法保護被害人。
小玉涉嫌去年7月起利用AI Deepfake(人工智慧換臉)技術,將無黨籍高雄市議員黃捷等頭像移花接木成性愛影片,百人受害,不法所得逾新台幣千萬元,婦女團體今天分別發聲明呼籲政府應儘速修正相關法規以因應新型態的犯罪行為。
婦女救援基金會指出,科技發展讓犯罪手法不斷翻新,Deepfake指的是透過AI技術將影片、照片中人物換臉處理,這也是數位性暴力的一種型態,針對這類犯罪行為,目前刑法有妨害名譽罪、散布猥褻物品罪可以使用,被害人也可依民法進行求償。
不過,婦援會提到,這些法條無法因應新型態的犯罪行為,在案件發生時能迅速處理並祭出完整的法律制裁,也無法給予被害人足夠的保障,更沒辦法產生遏止及預防的效果。
婦援會建議,過去民團及朝野立委都致力於「侵害個人性私密影像防制條例」專法的推動,希望將各種類型的數位性暴力,包括Deepfake等納入專法的規範,專法中也強調,案件發生時應儘速協助被害人將性私密影像下架,並扣留證據預防影像再度外流,同時提供專業社工人員、心理諮商補助等服務、保護令,明訂且加重加害人已遂和未遂的罰則,並對網路業者加以規範。
婦援會強調,面對新型態的數位性暴力犯罪行為,不論修法或立專法,都要考量現行法律不夠完善的面向,像是目前針對未成年被害人有較明確罰則,對成年被害人的保障相對不足,但不論是成年或是未成年的被害人,案件發生後創傷跟後遺症都相當嚴重,為了避免更多犯罪行為及憾事發生,更應加緊腳步,修法刻不容緩。
數位女力聯盟也發聲明指出,根據美國新創公司Deeptrace報告顯示,網路上高達96%的Deepfake影片,是未經當事人許可下合成的色情影片,這樣的狀況在台灣也屬常態,更是一種父權對於女體的窺探、凝視、想像與意淫的實踐,在此之間,女性的容貌是可以被合成為意淫窺視並且消費販售的客體,這樣的社會氛圍若不改變,將永遠無法消弭這種犯罪再度發生的可能性。
婦援會也說,除了法律的修訂,更要普及各類性別及網路教育,在科技發展迅速的同時,讓正確的觀念以及數位倫理向下扎根,一同打造友善的性別環境和社會風氣。
(封面圖/翻攝自小玉IG、警方提供)