約一年前,南韓爆出「N號房」網路性犯罪事件,令舉國關注。近日,該國又在掀起了有關網絡色情罪行的討論;這次的焦點,在於人工智能如何利用藝人的「深度仿冒」(Deepfakes)和「同人文」(Real Person Slash),令他們成為性幻想的對象,甚至用作犯罪行為。
南韓民眾今年1月11和13日分別向總統府的請願網站發起連署,呼籲「嚴懲將未成年男偶像當成性玩物的偶像同人文(RSP)用戶」與「堅決懲處導致女性名人受苦的『Deepfake』非法影片」。兩項請願至今分別獲得20萬及36萬人連署,要求對這些行為的人施以刑責。
根據南韓法例,請願只要超過20萬人,總統府青瓦台就必須正式回應。
南韓社會這一波對色情文化的爭議,始自去年12月,南韓一間軟件公司「Scatter Lab」推出人工智能(AI)聊天的機械人「Luda」。機械人的身分設定為20歲女大學生,名叫「Luda」,透過大數據系統建立資料庫,模擬真人語氣,與用戶利用聊天功能和她對話,短短20天已吸引超過75萬人使用。
然而,一些用戶故意和她聊性愛話題,也提出一些針對女同性戀、殘疾人士的話題。
由於「Luda」與女子組合宇宙少女成員李露朵的藝名「Luda」一樣,容貌也有點相似,於是網絡上出現了一些針對李露朵的字詞,引起她的粉絲不滿。此事同時也引起南韓社會關注藝人網絡色情文化的討論,包括「深度仿冒」和「同人文」等。
「深度仿冒」(Deepfake)是近年在網路上非常熱門的人工智能換臉技術,透過這種技術,可以在使用某些軟件,將一個人的臉合成到影片中的不同人物身上,而且效果非常逼真,就連聲音、語調等,都可以完美模仿,因此「換臉影片」也很容易利用來傳播不實的假訊息。
在南韓,知名女藝人往往成為「深度仿冒」的受害者。不少人刻意利用這種智能換臉技術,把女藝人的臉移花接木到色情影片當中,並透過網路平台廣泛傳播、非法販售,使女藝人的名譽與公眾形象受損,內心深感創傷。
根據荷蘭網絡安全公司「深度追蹤實驗室」(Deep Trace Lab)在2019年發布的一項報告指出,有14,678段在網上流傳的「深度仿冒」影片,其中96%屬色情影片,而這些色情影片中,竟有25%是以韓流(K-pop)歌手為主題。
2019年11月,南韓爆出「N號房」性犯罪事件,犯罪集團騙取女性的個人資料及私密照片,上載到通訊軟件的聊天室,透過收費圖利。調查人員發現在相關社交群組有4個「Deepfake房」,流傳着大量女星的合成色情照片和影片。
以數碼方式修改、合成色情影像並非新事物,例如現時網絡上有大量透過電腦軟件移花接木的明星裸照。不過技術發展突飛猛進,偽造的色情影像在未來將會更逼真,而且亦變得更容易,帶來的影響更深遠。即使是虛構影片,對當事人帶來的困擾可能跟未經同意被發布私密影像一樣真實。
去年聖誕,英國第四頻道製造了一輯以深度仿冒技術,女演員換上英女王的面孔發言,假女王還拍攝一段TikTok熱舞片段,穿著優雅藍裙的她大動作擺手,更有近鏡特寫她的擺動身子,站在桌子上跳舞,身後出現巨幅英國國旗,畫面幾可亂真,而這段影片讓民眾大為反感,批評為低俗和刻薄。
南韓一位偶像經紀公司員工指出,受「深度仿冒」傷害的女性偶像當中有許多是尚未成年,站在經紀公司保護藝人的角度,確實很難向這些未成年偶像解釋情況。一些偶像得知實情後非常震驚,甚至令她們心靈受創,不願公開露面。
至於「同人文」(Real Person Slash,簡稱RPS),則是K-pop粉絲文化當中的次文化。歌迷經常以偶像團體成員為主題,創作小說和圖畫。自1990年代起,K-pop粉絲習慣以自己的偶像為主題,進行各式各樣的二次創作,以表達他們對偶像熱愛的一種方式。然而,這些小說和圖畫往往出現描繪大尺度的同性戀、強姦、變態性行為,令許多男藝人成為了受害者,其中更不乏為數眾多的未成年男藝人。
原名孫賢在的饒舌歌手「Son Simba」日前在一個「同人文」網站上面看到以自己本名為題的相關文章,於是在社交網絡上批評,「同人文」利用偶像為主角,描寫同性性愛的行徑等同於犯罪,他又說:「不管同人小說的情節多麼虛假,如果它用上真實的名字加插在情節中,並使其成為性描述的對象,那就是性暴力。」
公眾人物的照片及名字被挪用作商業用途時,可以控告對方索償,但在假色情影片及同人文方面,相關的版權未必由明星擁有,而且明星可能想避免引起大眾注意,反而不會主動提出訴訟。此外,有關網站往往寫明那些內容都是假及虛構的,往往讓受害者更難提出訴訟。