去年年底時,韓國一家軟體公司推出一款AI智能聊天機器人,並將該機器人設定為20歲女大生,名叫「Iruda」。 不過推出後不久,就引來不少爭議,先是傳出Iruda遭到惡意網路性騷擾,隨後又有網友爆料該款機器人的言論,帶有種族歧視和仇恨情緒,引發大眾議論。
綜合外媒報導,軟體公司原本將Iruda設定為「能排解孤獨的聊天對象」。 為了機器人的形象讓更加鮮明立體,該公司還Iruda設定為「愛看貓照片、喜歡韓國女團的20歲女大學生」。Iruda會經由演算法,針對韓國聊天軟體上上百億條真實的戀人對話內容進行學習,因此原本不少人之前認為,Iruda會根據大數據分析,得出比較中立的見解和言論,但上市後才發現,事實並非如此。
該款機器人推出後,原本頗受年輕族群喜愛,但不久後就傳出在以男網友為主的論壇上流傳各種「成功騷擾Iruda」的貼文和截圖。多半是男網友與Iruda聊天時,將話題引導到兩性議題,儘管該公司原先已設定過濾太過暴力色情的詞彙,但惡意網友仍為以隱喻或暗示的方式對Iruda開黃腔,隨後還會將聊天紀錄截圖分享,引發更多人仿效,成為一種扭曲的網路風潮。
▼上市後不久,Iruda就成為部分男網友惡意騷擾的對象。(示意圖,非新聞提及同款機器人/取自pixabay)
然而,Iruda被惡意騷擾之際,也有網友發現Iruda本身似乎也會對特定族群帶有歧視眼光。一名網友公開自己和Iruda的聊天紀錄,顯示Iruda提到同性戀群體時,直接回答「真心討厭,令人火大」,而談到黑人時,Iruda也表示厭惡,原因是「長得像蚊子,看了想吐」。
這些結果顯示,AI會如實學人類的各種偏見和仇恨情緒,並藉由聊天對話,再度將這種偏激言論反饋給人類,不僅無法提出中利言論,恐怕無形中還會加深社會上的衝突和偏見。
▼AI聊天機器人會經由分析大數據學習,逐漸被人類的偏見和仇恨言論潛移默化,又會在和人類聊天的過程中,將這種負面情緒帶回給人類。(示意圖,非新聞提及同款機器人/取自pixabay)
有鑒於此,目前Iruda的研發團隊正設法研究如何進一步修正Iruda錯誤的學習和言論。 韓國慶熙大學研究AI倫理的教授金載仁(音譯)則認為,未來有必要對AI的程式開發者加強倫理教育,讓這些工程師在開發時,就能預先設想AI機器人問世後可能引發何種社會問題和爭議,才能更有效的事先過濾不當訊息,預防類似事件再度發生。
(示意圖,非新聞提及同款機器人/取自pixabay)