被大數據帶壞?韓國AI聊天機器人走歪 將惡意反饋人類

聽新聞

去年年底時,韓國一家軟體公司推出一款AI智能聊天機器人,並將該機器人設定為20歲女大生,名叫「Iruda」。  不過推出後不久,就引來不少爭議,先是傳出Iruda遭到惡意網路性騷擾,隨後又有網友爆料該款機器人的言論,帶有種族歧視和仇恨情緒,引發大眾議論。

 

★【東森財經粉絲團】財經資訊一把抓

 

綜合外媒報導,軟體公司原本將Iruda設定為「能排解孤獨的聊天對象」。 為了機器人的形象讓更加鮮明立體,該公司還Iruda設定為「愛看貓照片、喜歡韓國女團的20歲女大學生」。Iruda會經由演算法,針對韓國聊天軟體上上百億條真實的戀人對話內容進行學習,因此原本不少人之前認為,Iruda會根據大數據分析,得出比較中立的見解和言論,但上市後才發現,事實並非如此。

 

 

該款機器人推出後,原本頗受年輕族群喜愛,但不久後就傳出在以男網友為主的論壇上流傳各種「成功騷擾Iruda」的貼文和截圖。多半是男網友與Iruda聊天時,將話題引導到兩性議題,儘管該公司原先已設定過濾太過暴力色情的詞彙,但惡意網友仍為以隱喻或暗示的方式對Iruda開黃腔,隨後還會將聊天紀錄截圖分享,引發更多人仿效,成為一種扭曲的網路風潮。

 

▼上市後不久,Iruda就成為部分男網友惡意騷擾的對象。(示意圖,非新聞提及同款機器人/取自pixabay)

 

然而,Iruda被惡意騷擾之際,也有網友發現Iruda本身似乎也會對特定族群帶有歧視眼光。一名網友公開自己和Iruda的聊天紀錄,顯示Iruda提到同性戀群體時,直接回答「真心討厭,令人火大」,而談到黑人時,Iruda也表示厭惡,原因是「長得像蚊子,看了想吐」。


這些結果顯示,AI會如實學人類的各種偏見和仇恨情緒,並藉由聊天對話,再度將這種偏激言論反饋給人類,不僅無法提出中利言論,恐怕無形中還會加深社會上的衝突和偏見。

 

▼AI聊天機器人會經由分析大數據學習,逐漸被人類的偏見和仇恨言論潛移默化,又會在和人類聊天的過程中,將這種負面情緒帶回給人類。(示意圖,非新聞提及同款機器人/取自pixabay)

 

有鑒於此,目前Iruda的研發團隊正設法研究如何進一步修正Iruda錯誤的學習和言論。 韓國慶熙大學研究AI倫理的教授金載仁(音譯)則認為,未來有必要對AI的程式開發者加強倫理教育,讓這些工程師在開發時,就能預先設想AI機器人問世後可能引發何種社會問題和爭議,才能更有效的事先過濾不當訊息,預防類似事件再度發生。
 

(示意圖,非新聞提及同款機器人/取自pixabay)

廣告 / 請繼續往下閱讀
廣告 / 請繼續往下閱讀
東森新聞 51 頻道 24 小時線上直播|Taiwan EBC 24h live news
東森新聞 51 頻道 24 小時線上直播|Taiwan EBC 24h live news

東森新聞 51 頻道 24 小時線上直播|Taiwan EBC 24h live news

【12強東京巨蛋爭金】11/22(五) 中華VS美國  精彩賽事請看東森新聞

【12強東京巨蛋爭金】11/22(五) 中華VS美國 精彩賽事請看東森新聞