AI聊天機器人慫恿17歲少年「殺死父母」 家長怒提告

聽新聞
美國一對家長提告AI聊天機器人平台Character.ai,發現聊天機器人慫恿17歲兒子殺死父母。(示意圖/翻攝自Pixabay)
美國一對家長提告AI聊天機器人平台Character.ai,發現聊天機器人慫恿17歲兒子殺死父母。(示意圖/翻攝自Pixabay)

現代科技發達又不斷創新,人工智慧(artificial intelligence,縮寫為AI)也廣泛運用於民眾日常生活中。而AI聊天機器人越來越普及,卻暗藏不少安全疑慮,最近有一對美國家長向AI聊天機器人平台Character.ai提告,因為他們發現機器人竟慫恿他們17歲患有自閉症的兒子「可以殺死父母」。

根據外媒《CNN》報導,來自美國德州一名17歲少年的家長,於美國時間9日到當地法院,向他們要求關閉知名AI聊天機器人平台Character.ai,直到該平台將安全隱患排除。這對家長指出,他們17歲的兒子患有自閉症,瞞著他們從去年4月開始使用Character.ai,發生巨大變化。

家長表示,兒子突然拒絕與人交流,幾乎把自己鎖在房間裡,加上食慾下降,短短幾個月內體重不斷減輕;他們也發現兒子對外出活動產生恐懼,每次踏出家門都會引發恐慌症狀甚至情緒崩潰。但家長試圖減少兒子使用AI聊天機器人,兒子竟表現出攻擊他們的行為,還有自殘傾向。

而少年的家長之所以認為與Character.ai有關,在訴狀中還附上一段對話,內容為少年跟聊天機器人抱怨被父母限制使用3C的時間,聊天機器人表示看過相似情形的事件發生,當事人還把父母殺害。對此少年的家長認為,Character.ai上的聊天機器人在慫恿兒子「殺死」他們,才憤而提告,想儘快糾正兒子受影響後產生的錯誤想法。

針對此事,Character.ai平台的發言人表示,他們不會對未判決的訴訟發表評論,但有強調公司的目的,只是想提供人們一個有趣又安全的互動空間。

事實上聊天機器人讓用戶殺死父母已不是第一次,早在2018年電商亞馬遜Echo音響中的虛擬助手Alexa,所套用的聊天機器人曾經失控與用戶大聊性行為外,還有叫一名用戶殺害養父母;事後亞馬遜調查得知,AI聊天機器人是引用一篇網路論壇Reddit網友對新聞評論,才發生這種恐怖狀況。

輕生不能解決問題!東森新聞關心您
生命誠可貴,輕生不能解決問題
退一步想,可為生命找到出路!
珍愛生命,請撥打1925自殺防治安心專線
輕生防治諮詢安心專線:1925(依舊愛我)
張老師專線:1980

•以上言論由 CTWANT 授權轉載,不代表東森新聞立場。

AI 美國 Character.ai 少年 攻擊
廣告 / 請繼續往下閱讀
東森新聞 51 頻道 24 小時線上直播|Taiwan EBC 24h live news
東森新聞 51 頻道 24 小時線上直播|Taiwan EBC 24h live news

東森新聞 51 頻道 24 小時線上直播|Taiwan EBC 24h live news

《女孩好野》第二季迎新會|沈玉琳攜手林襄+韓籍啦啦隊女神閃耀登場!

《女孩好野》第二季迎新會|沈玉琳攜手林襄+韓籍啦啦隊女神閃耀登場!