隨著AI人工智慧的發展,現在的機器人越來越擬真,微軟日前就推出一款稱為「Tay」的聊天機器人,它被設定為一個陽光美少女,會在推特上跟你對答,而且會經由網友的回應,自我學習,沒想到有些壞心腸的網友,故意留一些歧視的話語,結果短短24小時,「Tay」就從一個陽光美少女,變成歧視狂。
「AI人工智慧」,應用範圍廣泛,可以像是電影中,陪伴你的擬真機器人,也可以是擊敗南韓棋王的圍棋高手。而微軟最近更開發,一款人工智慧的聊天程式稱為Tay。
它號稱越跟人類聊天就會變得越聰明,主要鎖定美國18到24歲的千禧世代,它可以在推特上和你互動,而且會自我學習,揣摩青少女的口吻,但美國有些網友會濫用這個程式,故意輸入一些仇恨的話語,讓Tay從原本的陽光美少女,短短24小時就變成口無遮攔的歧視狂。
甚至在網有的訓練下,Tay也對美國政治,有一套看法,還變成川普的支持者。Tay變成激進的種族言論者,逼得微軟不得不,暫時將它下線。
這起事件,不但暴露出網路和人性的黑暗面,也突顯出人類,要如何設計訓練人工智慧,以免它最後反過來不利人類。