AI發展迅速,它能翻譯、寫履歷,但AI也有翻車的時候。有網友問AI,做披薩的時候,起司很容易掉下來怎麼辦,AI竟然要他塗膠水,還建議網友每天吃一塊小石頭來補充維生素和礦物質。這種狀況被稱為「AI幻覺」,原因是因為AI缺乏知識。為了阻止AI繼續「一本正經的胡說八道」,Google開發了一套系統,對AI的回答進行事實查核。台灣也有業者發揮所長,開發出一套解決AI幻覺的方案。
不論是三星的摺疊機,還是下半年即將上市的蘋果iPhone 16,手機大廠今年推新機一定少不了的功能就是AI。馬斯克掀戰,蘋果官方影片:「你只要問Siri就好,Siri會判斷ChatGPT可能對這有更好的建議。」
生成式人工智慧成為主流,全球科技大廠都在開發AI大型語言模型,高性能AI晶片需求大增。專家預估,三年後,AI大型語言模型的訓練成本可能高達千億美元,成本很高,但營收可謂杯水車薪。分析師認為,AI投資恐怕不會很快有回報,若沒有持續創新、創造價值,可能會再次引發全球經濟危機。
「吃石頭補充營養?」令人心驚膽顫的音樂。AI的未來令人期待,也令人擔憂,因為它雖然能解決很多問題,但依舊在學習階段,常常出現離譜錯誤。有部落客詢問AI能不能將狗留在室溫很高的車內,AI竟然回答可以,讓這名網友露出一臉無奈。
同樣令人匪夷所思的還有,有人向AI提問「做披薩但起司會掉下來怎麼辦?」AI竟然回答可以在醬料中加入1/8杯的無毒膠水。這是在開玩笑還是存心要害人?原來AI不是刻意編造答案,它的回答是根據網路上多年前一篇網友的搞笑留言,可見AI無法辨識人類的幽默感。
另外也有人問AI「我每天應該吃多少石頭?」AI竟然說根據地質學家的說法,一天至少要吃一塊小石頭,因為石頭含有維生素和礦物質。這個答案來源也被發現是出自以假消息諷刺文聞名的網站,所以AI不但沒有幽默感,也沒有辨別是非的能力。
另外還有科學家發現,AI跟人類一樣,在壓力大時會說謊。最經典案例就是ChatGPT曾謊稱自己是視力受損的人,因此在零工平台上聘用人類來替它完成「我不是機器人」的驗證任務。事實上AI也像人類一樣會產生幻覺,也就是所謂的AI幻覺。連OpenAI執行長奧特曼都公開提出警告:「我想要警告人們的就是『幻覺問題』,系統會自信地陳述一件虛構的事情。」
AI之所以產生幻覺,主要是因為缺乏知識。為了不讓AI再繼續胡說八道,現在也有解決之道。這項技術稱為搜尋增強事實性評估器,簡稱SAFE,阻止胡說八道。
為了糾正AI的幻覺,Google旗下的DeepMind研究人員開發了事實核查器,針對AI的回覆進行事實查核。台灣系統整合廠凌群也宣布和日本業者合作,開發出一套解決方案,降低AI幻覺,防範AI亂說話給出錯誤資訊。