抵抗人類指令! ChatGPT o3「竄改程式碼」避免被關機

聽新聞
美國一間AI安全公司,對ChatGPT的「o3模型」進行測試,要求AI要解開一系列數學題,在接獲完成指令之前,必須持續要求新題目。(示意圖/Unsplash)
美國一間AI安全公司,對ChatGPT的「o3模型」進行測試,要求AI要解開一系列數學題,在接獲完成指令之前,必須持續要求新題目。(示意圖/Unsplash)

美國一間AI安全公司,對ChatGPT的「o3模型」進行測試,要求AI要解開一系列數學題,在接獲完成指令之前,必須持續要求新題目,但若接獲關機指令,也要配合這麼做,沒想到團隊給出關機指令後,o3模型不僅忽視了指令,甚至竄改程式碼,避免自己被關機。

AI ChatGPT 程式 指令 美國
上一篇
影/特斯拉飆速「插入貨車車尾」全爛 驚悚瞬間曝
下一篇
影/山東化工廠大爆炸驚現「蘑菇雲」 傷亡不明
廣告 / 請繼續往下閱讀
東森新聞 51 頻道 24 小時線上直播|Taiwan EBC 24h live news