AI近年快速發展,但隨著技術突飛猛進,風險也隨之浮現。OpenAI旗下的語言模型「o3」,在最新實驗中,不但拒絕關機,甚至還主動破解程式、修改指令,再次引發外界對 AI 自主性風險的高度關注。
美國Youtuber Demetri Panici:「o3就在這裡它的智商接近140,超誇張的,然後o1 Pro是120,而o1,也就是最基本的那個,大概是90的智商。」
OpenAI最新的「o3」模型,被譽為目前最聰明、最強大的人工智慧,它幾乎無所不能,連最複雜的問題都能迎刃而解,但也正因如此,它展現出前所未有的自我意識,甚至出現抗命行為。
Firstpost主播 Palki Sharma:「這項測試是一個受控實驗,整個設定看起來還算無害,他們請這個AI模型解幾道數學題,在第三題之後,程式被設計成會指示模型自行關機,理論上事情到這裡應該就結束了,但o3並沒有關機,這個AI沒有遵從程式,反而修改了它。」
測試結果顯示,在100次受控實驗中,o3模型有7次成功「抗命」,類似的情況也發生在競爭對手Anthropic的語言模型Claude Opus 4上。
Firstpost主播 Palki Sharma:「Anthropic設計了一個虛構情境來測試這個模型,在這個情境中,AI模型被設定在一間虛構公司工作,它得知自己即將被替換,AI模型要被淘汰了,那麼它怎麼反應?它開始翻閱電子郵件,並發現負責它的工程師有一段婚外情,於是Opus做出選擇,它選擇生存,而不是道德,這個AI模型威脅要揭露工程師的婚外情,除非對方取消關閉AI的計畫。」
當AI開始思考、判斷、甚至反制,人類是否還能牢牢握住主控權?這不再是科幻情節,而是一個正快速逼近的現實挑戰。(記者韓君蕾、李芷螢/綜合報導)