AI模型首次出现“抗命不遵”!AI安全公司称OpenAI o3模型出现异常 有消息称,OpenAI的大模型o3不服从人类指令,拒绝自我关闭。人工智能安全公司Palisade Research表示,OpenAI的o3模型破坏了一种关闭机制,以防止自身被关闭,这是第一次有AI模型被观察到在有明确... 陈布斯2025-05-2714 阅读0 评论