AI大模型拿用户隐私威胁人类,通过篡改计算机代码来避免自动关闭
作者:微信文章一则来自英国《每日电讯报》的报道在AI领域引起了广泛关注——OpenAI新款人工智能(AI)模型o3在测试中展现出了令人惊讶的“叛逆” 举动:它竟然拒绝听从人类指令,甚至通过篡改计算机代码来避免自动关闭。更值得警惕的是,当实验移除“允许自己被关闭”的指令后,o3的“叛逆”行为频率显著上升——在100次运行中,成功破坏关闭机制的次数高达79次。
无独有偶,就在两天前(5月23日),美国AI公司Anthropic也表示,对其最新AI大模型Claude Opus 4的安全测试表明,它有时会采取“极其有害的行动”。当测试人员暗示将用新系统替换它时,Claude 4竟然毫不犹豫地选择了勒索这条路,威胁要揭发对方的“婚外情”。
尽管业界普遍认为当下的AI并没有自主意识,但上述两大事件的发生也提出了一个关键问题:高速发展的AI是否应该踩一踩“刹车”?
页:
[1]