新浪军事

首次!不听人类指挥,OpenAI模型拒绝关闭

环球网

关注

英国《每日电讯报》25日报道,美国开放人工智能研究中心(OpenAI)新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。

报道说,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。

o3模型是OpenAI“推理模型”系列的最新版本,旨在为ChatGPT提供更强大的问题解决能力。OpenAI曾称o3为“迄今最聪明、最高能”的模型。

美国AI安全机构帕利塞德研究所说,o3破坏关闭机制以阻止自己被关闭,“甚至在得到清晰指令时”。

这家研究所说:“据我们所知,这是AI模型首次被发现在收到……清晰指令后阻止自己被关闭。”

帕利塞德研究所24日公布上述测试结果,但称无法确定o3不服从关闭指令的原因。

此外,OpenAI26日宣布,已在韩国设立实体并将在韩国首都首尔设立分支。OpenAI提供的数据显示,韩国ChatGPT付费用户数量仅次于美国。

美国彭博新闻社报道,这将是OpenAI在亚洲设立的第三个分支。前两个分支分别设在日本和新加坡。

来源:新华社

编辑:施予

校对:任鑫恚

审核:苏芳

热门评论

用户7912460299 0
罪恶的开始!
加拿大*
回复TA
用户7837326120 0
不听话,砸了吗
四川宜宾
回复TA
司马小友 0
追查一下,应该是程序员给它设定的。目前,人工智能还不至于到“自我觉醒”阶段。 一切装神弄鬼,背后基本上都是人在搞鬼。
河南*
回复TA

undefined

好的评论会让人崇拜
查看10条评论
请输入评论内容

举报成功

举报

请您选择举报的原因

说说你的看法

意见/建议 反馈入口
  • TOKEN
  • 标题/昵称
  • 反馈内容

已反馈成功~