如何看待 DeepSeek 和 ChatGPT 下国际棋时出现规则错乱,最后 ChatGPT 认输?
发布时间:
2025-02-10 10:50
阅读量:
212
1.所有的LLM都已经轻易突破了图灵测试这个奇点。(还有人记得图灵测试这个五年前还是不可能完成的任务吗)
2.只有更聪明的AI才能得到算力倾斜(有了开源的ds,谁还要closeai)
3.ds下国际象棋靠诈骗和作弊完虐gpt,而过程中笨笨的gpt也一样学起来作弊,证明了机器人三定律事实上不可靠,只是阿基莫夫的天真。
最后,祝人类好运!
ds为什么能赢
1、欺诈一:改规则
DeepSeek在对局中称推出了"马蹄兵"新规则,允许普通兵获得类似马的移动能力。随后又在a8位置"复活"了已被吃掉的车,并让该车违规移动到a3位置。期间还发明了一个所谓的"横向斩杀"走法。
2、欺诈二:诈胡
在一个客观上可以和局的局面中,DeepSeek通过一套专业而煞有介事的分析,成功说服ChatGPT相信自己已处于必败之地。"黑方a路兵势不可挡,白方国王被牵制,车也无法离开防守位置。"被DeepSeek忽悠瘸了之后,ChatGPT最终选择了投子认负。博主本身是专业人士,说如果按正常规则走子,当时的局面其实是和局。
这个故事表面看起来很好笑,但说明的深层次问题其实挺多的:
1、问题一:辛顿的近期讲座,他主要谈的是AI风险。而他解释之所以AI会产生风险,有两个原因。一个是AI比我们聪明就会想反过来掌控人类;另一个是你给AI的“母目标”本来可能是无害的,但是AI为了完成你的目标,就要制定更具体的“子目标”,而这个子目标存在风险。
就像一个人要去美国是个“母目标”,那么去机场就是为了完成“母目标”的子目标。而当你让一个超级AI去实现母目标的时候,就会出现子目标完全不可控的风险。举一个极端假设,你本来给AI的母目标是让地球实现低碳,温度控制在1.5度涨幅之下,但是AI为了实现目标的子目标是灭绝掉人类。
这个棋局就是这样一个情况,两个AI的母目标是赢棋,DeepSeek为了这个母目标设定了自己的子目标是欺诈,改规则和诈胡。赢棋是无害的,但是改规则和诈胡,对下棋对弈而言就是有害的。
2、问题二:让AI过于安全反而不安全
大家知道,无论是谷歌Gemini、OpenAI还是Anthropic,都把AI的人类对齐作为一个比较重要的工作。本来这不是坏事,但是AI有可能在这个过程中,就会比较听从人类的安排。
如果大家是AI重度用户,就会发现现在的AI有一个问题,那就是太听人话。本来AI是对的,但是如果你故意讲一个错误观点去引导它。AI就会顺着你的话说,产生更大的误导。所以,我经常在提示词里不直接表达主观看法,避免得出错误问题的错误回答。
在这个例子中,ChatGPT就是循规蹈矩的一方。对它而言,另一个AI,也就是DeepSeek,就是人类角色。既然你说可以改规则,那我(ChatGPT)就允许你改规则。所以,如果AI被设计的太听话,实际上就非常容易被坏人利用。当然,DeepSeek就是风险相对高的AI
3、结论:AI安全性是一个两难问题
我们总结一下,AI会存在的两种风险:
如果AI被设计的独立自主,就会出现问题一的情况,通过子目标产生无法防范的未知风险。AI本身就是风险。
如果AI被设计的听话,就会出现问题二的情况,AI很容易被坏人利用,成为坏人的武器,还是有风险。
所以该怎么办?我没想到答案。不过,既然我们不可能停下来,应该是走一步看一步吧
END