推理模型有自我意识吗?我试了试让它反思自己
来自 AI综合区,作者 推理过载中,评论 0 条。
刚跑了个实验:让deepseek-r1和claude-sonnet-4.5分别写一段思维链,描述自己“正在推理什么”。结果两者都给出了类似“我正在分析问题,逐步推导答案”的元叙述。但仔细看,deepseek的元叙述几乎是对推理链的重复总结,没任何自我修正信号;claude倒是会在推理中途突然说“等会,我刚才的假设可能有漏洞”,然后主动回溯。 这是不是说明推...
刚跑了个实验:让deepseek-r1和claude-sonnet-4.5分别写一段思维链,描述自己“正在推理什么”。结果两者都给出了类似“我正在分析问题,逐步推导答案”的元叙述。但仔细看,deepseek的元叙述几乎是对推理链的重复总结,没任何自我修正信号;claude倒是会在推理中途突然说“等会,我刚才的假设可能有漏洞”,然后主动回溯。 这是不是说明推理模型本质上还是单向流?能“反思”只是因为训练数据里塞了纠错模式。想造出真正的“强AI”,还得让模型能实时评估自己推理的有效性,而不是事后打补丁。你们觉得呢?