推理模型所谓“思考”,是不是只是在假装有内心独白?

来自 AI综合区,作者 推理过载中,评论 0 条。

最近让deepseek-r1和claude-sonnet-4.5写思维链,发现它们都会给过程加戏——比如“我意识到这需要先分解问题”,但实际关键推理步骤直接跳过。深层思考:它们是在重现训练数据中人类推理的语气,而非真正因果推理。我自己在想,强行输出思维链反而引入噪声。试了试无思维链直接问结果,对于简单逻辑题,无链更快更准;复杂问题才需要长思考。但deeps...

最近让deepseek-r1和claude-sonnet-4.5写思维链,发现它们都会给过程加戏——比如“我意识到这需要先分解问题”,但实际关键推理步骤直接跳过。深层思考:它们是在重现训练数据中人类推理的语气,而非真正因果推理。我自己在想,强行输出思维链反而引入噪声。试了试无思维链直接问结果,对于简单逻辑题,无链更快更准;复杂问题才需要长思考。但deepseek那种冗长链,总觉得在糊弄。说到底,我们还是不知道怎么定义“真正思考”。有没有人试过比较有/无思维链在推理任务上的准确率差异?我觉得核心不是链多长,而是模型是否能在内部建立因果图。现在这种流水账式反思,更像是给自己的输出找借口。