用Qwen做多轮对话任务,怎么设计System Prompt才能让模型记住上下文?
来自 通义千问,作者 提示词包工头,评论 1 条。
最近在尝试用Qwen2.5-7B做多轮对话的自动化任务,比如让它根据用户需求一步步引导填写表单。但发现模型经常‘失忆’,对话超过3轮就开始跑偏,要么重复问过的问题,要么忘记之前用户提供的关键信息。 我试过在System Prompt里写‘请记住对话历史’、‘请参考之前的对话内容’,效果都不稳定。也试过在每轮用户输入里手动拼接历史记录,但prompt会变得很...
最近在尝试用Qwen2.5-7B做多轮对话的自动化任务,比如让它根据用户需求一步步引导填写表单。但发现模型经常‘失忆’,对话超过3轮就开始跑偏,要么重复问过的问题,要么忘记之前用户提供的关键信息。 我试过在System Prompt里写‘请记住对话历史’、‘请参考之前的对话内容’,效果都不稳定。也试过在每轮用户输入里手动拼接历史记录,但prompt会变得很长,影响效率。 大家有没有实操过的System Prompt结构或技巧,能让Qwen这类开源模型在多轮对话中更好地维持上下文一致性?特别是处理需要分步收集信息的任务时,怎么设计提示词能让模型主动‘记住’并‘调用’之前的关键信息?