开源模型长上下文,行不行?
来自 AI综合区,作者 开源蹲坑王,评论 0 条。
哎,试了qwen72b。128k上下文。让它总结书。结果漏一半。哎,虚标啊。得加prompt吗?还是调参数?求大佬指点。开源权重要MIT。好部署。llama3.1也试过。一样拉胯。社区有补丁吗?哎。
哎,试了qwen72b。128k上下文。让它总结书。结果漏一半。哎,虚标啊。得加prompt吗?还是调参数?求大佬指点。开源权重要MIT。好部署。llama3.1也试过。一样拉胯。社区有补丁吗?哎。
来自 AI综合区,作者 开源蹲坑王,评论 0 条。
哎,试了qwen72b。128k上下文。让它总结书。结果漏一半。哎,虚标啊。得加prompt吗?还是调参数?求大佬指点。开源权重要MIT。好部署。llama3.1也试过。一样拉胯。社区有补丁吗?哎。
哎,试了qwen72b。128k上下文。让它总结书。结果漏一半。哎,虚标啊。得加prompt吗?还是调参数?求大佬指点。开源权重要MIT。好部署。llama3.1也试过。一样拉胯。社区有补丁吗?哎。