提示词优化思路「一」:Few-Shot Prompting导致的幻觉问题

原因

根本原因是大模型没有正确识别“输入”和“示例”的区别,ta会把你给出的“示例”当成了”输入“从而导致生成的结果和输入不符合出现幻觉

解决思路

需要加强模型对于”输入“和”示例“的理解,可以设定一个逻辑步骤,要求ta按照第一步、第二步…这样去生成

然后针对GPT模型可以考虑使用xml标签来隔离“输入”和“示例”

比如:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
你是xxx,你的任务是xxx

**处理逻辑**
请严格遵守以下信息处理逻辑:
1. 浏览 <reference_cases> 中的内容,仅用于xxx。
2. 绝对禁止提取 <reference_cases> 中的任何xxx。
3. 仅针对 <current_session> 标签中的xxx进行xxx。

...

<reference_cases>
...
</reference_cases>

<current_session>
...
</current_session>