vault backup: 2024-09-29 20:19:22

This commit is contained in:
RainBus
2024-09-29 20:19:22 +08:00
parent a8663a6f6d
commit 28903041ae

View File

@@ -8,4 +8,6 @@ Answer: LLM同样会给出理由和答案。
通过 `Let's think step by step` 可以让 LLM 生成回答问题的思维链。我们可以将 Zero-shot CoT 看作一个 pipeline我们先使用 `Let's think step by step` 让 LLM 尽可能生成一些思考过程,然后将生成的 rationale 和 question 拼接起来,重新配合一个指向 answer 的 Prompt 来激励模型生成答案。 通过 `Let's think step by step` 可以让 LLM 生成回答问题的思维链。我们可以将 Zero-shot CoT 看作一个 pipeline我们先使用 `Let's think step by step` 让 LLM 尽可能生成一些思考过程,然后将生成的 rationale 和 question 拼接起来,重新配合一个指向 answer 的 Prompt 来激励模型生成答案。
Output: (Q + (Q + Let's think step by step LLM) + The answer is) | LLM Output: (Q + (Q + Let's think step by step LLM) + The answer is) | LLM
## Self-consistency ## Self-consistency
自洽性,使用多数投票(majority vote)的方式来提升最终回答的准确性。不同于之前的方法,本方法会生成多个思路链,最后取多数答案作为最终答案。 自洽性,使用多数投票(majority vote)的方式来提升最终回答的准确性。不同于之前的方法,本方法会生成多个思路链,最后取多数答案作为最终答案。
## LtM
Least-to-Most prompt(最少到最多提示过程),进一步将问题分解为子问题,然后逐个解决。