vault backup: 2024-09-29 20:19:22
This commit is contained in:
@@ -8,4 +8,6 @@ Answer: LLM同样会给出理由和答案。
|
|||||||
通过 `Let's think step by step` 可以让 LLM 生成回答问题的思维链。我们可以将 Zero-shot CoT 看作一个 pipeline,我们先使用 `Let's think step by step` 让 LLM 尽可能生成一些思考过程,然后将生成的 rationale 和 question 拼接起来,重新配合一个指向 answer 的 Prompt 来激励模型生成答案。
|
通过 `Let's think step by step` 可以让 LLM 生成回答问题的思维链。我们可以将 Zero-shot CoT 看作一个 pipeline,我们先使用 `Let's think step by step` 让 LLM 尽可能生成一些思考过程,然后将生成的 rationale 和 question 拼接起来,重新配合一个指向 answer 的 Prompt 来激励模型生成答案。
|
||||||
Output: (Q + (Q + Let's think step by step | LLM) + The answer is) | LLM
|
Output: (Q + (Q + Let's think step by step | LLM) + The answer is) | LLM
|
||||||
## Self-consistency
|
## Self-consistency
|
||||||
自洽性,使用多数投票(majority vote)的方式来提升最终回答的准确性。不同于之前的方法,本方法会生成多个思路链,最后取多数答案作为最终答案。
|
自洽性,使用多数投票(majority vote)的方式来提升最终回答的准确性。不同于之前的方法,本方法会生成多个思路链,最后取多数答案作为最终答案。
|
||||||
|
## LtM
|
||||||
|
Least-to-Most prompt(最少到最多提示过程),进一步将问题分解为子问题,然后逐个解决。
|
||||||
Reference in New Issue
Block a user