提示词工程浅析
  XPQuant 25天前 79 0

随着AI Agent的不断发展,提示词Prompt作为我们与Agent交互的为数不多的方法,越来越凸显其重要性。因此衍生了一个小学科:提示词工程。

提示词工程定义

提示词工程指通过精心设计和优化输入的提示词,来引导语言模型生成符合预期的输出。
由于大型语言模型对输入提示非常敏感,调整提示词的措辞、格式和内容,可以显著影响模型的响应。提示词工程的有效性依赖于大型语言模型的上下文学习(In-Context Learning, ICL)能力。上下文学习能力是指模型能够根据上下文中的信息,在不调整模型参数的情况下,理解并执行新的任务。也就是说,模型可以从提示中"学习"如何完成特定任务。通过精心设计提示词,我们可以引导模型利用其在预训练中学到的知识,完成特定的任务。这种能力主要来源于模型在海量数据上的预训练、Transformer架构的优势以及模型规模的扩大。因此,提示词工程成为了一种强大的工具,能够在不改变模型参数即不需要额外训练的情况下,实现对模型输出的有效控制和引导。

有效的提示词策略

提示词工程里常见且行之有效的策略包括以下几种:

(1) 零样本提示
所谓零样本提示,即只提供任务描述和输入文本,不附带任何示例。它是最简单的提示方法,想要提升模型表现,需保证指令直接明了,且避免使用含糊的词语。为保证模型准确理解需求,应当在提示中体现特定背景或细节信息,这有助于它把握问题要点并给出恰如其分的答复。关键字可以通过加粗或列表等形式突出,从而让模型更好地捕捉重要部分。当需要塑造大模型的说话方式,可尝试给它某种角色定位,例如令其以律师、医师或诗人的身份回答,输出的内容则将带有对应的专业氛围或情感色彩。不过,零样本提示也存在不足,如果任务相对复杂或不常见,模型可能难以正确理解意图。

(2) 少样本学习(Few-shot learning)
Few-shot 提示方法是近些年在自然语言处理中备受关注的技术之一,尤其在大型语言模型上成效显著。它的本质在于在提示部分提供少量的示例,让模型借此掌握任务规律,无须针对该任务进行深度训练就能生成期望的回复。由于当前的超大规模预训练模型具备丰富的语言理解与文本生成能力,少量示例即可有效指引它们完成指定任务。操作流程大概为:在提示中先说明要解决的任务,接着展示若干输入与输出的对应关系,使模型理解如何执行。当示例阐述完毕,再给出新的输入,期望模型仿照之前的示例推断输出。为取得好效果,示例应简洁明了、符合实际任务需求,并与待预测输入在格式上保持一致。示例的类型应覆盖尽可能多的变体和边界情况,以防模型过度偏向某一种输入类型。示例数量通常在1到5个之间,若超过范围过多,模型处理会越发吃力,且可能拉长输入长度。Few-shot 提示具备诸多优点:首先,它极大降低了对大量标注数据的依赖;其次,它充分利用了大型预训练模型积累的语言及常识储备;再者,这种方法不要求额外训练或微调模型,只需给定合适的提示环节即可,大大减轻了计算负担和时间成本;此外,只需改动示例或模板,同一模型就能适应多种任务,这也加强了灵活度。最后,由于无须在特定任务的数据上进行大规模训练,模型在新环境下的泛化能力也更强。

(3) 思维链提示(Chain of Thought, CoT)(PandaAI的Agent使用的技术)
大语言模型在经过海量训练后,往往已具备一定的推理能力。可是在处理那些需要充分思考才能得出结论的疑难问题时,引入思维链就显得至关重要。它类似于解决问题的引导路线,逐步带领模型分析、推理,最终抵达理想解答。思维链采取逐步拆解问题的方式,使模型从更深入的角度理解核心需求,而非只进行单步作答。
要有效运用这种技巧,不仅需要让模型明确问题所在,还要将大型问题拆分成多步、层层递进,从而提高推理的条理性。在此过程中,可以在每一小步里详细列出推理思路,例如先依据条件A得到X,再结合条件B推出Y,有助于提升模型回答的可信度和准确性。最后,添加合适的文本线索,如固定短语模板,为模型提供思考的依托,确保整条推理路径更富逻辑性。虽然思维链在数学推理、常识推断等任务上优势明显,但它对模型自身规模有一定要求,而且在简易计算场景中有时仍可能出错,这说明模型在真正理解层面尚待加强。

(4) 检索增强生成(retrieval augmented generation, RAG)(PandaAI智能体中的一个节点)
大语言模型虽然彻底改变了文本生成的范式,但是其性能受到训练数据和模型本身的限制,导致其无法回答最新信息或在无确切答案时产生虚假信息。为解决这一问题,引入了检索增强生成(RAG)技术,这是一种将检索与LLM生成相结合的自然语言处理方法,通过检索预先构建的外部知识库,确保LLM输出内容的时效性和相关性。
虽然大语言模型在文本生成上带来深刻变革,但其能力仍受训练数据与模型局限影响,可能无法解答最新事件或对缺失的信息"胡编乱造"。检索增强生成技术的提出,正是为完善这一不足。RAG通过检索外部知识库来补足信息,确保模型给出的回答更可靠、更新颖。
搭建RAG大致可分为三个步骤:
首先,构建内部知识库,将相关文档或网页收集并整理,去除不相干信息后对文档进行向量化,并将向量存储在数据库中;
接着,对用户查询进行向量化匹配,从数据库检索与查询最契合的文档片段;
最后,将用户问题和检索所得的文本一起输入大语言模型,由其综合生成回答。
RAG尤其适合需要可靠来源或私有数据的情境,因为它能以准确的信息为基础生成文本。但需要注意,如果知识库文档质量欠佳,模型输出的可靠度也会大打折扣。

(5) 生成知识提示(generated knowledge prompting, GKP)
GKP核心逻辑是:与其直接要求模型利用其内部模糊的参数化知识给出答案,不如先引导其显性地“写出”相关的背景知识,再基于这些自生成的知识进行推理。这种方法无需调用特定任务的外部数据整合,也不必微调模型或访问结构化知识库。实证研究显示,采用GKP思路的大模型在数量常识、通用常识和科学常识等多项基准测试中,都获得了相当突出的成果。

提示词工程浅析01.png

最后一次编辑于 25天前 0

暂无评论

推荐阅读
  易斋   17天前   85   0   0 经验分享