一架梯子,一头程序猿,仰望星空!
面向开发者的 Prompt Engineering(吴恩达) > 内容正文

提示词入门教程简介


作者 吴恩达教授

本课程由 Isa Fulford 教授和吴恩达老师设计。Isa Fulford 是 OpenAI 的技术团队成员,曾开发过 ChatGPT 检索插件,编写过不少 LLM 技术方面的教程。她负责编写了OpenAI cookbook指南。

互联网上有很多有关提示(Prompt)的资料,例如《30 prompts everyone has to know》之类的文章。这些文章主要集中在 ChatGPT Web 用户界面上,许多人在使用它执行特定的、通常是一次性的任务。但是,对于开发人员如何通过 API 调用LLM,快速开发应用程序资料还不多。

本教程主要指导开发者如何针对不同的场景设计prompt,去控制AI干活。

随着大型语言模型(LLM)的发展,LLM 大致可以分为两种类型,即基础LLM和指令微调LLM。基础LLM是基于文本训练数据,训练出预测下一个单词能力的模型,其通常是在互联网和其他来源的大量数据上训练的。例如,如果你以“从前有一只独角兽”作为提示,基础LLM可能会继续预测“生活在一个与所有独角兽朋友的神奇森林中”。但是,如果你以“法国的首都是什么”为提示,则基础LLM可能会根据互联网上的文章,将答案预测为“法国最大的城市是什么?法国的人口是多少?”,因为互联网上的文章很可能是有关法国国家的问答题目列表。

许多 LLMs 的研究和实践的动力大多集中在指令调整的 LLMs 上。指令调整的 LLMs 已经被训练来能够遵循特定指令。因此,如果你问它,“法国的首都是什么?”,它更有可能输出“法国的首都是巴黎”。指令调整的 LLMs 的训练通常是从已经训练好的基本 LLMs 开始,该模型已经在大量文本数据上进行了训练。然后,使用输入是指令、输出是其应该返回的结果的数据集来对其进行微调,要求它遵循这些指令。然后通常使用一种称为 RLHF(reinforcement learning from human feedback,人类反馈强化学习)的技术进行进一步改进,使系统更能够有帮助地遵循指令。

总的来说通过指令微调的LLM模型,就类似上过专项培训班的人,具备专项技能。

当你使用指令微调的 LLM 时,需要思考你怎么指挥一个人干活,假设他是一个聪明但不知道你任务的具体细节的人,你需要提供更多细节信息,指导他怎么干活。当 LLM 无法正常工作时,有时是因为指令不够清晰。


关联主题