【AI教程-吴恩达讲解Prompts】第1篇 - 课程简介
文章目录
简介
欢迎来到面向开发者的提示工程部分,本部分内容基于吴恩达老师的《Prompt Engineering for Developer》课程进行编写。《Prompt Engineering for Developer》课程是由吴恩达老师与 OpenAI 技术团队成员 Isa Fulford 老师合作授课,Isa 老师曾开发过受欢迎的 ChatGPT 检索插件,并且在教授 LLM (Large Language Model, 大语言模型)技术在产品中的应用方面做出了很大贡献。她还参与编写了教授人们使用 Prompt 的 OpenAI cookbook。我们希望通过本模块的学习,与大家分享使用提示词开发 LLM 应用的最佳实践和技巧。
Prompt学习相关资源
官网教程:https://www.deeplearning.ai/short-courses/chatgpt-prompt-engineering-for-developers/
中文字幕视频:https://www.bilibili.com/video/BV1fk4y1J7Af
文字版本:https://github.com/datawhalechina/llm-cookbook
OpenAI官网教程:https://islinxu.github.io/prompt-engineering-note/Introduction/index.html
两类大模型
**1. 基础LLM:**经过训练可以根据文本预测下一个词。训练数据通常来自互联网和其他来源的数据,以推断最有可能出现的下一个词。
2. 指令调整后的LLM:
- 指令调优的大语言模型是当前大型语言模型研究和实践的主要发展方向。指令调优的大型语言模型经过训练能够遵循指令。
- 为了让系统更有帮助并遵循指令,通常会进一步使用一种名为人类反馈 强化学习(RLHF)的技术来优化。因为指令调优的大型语言模型经过训练,更有助于提供有用的、无害的回答。
例如:基于互联网上的文章,基础LLM有可能会回答法国的最大城市是什么,法国的人口是多少等等。因为互联网上的文章很可能是关于法国的问答列表。相比之下,指令调整后的LLM更接受人们的指令。因此,如果你问它法国的首都是什么,它很可能会输出法国的首都是巴黎。指令调整后的LLM的研究和实践的动量更大。
对于大多数今天的实际应用,我们建议大多数人应该专注于经过调整的指令语言模型。这些模型更易于使用,而且由于OpenAI和其他LLM公司的工作,它们变得更加安全和更加符合要求。因此,本课程将专注于经过调整的指令语言模型的最佳实践.
因此,当您使用经过调整的指令语言模型时,请考虑给另一个人指示。比如说一个聪明但不了解任务细节的人。那么当LLMs不能工作时,有时是因为指令不够清晰。例如,如果您要说,请为我写一些关于艾伦·图灵的东西。除此之外,明确您希望文本集中讨论他的科学工作、个人生活、在历史中的角色或其他相关事项可能会有所帮助。如果您指定文本要呈现的语气,它应该采用类似专业新闻记者所写的语气呢?还是更像一封简短的随笔,希望LLMs生成您所要求的内容?当然,如果你想象自己要求一个刚拿到大学毕业证的人为你执行这个任务,你甚至可以提前指定他们应该阅读哪几段文本以撰写关于艾伦·图灵的文本,这会进一步为他们成功执行您的此项任务做好准备。在下一个视频中,您将看到如何清晰明确、具体,这是提示LLMs的一个重要原则。您还将学习第二个提示原则:给LLMs时间思考。所以,让我们继续下一个视频。
原则与技巧
- 尽可能保证下达的指令清晰没有歧义
- 给大模型思考的时间,以及足够的时间去完成任务
原文地址:https://blog.csdn.net/Kingsea442/article/details/140466553
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!