关于软件开发的 50 个 ChatGPT Prompt(翻译)
这篇文章总结了 50 条一些适合软件开发的 ChatGPT 提示词。这些提示可以协助完成代码生成、代码完成、错误检测、代码审查、API 文档生成等任务。我将其简单翻译如下,并附上英文对照原文
关于软件开发的 50 个 ChatGPT Prompt(翻译)
这篇文章总结了 50 条一些适合软件开发的 ChatGPT 提示词。这些提示可以协助完成代码生成、代码完成、错误检测、代码审查、API 文档生成等任务。我将其简单翻译如下,并附上英文对照原文
LangChain 就是一个 LLM 编程框架,你想开发一个基于 LLM 应用,需要什么组件它都有,直接使用就行;甚至针对常规的应用流程,它利用链(LangChain中Chain的由来)这个概念已经内置标准化方案了。下面我们从新兴的大语言模型(LLM)技术栈的角度来看看为何它的理念这么受欢迎。
AutoGPT、BabyAGI、CAMEL与Generative Agents的区别与联系(翻译)
最近关于 AIGC 的热点新闻中,出现了许多以 Agent 方式使用 LLM 的项目,像 AutoGPT、BabyAGI、CAMEL 和 Generative Agents 这样的项目获得极大关注。笔者在研究和借助 LangChain 社区工具实现过这些项目之后,试图简单谈谈它们之间的区别以及每个项目的特性。
大模型在 NLP 任务中的出色表现确实为人工智能领域带来了新的发展和探索方向。语言作为思想的符号,是人类交流和表达的主要方式,因此理解和生成自然语言是通往通用人工智能(AGI)之路的一个重要方向。大模型的出现和不断优化,使得计算机能够更好地理解自然语言的含义和上下文,进而提供更准确、更自然的语言交互和信息处理。然而,要实现真正的通用人工智能,还需要解决许多挑战和问题,例如:如何将机器学习模型从“短期记忆”转变为“长期记忆”,如何让机器具备更深入的理解和推理能力,以及如何解决数据隐私和安全等问题。
ChatGPT虽然强大,但在国内的政策下,真要落地数据安全才是最重要的,Meta AI 发布的 LLaMA 让大家看到在相对较小的模型上使用大规模数据集训练并达到较好性能的曙光,笔者也第一时间使用 Docker 和 Alpaca LoRA 对 LLaMA 7B 大模型进行 Fine-Tune,内部使用达到预期效果。下面将该过程使用到的背景资料进行整理,为想私有化落地的朋友作为参考!
OpenAI的接口文档十分详细,包括对话补全,文本补全,代码补全等等信息,也包含了最佳生产实践,最佳安全实践等篇章,通读之后十分受用,推荐大家前往阅读。本文就是在接口文档的基础上,将常见的三种OpenAI 接口套壳应用代码展示出来,以帮助读者实现自己的工具。
OpenAI 文档涉及内容众多,包括微调,Embeddings等众多主题,需要详细了解的可以自行前往阅读,我这里会重点选取高频使用的 API 进行说明以及对 ChatGPT 最佳实践主题进行解读。
文本嵌入是一种将文本这种离散数据映射到连续向量空间的方法,嵌入技术可以将高维的离散数据降维到低维的连续空间中,并保留数据之间的语义关系,从而方便进行机器学习和深度学习的任务。
在 LLM 工程中,prompt 指的是生成文本的输入,它通常是一个问题、一个话题或者一个指令。用户可以通过输入 prompt 来告诉 LLM 模型需要生成的文本类型,LLM 模型则会根据 prompt 和已有的训练数据来生成相应的文本响应,实际使用中高质量的 prompt 会达到事半功倍的效果。
ChatGPT 是OpenAI开发的人工智能聊天机器人程序,于2022年11月推出。该程序使用基于 GPT-3.5、GPT-4 架构的大语言模型并以强化学习训练。ChatGPT目前仍以文字方式交互,而除了可以用人类自然对话方式来交互,还可以用于甚为复杂的语言工作,包括自动生成文本、自动问答、自动摘要等多种任务。