如何提高 LLM 可靠性和稳定性?开源项目 guidance 分享

在复杂的 LLM 应用开发中,特别涉及流程编排和多次 LLM 调用时,每次的 Prompt 设计都取决于前一个步骤的大模型输出。如何避免大语言模型的”胡说八道”,以提高大语言模型输出的可靠性和稳定性,成为一个具有挑战性的问题。在开发应用的过程中,我发现了微软推出的开源项目 guidance,能够很好地解决这一繁琐问题,本篇文章对此进行详细说明。

阅读更多

类 ChatGPT 模型调研

ChatGPT虽然强大,但在国内的政策下,真要落地数据安全才是最重要的,Meta AI 发布的 LLaMA 让大家看到在相对较小的模型上使用大规模数据集训练并达到较好性能的曙光,笔者也第一时间使用 Docker 和 Alpaca LoRA 对 LLaMA 7B 大模型进行 Fine-Tune,内部使用达到预期效果。下面将该过程使用到的背景资料进行整理,为想私有化落地的朋友作为参考!

阅读更多