垂直 SaaS 如何通过 AI 来提高收入? |莫尔索随笔 Vol.22

本期内容涵盖了 AI 技术在垂直应用、工程实践、产品发布以及市场趋势和观点。首先,介绍了微软亚洲研究院提出的将外部数据整合到大语言模型中的方法,Moshi 模型,它是一个开源的语音 - 文本基础模型。接着,讨论了 OpenAI o1 模型在规划能力上的表现,以及 TC-RAG 框架在医疗领域的应用。在工程部分,对比了 NVIDIA 的 GPU 在 AI 推理任务中的性能,探讨了从零开始进行预训练模型的步骤,以及 OpenAI o1 模型的原理逆向工程。文章还分析了大语言模型在推理能力上的局限性,以及 AI Character 角色扮演应用的聊天对话管理方案。此外,对比了五种深度学习训练 / 微调工具,并介绍了 OpenAI 推出的高级语音模式、火山引擎发布的豆包大模型视频生成模型,以及 Meta 发布的 Llama 3.2 多模态 AI 模型。在市场趋势方面,预测了 AI 将为垂直 SaaS 开启新时代,并分析了企业 AI 应用需求的发展趋势。最后,从 BVP 的 2024 云计算研究报告中提炼了五大趋势,以及 OpenAI CEO Sam Altman 对人工智能未来发展的看法。
阅读更多

OpenAI o1合成数据与推理搜索|莫尔索随笔 Vol.21

本期详细探讨了 OpenAI o1 模型的创新点,包括合成数据的使用和推理搜索的技术进展。论文部分提到了 RetrievalAttention 方法的提出,它通过将大部分 KV 向量卸载到 CPU 内存并构建近似最近邻搜索索引,以及采用 CPU-GPU 协同执行策略,来提高长上下文 LLM 的推理效率和准确性。此外,还介绍了 Large Language Monkeys 的研究,即通过重复采样扩展推理计算,提高大语言模型解决复杂任务的能力。还有一篇论文详细阐述了通用 OCR 理论和 OCR-2.0 模型 GOT 的研究成果。在工程方面,文章首先介绍了合成数据的概念和推理搜索的过程,强调了它们在提高模型泛化能力和解决实际问题中的重要性。Awesome-LLM-Strawberry 项目收集了与 OpenAI Strawberry (o1) 和逻辑推理相关的研究论文和博客,Anthropic 推出了上下文检索方法,提高了基于知识库的信息检索的准确性,Noam Brown 作为 OpenAI 的核心人物,在多 Agent、多步骤推理、强化学习等方面做出了贡献。Zep 项目通过持久化聊天历史记录和自动生成摘要,提高了从过去对话中检索相关上下文信息的能力。产品部分,Qwen2.5 系列模型开源,包括语言模型 Qwen2.5、Qwen2.5-Coder 和 Qwen2.5-Math,这些模型在多种语言和长上下文支持方面表现出色。Jina AI 推出了 Reader-LM,这是一种将原始 HTML 转换为 Markdown 的小语言模型,优化了 HTML 到 Markdown 的转换任务。DeepSeek-V2.5 在国内大模型竞技场中领先,超越了多个闭源模型。Napkin AI 提供了一个直接从文本生成视觉内容的平台,帮助用户更有效地分享和传达想法。市场分析方面,文章提供了中国政务行业大模型发展的洞察,以及 2024 年中国金融大模型产业发展报告和 AI 应用市场的分析。
阅读更多