会员计划说明

我要推出一个为期一年的会员计划,这篇文章我想从会员计划介绍、面向人群、会员权益、会员定价四个方面来介绍下,希望大家理性消费,务必先看权益部分的内容是否是自己未来一年内要聚焦和关注的,然后再看定价是否满足自己当前的消费能力。

阅读更多

模型即产品的技术实现路径|莫尔索随笔 Vol.44

本期内容介绍了如何通过技术手段将模型转化为产品包括模型的技术创新、价值链上移、应用层的自动化、投资者关注点的转移,以及模型作为基础设施的角色,强调了小型专业团队和大型实验室在新的 AI 产品和服务中的战略调整。
阅读更多

AI Agent 如何颠覆传统的外包行业?|莫尔索随笔 Vol.43

本期内容通过论文、工程、产品和市场四个部分, 内容涵盖了 AI 代理技术的最新研究成果,包括 LaRA、CodeAct、ViDoRAG 和 Visual-RFT 等论文,这些研究探讨了如何通过 RAG 与长文本语言模型、代码执行能力、视觉文档检索增强生成以及视觉强化微调等技术手段提升 AI 代理的性能和应用范围。在工程方面,介绍了如何使用 Cursor 和 Claude AI 工具高效管理和维护大型项目,以及谷歌发布的新的文本嵌入模型 gemini-embedding-exp-03-07。此外,还讨论了 MCP 的实用性和潜力、Manus 的开源项目 OpenManus 和 OWL 技术实现,以及 OpenAI 发布的 Agents SDK。产品部分,推荐了 Meta FAIR AI Demos 和 Google Labs,介绍了 Google 的 Gemma 3 系列模型和 Gemini 2.0 Flash,Cloudflare Media Transformations 功能,以及 Product Hunt 上的最佳产品。市场方面,提到了 OpenAI 与 CoreWeave 的合作协议,SSI 通过再融资达到 300 亿美元估值,以及 AI 代理定义的模糊性和行业应用。最后,网页提供了 Cartesia 创始人的访谈和对未来 25 年 AI 代理发展趋势的预测。
阅读更多

AI Agent 如何颠覆传统的外包行业?|莫尔索随笔 Vol.42

本期内容通过论文、工程、产品和市场四个部分,论文部分包括多模态大模型在富文本图像理解上的研究、金融信息搜索框架 FinSearch 的开发、代码与推理的双向赋能关系、以及大型语言模型在推理能力上的提升策略。工程部分介绍了阿里云 QwQ-32B 模型的开源、腾讯混元的图生视频模型、开源的 AI 写作软件 refly 等。产品部分提及了 Gamma APP 的功能更新、MiniMax 的图像生成模型 Image-01、Stability AI 与 Arm 的合作、谷歌 Gemini AI 的新功能、Vidu API 平台的开放以及 PH 平台上的十大产品。市场部分分析了智谱的战略融资、ChatGPT 的用户增长趋势、亚马逊 AI Agent 团队的成立、以及 A16z 的 TOP100 AI 榜单。观点部分详细讨论了 AI Agent 如何改变商业流程外包行业,以及语义搜索产品 ExaAI 如何通过 Neural PageRank 算法改进搜索引擎。
阅读更多

DeepSeek R1爆火之后,到底什么任务适合用 RL 做?|莫尔索随笔 Vol.41

本期内容通过论文、工程、产品和市场四个部分, 论文介绍了一系列论文,包括 RAG 系统中上下文大小和模型选择的影响、如何通过代码输入输出预测(CODE I/O)来增强大型语言模型(LLMs)的推理能力、揭秘 LLMs 中的长链思维推理(CoT)、以及从 RAG 到记忆的进化等研究成果。工程部分详述了 DeepSeek 开源周的工程进展,如 FlashMLA、DeepEP、DeepGEMM 等技术的并探讨了开源 AI 的协作机制和法律意义。此外,介绍了多个 AI 模型的开源,包括 Moonlight-16B-A3B、Microsoft 的 Phi-4-Mini 和 Phi-4-Multimodal、通义万相 Wan2.1 视频模型等。Hugging Face 的 FastRTC 库也被提及,用于简化实时音视频 AI 应用的开发。在产品部分,文章讨论了秘塔 AI 的「先想后搜」Research 模式,腾讯混元的快思考模型 Turbo S,以及阿里云推出的推理大模型 QwQ-Max-Preview 等。OpenAI 发布的 GPT-4.5 和 ChatGPT Deep Research 功能的开放,以及 Anthropic 推出的 Claude 3.7 Sonnet 模型,都表明了 AI 产品在推理和创造性任务上的进步。ElevenLabs 发布的独立语音检测模型 Scribe,以及 Product Hunt 上的最佳产品,如 Tanka、Musa、Webdraw Beta 等,展示了 AI 技术在团队沟通、自我护理、API 开发等多个领域的应用。市场动态方面,LiblibAI 完成了新一轮融资,重点投入创作者生态建设与技术研发,Anthropic 公司即将完成一轮 35 亿美元的融资,估值达到 615 亿美元。百度和字节跳动也在积极跟进 AI 模型的迭代和优化。最后,文章提供了一些观点,包括 AI 技术对企业管理和组织结构的影响,以及如何在 AI 时代中保持竞争力和创造价值。
阅读更多

Grok3 是否意味着预训练阶段 Scaling Law 已失效?|莫尔索随笔 Vol.40

本期内容通过论文、工程、产品和市场四个部分,论文部分讨论了大语言模型在问答系统中的多样性增强、基于图的问答框架的改进、以及在潜在空间中进行推理的新范例。工程部分展示了 DeepSeek R1 模型的应用实例、多模态模型的开源发布以及 AI 面试平台 FoloUp 的特性。产品部分介绍了新 Email 的推出、知乎直答的升级以及其他 AI 搜索产品的进展。市场部分分析了 DeepSeek 在中国的应用案例、微信搜索的 AI 搜索功能灰度测试、以及 YC 在孵化 AI 初创企业方面的成功经验。此外,还提到了 Product Hunt 2024 年的金喵奖榜单,以及从 DeepSeek-R1 看 2025 模型未来的趋势和可能性。
阅读更多

从 DeepSeek R1 看 Scaling Law 的未来|莫尔索随笔 Vol.39

本期内容通过论文、工程、产品和市场四个部分,在论文部分,介绍了 GRPO 的应用与效果,包括在 Qwen2.5-0.5B 基础模型上的实验成果、模型限制、资源优化等;数据集与推理能力的探讨,如小数据集的潜力、LIMO 和 s1K 数据集的效果,以及推理深度与性能的关系;奖励函数与优化的研究,包括针对诗歌生成设计的奖励函数和余弦奖励函数的提出。此外,还介绍了 PIKE-RAG 在工业应用中解锁领域私有数据价值的方法,以及 R1-Zero 的训练过程中的三项重要发现。在工程部分,网页讨论了 Canva 如何使用图像相似性搜索来替换设计中的图片,以及 DeepSeek 火爆现象背后企业可以得到的实质提升。前 Facebook CTO 对智能体通信协议的看法,以及如何本地复现 Deep Research,都是工程实践的一部分。在产品和市场方面,网页提到了硅基流动和智谱、三星合作的产品发布,以及 2024 中国开源开发者报告、Apple 智能在国内的可能上线等市场动态。最后,网页提出了关于 S 型智能增长曲线的观点,讨论了从 DeepSeek R1 看 Scaling Law 的未来,以及解构 DeepSeek-R1 背后的技术突破。
阅读更多

关于 DeepSeek 的误读与真相|莫尔索随笔 Vol.38

本期内容通过论文、工程、产品和市场四个部分,论文部分讨论了大语言模型高效推理的综述,包括数据级优化、模型级优化和系统级优化三种思路,并详细介绍了 CyberMentor 框架的设计和应用,以及 OmniHuman-1 框架在人体动画生成方面的研究成果。工程部分分享了 Kimi k1.5 技术报告,介绍了 DeepSeek 的影响力和技术实现,以及 Unsloth 推出的 R1 推理模型的本地训练功能。产品部分展示了谷歌发布的 Gemini 2.0 Flash Thinking 推理模型加强版、豆包 APP 上线实时语音通话功能、Qwen2.5-Max 的智能探索、OpenAI 发布的 Deep Research 和 Operator 功能,以及 OpenAI o3-mini 的性能表现和精准学发布的 “超拟人一对一 AI 老师” 产品。市场部分报道了谷歌向 Anthropic 再投资的消息,大基金三期与上海国资成立 AI 投资基金,以及 Mistral AI 计划进行首次公开募股(IPO)。最后,DeepSeek一节澄清了公众对 DeepSeek 的误解,强调了其在技术创新和普及 AI 能力方面的贡献。
阅读更多

Serverless GPU (弹性 GPU 服务)的前世今生

当Serverless GPU 不使用时,它会关闭。这意味着第一次使用它时,它需要启动,这可能需要几秒钟到几分钟,具体取决于模型大小。如果您正在运行实时应用,这可能是一个问题。在云数据中心内,用户需要部署各种各样的大模型推理服务,占用海量GPU资源。为了减少GPU资源的使用,许多云服务提供商正在探索使用服务器无感知计算的范式来运行大模型推理服务。此时,当针对一种模型的请求到来时,系统才会为该模型分配资源并加载到对应GPU上,以此来提高资源利用率。然而,由于预训练的大模型往往具有GB至TB量级的大小,所以加载模型的过程会消耗相当长的时间,导致推理服务无法真正部署。使用预留实例的方案可以解决此问题,但是预留实例会消耗大量GPU资源,失去服务器无感知计算的优势。另一种将模型缓存在内存里的解决方案只适用于小模型,因为以大模型的规模,它们往往无法被全部放入内存。

阅读更多