第一时间捕获有价值的信号
⼤家好,Weekly Gradient第 95 期已送达,本期内容深入探讨AI智能体的技术架构演进,涵盖OpenClaw的双源记忆系统、LangChain的智能体运行时与可观测性平台,分析本地优先架构、Agent Teams协作模式及开源工具在智能体部署中的应用实践。
AI 商业
聚焦 AI 行业的商业化路径、市场竞争格局和商业模式创新,包含投资趋势、GTM 策略、SaaS 转型等商业话题。
1.GPT-5.4 mini and GPT-5.4 nano, which can describe 76,000 photos for $52(Simon Willison’s Weblog)
OpenAI这次真的把性价比卷出新高度了!他们刚发布的GPT-5.4 nano和mini模型,不仅性能更强,价格还便宜得让人惊喜。nano模型在最大推理强度下,居然比之前的GPT-5 mini表现更好,速度还快了两倍,这效率提升太实在了。最震撼的是价格:输入每百万token只要0.20美元,输出每百万token也才1.25美元,比Google的Gemini 3.1 Flash-Lite还要便宜。这意味着什么?用nano模型描述76000张照片,总共花费大约52美元就能搞定,大规模图像处理突然变得这么亲民。他们还做了创意图像生成的对比实验,展示了不同模型和推理级别的实际效果差异,让你直观看到钱花在哪里、效果差在哪里。
AI 产品
探索 AI 原生产品的设计范式与用户体验革新,强调产品哲学、交互模式、Agent 产品设计等。
1.Introducing LangSmith Fleet. Agents for every team(LangChain(@LangChainAI))
LangChain这次推出的LangSmith Fleet真是瞄准了企业AI应用的实际痛点!它让团队用自然语言就能轻松构建智能体,还特别强化了权限控制和审批流程——谁可以编辑、谁可以运行、哪些操作需要人工审核,都安排得明明白白。最棒的是,所有操作都能通过现有的可观测性基础设施进行审计,既保证了协作效率,又不会牺牲治理的严谨性。这工具简直就是为那些需要规模化部署AI智能体的团队量身定制的,看来LangChain在帮助企业落地AI应用方面又迈出了扎实的一步。
2.Exciting new feature launch! Congrats @felixrieseb(Latent.Space(@latentspacepod))
嘿,有个挺酷的新消息!Anthropic那边刚通过Claude Cowork推出了一个叫“Dispatch”的新功能,目前还在研究预览阶段。简单来说,这个功能让你能在电脑本地运行一个Claude智能体,然后从手机给它发消息,随时保持对话。最棒的是,你离开电脑后,它还能继续处理任务,等你回来接着聊。这完全符合最近讨论的本地优先工作流趋势,感觉AI辅助工作正变得越来越无缝和自主,以后可能真能有个24小时在线的AI伙伴帮你打理事情了。
3.GPT-5.4 mini is available today in ChatGPT, Codex,(OpenAI(@OpenAI))
OpenAI刚刚在推特上宣布GPT-5.4 mini正式上线了!这个新模型现在已经在ChatGPT、Codex和API里都能用到了。最让人兴奋的是,它在编码任务、日常电脑使用、多模态理解这些方面都做了专门优化,还能作为子代理运行。更厉害的是,速度比之前的GPT-5 mini快了两倍,这效率提升太明显了。看得出来OpenAI在持续打磨产品体验,让开发者和普通用户都能更顺畅地使用AI能力。
4.我们是如何定义 OpenClaw for Teams 新产品形态的|对谈 Kuse&Junior 联创兼 CTO 宇豪(42章经)
嘿,这期播客聊得真有意思!宇豪分享了他们团队从 Kuse.ai 到 Junior.so 的创业故事,最让我惊讶的是,他们没拿融资就做到了千万美金 ARR,秘诀居然是调整定价策略——从固定收费转向按量付费,这招在 Agent 时代特别管用,因为任务复杂度差异太大,固定定价容易让成本失控。更酷的是他们对 AI 员工的定义:Junior 不是简单的私人助手,而是有独立 Gmail 和手机号的“数字劳动力”,能像真人员工一样在互联网上自主干活。他们还强调企业级 AI 需要构建组织记忆系统,得理解公司内部的关系、项目历史和数据边界,不能和个人助手混为一谈。不过宇豪也泼了盆冷水:当 AI 能 7x24 小时高频响应时,人类反而成了协作流中的效率瓶颈,这简直是对我们工作方式的颠覆性预警!
5.Agents For Non-Technical Users(Y Combinator)
Y Combinator最新访谈里,Emergent那对双胞胎创始人聊得真带劲!他们公司增长飞快,但最酷的是,80%的用户压根儿不懂编程——经理、心理学家、企业主都在用他们的平台捣鼓正经应用。这对兄弟从Google和Amazon出来,没走寻常路:别人忙着打磨漂亮界面时,他们吭哧吭哧先啃最硬的骨头,自建Kubernetes、搞多智能体系统,结果在SWE-bench排行榜上直接冲到了前面。他们管这叫‘后来者优势’,每一代新模型出来,都重新想一遍怎么做事。现在平台跑着700万个用户建的应用,其中两成已经是‘智能体化’的——AI自己就能驱动工作流,不用人插手。他们特别强调‘智能体体验’和用户体验一样重要,把复杂东西藏起来给普通人用,但给AI智能体留足发挥空间。听着是不是觉得SaaS要变天了?连马术治疗应用都能被临床心理学家随手搭出来,这波AI平民化浪潮,可能真要把写代码这事儿变成历史了。
AI 工程
涵盖 AI 工程技术实现与场景化开发的全流程,包含 Agent 工程架构、工具实践、上下文工程等核心技术话题。
1.探索 GPU 加速向量检索:NVDIA Cagra 在微信大规模推荐系统中的应用实践(腾讯技术工程)
微信团队这次玩得真够硬核的!他们居然把NVIDIA那个专门为GPU设计的Cagra向量检索算法,直接搬到了视频号推荐系统里。这可不是简单套用,原版算法在生产环境里问题一大堆,内存占用高得吓人。团队自己动手改造,搞了个渐进式子图优化,把内存依赖降下来,还设计了三层存储架构,像LSM-Tree那样分层处理数据,让新来的视频能快速进入系统,又不影响整体检索速度。最厉害的是他们解决了CPU和GPU配合的老大难问题,通过链式广播唤醒机制,把跨线程通信开销砍了一大截,单机吞吐量直接飙升65%。结果呢?建库时间缩短到原来的三十分之一,计算资源省了一半多,推荐效果还更准了。这波操作完美展示了怎么把前沿算法落地到亿级用户的实际业务中,每一步优化都踩在痛点上。
2.别让格式杀死思想:Logics-Parsing V2 定义文档解析新边界(阿里技术)
阿里数据团队搞了个挺厉害的东西,叫Logics-Parsing V2,专门解决那些传统OCR搞不定的复杂文档。比如你拍张学术论文或者财务报表的照片,它不仅能认出字,还能理解里面的逻辑结构,直接给你转成带格式的HTML或Markdown,保留了文档的原始意思。更酷的是,它连乐谱、思维导图甚至代码块都能解析,那些复杂的化学分子式和五线谱符号也难不倒它。技术上用了两阶段训练加布局强化学习,通过设计多维度奖励来提升模型对复杂版面的理解能力。虽然功能这么强,但团队把模型参数优化到了4B,在保持高性能的同时还提升了推理速度,在权威评测里拿了SOTA成绩,看来是既精准又实用,离实际应用更近了。
3.从架构到代码:深入理解 OpenClaw 的双源记忆系统(腾讯云开发者)
如果你也在头疼AI Agent怎么老是记不住事儿,每次对话都得从头说起,那OpenClaw这套方案可太值得琢磨了。它把‘上下文’和‘记忆’分得清清楚楚——上下文就是个临时工作台,用完就扔;记忆才是真正存进硬盘的知识库,能跨会话随时调取。最妙的是它搞了个‘双源记忆’:一边用JSONL原汁原味记录所有对话细节,另一边用Markdown存放提炼后的精华知识,就像人脑既记得具体经历又能总结出经验。更聪明的是那个Memory Flush机制,眼看对话快超出Token限制了,系统会主动让Agent自己判断‘哪些信息值得永久记住’,自动把关键内容压缩保存,完美解决了信息流失的老大难。检索层面也玩得很溜,直接在轻量级的SQLite上嫁接向量搜索和关键词搜索,按7:3比例混合加权,既抓语义关联又保精确匹配,不用折腾复杂数据库就能大幅提升召回准确率。不过别以为有了记忆系统就能省多少钱,文章也老实交代了——系统提示词、工具定义这些固定开销,加上检索过程本身产生的额外Token,成本依然居高不下。这套从架构设计到代码落地的完整思路,确实给AI记忆难题提供了个扎实的工程范本。
4.深入理解 OpenClaw 技术架构与实现原理(上)(阿里云开发者)
嘿,如果你对构建真正能用的AI助理系统感兴趣,那这篇拆解OpenClaw的文章可别错过。它最酷的地方在于采用了“本地优先”的架构,用一个统一的Gateway网关来管理所有设备连接和消息路由,让系统既能在本地高效运行,又能灵活跨设备协作。文章深入剖析了三大核心模块:那个叫Agentic Loop的推理循环,简直是系统的大脑,通过事件驱动自动处理LLM调用和工具执行,还能智能应对上下文溢出和重试;定时任务系统则通过心跳机制让AI具备了拟人化的主动交互能力,能在后台默默处理长任务或定时提醒;最让人安心的是它的工具系统,设计了足足七层安全策略流水线,结合Docker沙箱,严格锁死了AI对敏感资源的访问权限。整篇文章还特别强调了OpenClaw是用AI-Coding范式构建的,展示了在软件工程自动化方面的前沿实践。读完你会对如何设计一个既智能又安全的AI系统有更扎实的理解。
5.Friend Bubbles: Enhancing Social Discovery on Facebook Reels(Engineering at Meta)
Facebook在Reels里悄悄上线了一个叫“好友气泡”的功能,专门推送你好友互动过的短视频。这背后可不简单,他们用了两个模型来算你和朋友到底有多“铁”:一个靠问卷调查了解现实关系,另一个直接分析你们在平台上的互动数据。更厉害的是,他们把这种社交信号直接塞进了排序模型里,让算法能边学边优化,既考虑视频本身好不好看,也照顾你和朋友之间的连接。为了让你刷得顺滑,工程师们还搞了不少小动作,比如提前加载视频信息、根据手机性能智能开关动画,生怕卡一下影响体验。这种把社交关系和推荐系统深度绑定的做法,确实让刷视频多了点人情味。
6.如何让你的 Agent 更准确:MCP 工具设计技巧(字节跳动技术团队)
你有没有遇到过这种情况:明明给Agent开发了功能正确的工具,它却总是调不对、用不好?这篇文章就直击了这个痛点。它告诉我们,问题根源在于我们还在用设计给人用的API那套思路,而Agent其实是个特殊的“用户”——它只能通过工具的名字、描述和参数定义来理解世界。所以,工具设计本质上是在给AI设计用户界面,核心目标不是技术多牛,而是怎么降低它的认知负担。文章里干货满满,比如工具定义会挤占模型的“思考内存”,太多工具(超过20个)反而会让模型变笨;给工具起名和写描述时,必须做到“防呆式”的清晰,动词打头、场景明确,因为Agent可不懂潜台词;设计输入参数时要“外紧内松”,对Agent输出严格约束,但代码实现上得宽容处理它的各种小偏差。还特别提到了MCP协议的价值,它就像个万能适配器,让工具一次开发就能对接不同的大模型,解决了N×M的适配噩梦。字节跳动TRAE团队的这些实战经验,算是给想做好MCP工具的朋友们指了条明路。
7.Ranking Engineer Agent (REA): The Autonomous AI Agent Accelerating Meta’s Ads Ranking Innovation(Engineering at Meta)
Meta搞了个叫REA的排序工程师智能体,这玩意儿可太酷了!它不再是那种你问一句它答一句的AI助手,而是能自己管好几个星期ML实验的‘全自动管家’。最厉害的是它有个‘休眠唤醒’机制,训练任务跑几天,它就安心‘睡觉’省资源,任务一完成立马‘起床’接着干。它生成实验想法也特别聪明,一边翻历史数据库看过去啥管用啥不管用,一边还能结合最新的研究,经常能发现人类工程师都想不到的优化点子。整个实验过程它规划得明明白白,先验证单个想法,再把有希望的组合起来,最后在工程师给的预算里使劲优化最好的方案。更省心的是,遇到训练报错或者内存不够这些破事儿,它自己会查操作手册去调试,不用人插手,整个流程一点不耽误。结果呢?直接把生产广告模型的准确率翻了一倍,小团队现在能管的模型数量也蹭蹭往上涨,工程师们终于能从琐碎的执行里抽身,多想想战略大事了。
8.兄弟!你真的懂 Skill 吗?(腾讯云开发者)
最近看到一篇对Anthropic开源Skill框架的深度解析,真是让人眼前一亮。它完全颠覆了传统给AI注册一堆API接口的做法,核心思路是“教AI知识”——通过SKILL.md文档向大模型注入技能说明,让AI自己学会在隔离沙箱里编写和执行脚本。文章详细拆解了从声明到执行的7步完整链路,特别提到skill_run工具通过哈希和只读保护确保安全,还有三层信息注入模型能智能地按需加载内容,据说能省下近一半的Token消耗。更实用的是,作者归纳出五种Skill执行模式,从简单的提示词约束到复杂的多Agent编排,几乎覆盖了各种开发场景。如果你正在构建AI Agent系统,这套工程实践绝对值得细读。
9.Agent/Skills/Teams 架构演进过程及技术选型之道(阿里云开发者)
这篇文章讲透了Agent架构演进的底层逻辑,原来那些复杂的Agent、Skills、Teams设计,本质上都是在给大模型“补课”——模型自己记不住、学不全,工程师们就想办法用RAG、Workflow这些工程手段给它外挂知识和记忆。文章对比了四种主流模式:Single Agent简单但容易“内存爆炸”;Multi-Agent能分工作战但沟通成本太高;Agent Skills把技能打包成文件按需加载,既稳定又灵活;Agent Teams则像一支探险队,在完全没地图的复杂场景里并行探索、共享情报,靠多样性碰撞出最优解。最值得琢磨的是那个“奥卡姆剃刀”选型原则:别盲目堆Agent数量,实验数据显示,当单智能体成功率超过45%时,加再多协同机制收益也有限,关键得根据任务复杂度、模型基础能力和通信成本科学选择架构。如果你正在纠结该用哪种Agent架构,或者好奇为什么Agent设计不是越复杂越好,这篇文章的递进式选型建议绝对能帮你理清思路。
10.如何定义“人味儿”?——HeartBench 评测体系建设实践(阿里云开发者)
现在大家都在说AI要有“人味儿”,但到底怎么才算有“人味儿”?这篇文章给出了一个特别实在的答案。它讲的是HeartBench这个评测体系怎么一步步建起来的,把那些听起来很虚的情感、社交能力拆解成可以具体测量的指标。最精彩的部分是复盘从v0.1到v1.0踩过的坑——题目设计不好区分、专家打分不一致、规模大了质量就失控,还有合规问题导致返工,这些真实经历对做AI评测的团队太有用了。文章的核心思路很清晰:先小范围验证可行性,然后人机协作扩大规模,最后用人工盲测来检验AI打分的可靠性,把主观性很强的人文评测变成了可重复的工程流程。如果你正在头疼怎么评估AI的“人性化”程度,或者想了解怎么建立可靠的评测体系,这篇文章里的方法论和实战经验绝对值得一看。
11.Open Models, Open Runtime, Open Harness - Building your own AI agent with LangChain and Nvidia(LangChain)
如果你一直想亲手搭建一个真正能干活、有记忆的AI助手,这篇文章简直是为你量身定做的。它手把手教你用完全开源的工具——Nvidia的模型和运行时,加上LangChain的框架,从头构建一个功能完整的智能体。最酷的是,它不只是调用API,而是让你掌控整个流程:用OpenShell给代码执行套上安全锁,防止AI乱来;用Deep Agents框架自动处理繁琐的上下文,让智能体记住之前的对话;还能通过混合后端实现持久化记忆,下次唤醒时它依然认得你。读完你会觉得,原来打造一个安全、可控、能迭代学习的AI伙伴,并没有想象中那么遥远。
12.MiniMax M2.7: 开启模型的自我进化(MiniMax 稀宇科技)
MiniMax M2.7这次更新有点意思,它不再只是被动接受训练,而是自己动手迭代自己了。模型通过一套复杂的Agent Harness系统,能主动收集反馈、建立评测集,然后执行分析、规划、修改、评测的闭环,这相当于让AI拥有了自我优化的能力。更厉害的是,它在软件工程领域已经能做到SRE级别的故障排障了,不仅能关联监控指标做因果推理,还能主动连接数据库验证根因,执行非阻塞修复,据说能把故障恢复时间压到三分钟以内。它还原生支持多智能体协作,把角色边界、对抗性推理这些复杂逻辑内化,能自主在复杂状态机里做决策,完成像产品原型开发这样的组织级任务。办公能力也进化了,现在能处理多轮Office文件的高保真编辑,还能像初级分析师一样独立完成金融研报的建模和产出。这波更新感觉是把AI从工具向真正能参与复杂工作流的伙伴又推进了一大步。
13.[AINews] Claude Cowork Dispatch: Anthropic’s Answer to OpenClaw(Latent Space)
嘿,这期AI动态真是干货满满!Anthropic终于出手了,推出了Claude Cowork来跟OpenClaw掰手腕,专门搞远程控制和智能体能力,还特别强调安全沙盒,看来是要补上自家生态的短板。OpenAI那边也没闲着,不卷大模型了,反而发布了GPT-5.4 mini和nano这种小巧精悍的模型,速度提升2倍,上下文窗口有400k,专攻编码效率和子智能体性能,明显是要抢占效率优先的市场。更关键的是,整个智能体基础设施正在升级,不再是简单的聊天界面了,像LangSmith Sandboxes和Open SWE这些工具,都在打造安全的代码执行环境和可组合的工作流,让智能体能更自主、更安全地干活。技术研究上也有新突破,Mamba-3和注意力残差这些架构,正在挑战Transformer的瓶颈,通过混合模型和垂直注意力来提高推理效率,还不牺牲性能。最后,本地AI开发也越来越亲民了,Unsloth Studio和Mistral Small 4这些工具,让开发者能用更少的VRAM、更好的界面在本地训练和运行大模型,真是方便多了。
14.loved this article by @kishan_dahya as we built(Harrison Chase(@hwchase17))
嘿,有个挺酷的消息!Harrison Chase 在推文里分享了 LangChain 刚发布的一个完全开源的后台编程代理 “Open-SWE”,还直接附上了 GitHub 链接,这下开发者们可以立刻上手体验了。更棒的是,他特别提到 Kishan Dahya 那篇关于编程代理心智模型的文章,在开发过程中起到了关键参考作用,这让我们不仅能拿到代码,还能深入理解背后的设计理念。如果你对 AI 工程或自动化编程感兴趣,这绝对是个值得关注的项目,开源的力量加上清晰的思路,感觉能帮我们省不少事儿呢!
15.how does our OSS coding agent compare to others th(Harrison Chase(@hwchase17))
Harrison Chase刚宣布开源编程代理,就立刻来了个技术大揭秘!他用Kishan Dahya的分析框架把LangChain代理的构建方式拆解得明明白白——从核心框架用的deepagents,到沙盒环境整合LangSmith、E2B、Daytona.io,再到网页搜索、deepagents这些工具,还有上下文工程、子代理和中间件这些编排技巧,连怎么通过Slack、Linear、GitHub调用都讲清楚了。这简直是给想自己动手搞AI编程代理的开发者送上的技术宝典,干货满满!
16.a lot of engineering orgs (Stripe, Ramp, Coinbase)(Harrison Chase(@hwchase17))
LangChain创始人Harrison Chase刚刚宣布要发布一款完全开源的云端编程代理,这消息挺让人兴奋的!他提到像Stripe、Ramp和Coinbase这些顶尖的工程团队其实已经在内部悄悄开发类似工具了,看来用AI辅助编程正在成为行业标配。Chase认为每家公司都应该能享受到云端代理带来的效率提升,而LangChain这次开源就是要让这个能力变得触手可及。这意味着那些原本只有大厂才能玩转的AI开发工具,现在正在快速走向普及化,对中小团队来说绝对是个好消息。
17.OpenClaw Full Course: Build your 5X AI employee(Greg Isenberg)
如果你正想把AI从聊天玩具变成真正的数字员工,这篇OpenClaw大师课简直是手把手教学。它把整个过程拆解成10个可操作的步骤,核心思路特别清晰:先让AI学会看说明书——把官方文档喂给它当知识库,这样它回答问题时就不容易胡编乱造了。接着要解决AI的“健忘症”,通过一个叫memory.md的文件和特定压缩设置,让它的记忆能长期保存并持续进化。最实用的可能是那个模型回退链配置,主用OpenAI,备用Anthropic,就算一个服务挂了也不影响工作。安全方面强调要像带新员工一样,先在本地部署,再逐步开放Gmail、CRM这些敏感工具的权限。最后用“心跳”机制让AI每30分钟自动执行记忆维护等后台任务,真正实现7x24小时无人值守。看完你会发现,把AI变成生产力工具的关键,其实是一套严谨的工程化思维。
18.Harness Engineering 为什么是 Agent 时代的“控制论”?(海外独角兽)
最近看到一篇挺有意思的文章,把OpenAI提出的Harness Engineering概念和控制论的历史脉络联系起来了。文章说,从瓦特那个著名的离心调速器,到我们现在用的Kubernetes控制器,再到如今搞AI Agent开发,本质上都是在做同一件事:构建传感器和执行器来闭合反馈回路。现在工程师面临的挑战变了,不再是吭哧吭哧写代码,而是要把那些架构决策、代码规范、质量标准这些“隐性知识”编码进系统环境里。Agent为啥会失败?往往不是模型能力不行,而是我们人类没把脑子里那些“这代码写得好不好”的判断标准变成机器能读懂的规则。所以未来工程师的核心竞争力得转向系统设计、环境构建,还有怎么高效评估AI产出的质量。这感觉就像是从“拧阀门”的工人变成了“掌舵”的船长,挺形象的。
19.OpenClaw 背后核心框架 Pi:好的 Coding Agent 应该让用户来决定需要什么(Founder Park)
最近OpenClaw的核心框架Pi火了,它直接挑战了Claude Code这类商业工具的设计思路。Pi的作者Mario Zechner觉得,那些工具总在后台偷偷更新系统提示词,搞得开发者工作流动不动就崩,太不稳定了。所以Pi走了个极简路线:系统提示词不到1000个token,只配四个核心工具,什么内置子Agent、复杂规划模式统统不要。Mario认为大模型本来就是台通用计算机,我们应该像写代码一样去写prompt——把状态、控制流都明明白白存到Markdown文件里,这样既能绕过上下文衰减,又能让开发者完全掌控AI的行为。他还吐槽了现在很多Coding Agent的权限系统就是个“安全剧场”,弹窗弹到用户手酸,最后大家还不是直接点“允许”?真要有安全,不如用Docker物理隔离。Pi这套理念挺颠覆的,它不追求Agent替你做所有决策,而是把代码库当成唯一的真相来源,让Agent每次从零探索,开发者则站在指挥中心,清晰看到每一步探索过程。如果你也受够了黑盒化的AI编程工具,Pi这种“做减法”的思路或许能给你带来些新启发。
20.#459.AI 智能体时代的基建重构:LangChain 创始人揭秘 Harness、记忆与自主运行的未来(跨国串门儿计划)
最近听了LangChain创始人Harrison Chase的深度分享,感觉对AI智能体的理解又进了一步。他提出了一个挺颠覆的观点:决定智能体表现上限的,可能不是模型本身,而是那个管理它如何与环境交互的“外壳程序”。这就像给AI装了个操作系统,负责规划任务、调用工具、管理记忆,这才是实现差异化体验的关键。他还详细拆解了现代智能体的五大组件,从系统提示词到文件系统,每个都挺有启发性。特别有意思的是,他认为代码会成为长程智能体的通用语言——因为LLM在代码上的训练让它处理复杂逻辑时比自然语言更可靠。记忆系统也被分成了三种类型,其中“程序记忆”能让智能体通过修改配置文件来更新行为,实现自我进化。对企业来说,Harrison建议别太纠结于框架选型,真正该积累的是特定领域的指令和工具集,这些才是跨框架通用的核心资产。最后他强调了可观测性的重要性:由于LLM的非确定性,必须通过全链路追踪和持续评估,才能让智能体从Demo走向真正的生产环境。听完感觉对智能体开发的工程实践有了更清晰的图景。
其他
行业前沿与开源生态,整合行业深度洞察与开源技术动态的复合型主题,技术哲学、AGI 讨论、领袖观点。
1.Attacks On Data Centers, Qwen3.5 In All Sizes, DeepSeek’s Huawei Play, and more…(deeplearning.ai)
这期内容真是信息量爆炸!吴恩达提醒我们,在AI浪潮中别只顾着追技术,建立人脉和培养可叠加的技能才是真正的护城河。更让人紧张的是,伊朗无人机居然攻击了AWS数据中心,原来物理基础设施也成了战场前线,AI系统正把战争节奏加速到“机器速度”。不过也有好消息,阿里发布的Qwen3.5模型家族太惊艳了,小尺寸模型性能居然能碾压大模型,看来参数规模不再是决定性能的唯一标准。
2.离开 meta 三个月后的国内首访:田渊栋的科学与诗(深思圈)
前Meta研究员田渊栋这次访谈真是戳中了不少痛点。他提出的‘费米线’概念特别有意思——AI正在不断上移能力边界,那些重复性技能的价值正在归零,未来只有具备独特创造力和深层问题解决能力的人才能生存。他还毫不客气地批评了大厂的组织病变,层层汇报导致信息失真,高层决策脱离实际,团队只能陷入激进的追赶和‘Hack’式开发。更让人深思的是他对当前AI架构的质疑,Transformer架构已经十年没变了,线性注意力根本替代不了全注意力,现有的概率模型也模拟不了人类的‘顿悟’瞬间。他反复强调盲目堆砌算力就是偷懒,真正该做的是‘打开黑箱’,理解智能涌现背后的物理机制。最后那个观点特别触动我:AI可以生成内容,但永远无法模拟人类表达的动因和感动的瞬间,垂直深度和独特品味才是我们最后的护城河。
3.#464.Andrej Karpathy 谈代码智能体、自主研究与人工智能的循环时代(跨国串门儿计划)
Andrej Karpathy最近分享了他完全放弃手写代码、进入“AI精神官能症”状态的有趣经历。他现在就像个指挥官,同时指挥多个智能体并行工作,把生产力瓶颈从打字速度变成了Token吞吐量。他还展示了智能体如何接管智能家居,以及“AutoResearch”这种递归自我改进的模型,居然在超参数微调上超越了他二十年的研究经验。Karpathy特别提到AI在可验证领域(比如代码)和非可验证领域(比如幽默感)之间的智能差异,还讨论了开源与闭源模型的平衡。基于“杰文斯悖论”,他预言软件工程会因为成本降低而迎来需求大爆炸,最后还大胆预测教育模式会从“人教人”转向“代理导向”,未来知识可能都得为AI代理编写,让它们以个性化、无限耐心的方式教我们。这简直是把传统教学模式给颠覆了!
4.Inside the New Media Team with Marc Andreessen & Ben Horowitz(a16z)
a16z两位大佬最近聊了个超有意思的话题:在数字时代,企业该怎么玩转媒体?他们直接开炮说,传统那种小心翼翼、总想控制信息的公关模式早就过时了。现在得用“淹没区域”策略——与其被动防守,不如主动出击,用海量有趣的内容把负面声音冲淡。他们特别强调,创始人亲自上阵比包装完美的企业形象管用多了,真实甚至带点争议的观点反而更吸引人。还提到播客这类长篇内容能防止观点被断章取义,甚至把军事上的OODA循环搬过来,用速度碾压传统媒体的反应周期。最酷的是a16z自己搞的“媒体即服务”,直接给投资公司配专业团队做内容、搞分发,把媒体变成增长引擎。这整套思路简直是把公关从成本中心变成了战略武器。
5.#461. A16z 创始人 Marc Andreessen:世界比你想象的更有可塑性,拆解传奇创始人的“硬核”管理学(跨国串门儿计划)
硅谷传奇人物Marc Andreessen这次分享的观点真的让人耳目一新!他提出顶级创业者有个反直觉的超能力叫“零内省”——那些最成功的创始人很少纠结于自我批判或回顾过去,这种特质让他们在剧烈变化中保持情绪稳定,专注眼前建设。更颠覆的是,他认为21世纪应该回归“创始人管理模式”,在技术颠覆期,训练创始人掌握管理技能比教职业经理人创新要靠谱得多。他还揭秘了a16z如何借鉴好莱坞经纪公司的“方阵”模式,把风投从孤狼式个体行为变成规模化服务平台。最震撼的是对马斯克工作流的解析——每5分钟一个决策、直接与一线工程师沟通,这种极速迭代循环简直是行业降维打击的杀手锏。听完这些,你会重新思考什么才是真正高效的管理。
6.独家对话谢赛宁:逃出硅谷!(语言即世界language is world)
硅谷现在是不是被大语言模型给“催眠”了?华人AI学者谢赛宁在访谈里提出了一个相当尖锐的观点。他认为LLM本质上只是依赖人类语言抽象的“虚拟智能”,在理解物理世界上存在根本缺陷——语言就像一种“鸦片”,会污染模型对真实世界的感知。他和图灵奖得主Yann LeCun创立的AMI Labs正在走一条完全不同的路:不预测下一个字符,而是预测环境的下一状态,构建能真正理解物理动力学的“世界模型”。更让人深思的是,谢赛宁觉得我们整天讨论AGI可能有点自大了,真正的智能挑战其实是让AI像松鼠一样在物理世界生存。他们的组织模式也挺特别,采取去中心化联盟,想用非互联网的“隐形数据”来打破硅谷的LLM霸权。这访谈确实在提醒我们,AI的未来可能不在文本里,而在我们每天触摸的真实世界里。
7.133. 对谢赛宁的 7 小时马拉松访谈:世界模型、逃出硅谷、AMI Labs、两次拒绝 Ilya、杨立昆、李飞飞和 42(张小珺Jùn|商业访谈录)
谢赛宁这次访谈真是把硅谷的LLM狂热给戳破了!他直指现在大家都沉迷于语言模型,却忘了真正的智能需要理解物理世界——就像机器人要能预测杯子掉下来会碎,光靠文字描述可不够。他坚持了十几年的表征学习,从ResNeXt到DiT,核心就是让AI从混乱数据里提取出有意义的模式,这比单纯玩文字游戏更接近通用智能的本质。最让人共鸣的是他对科研的看法:别总想着在热门赛道上卷排名,真正厉害的是能定义出别人没发现的关键问题。他正在做的世界模型也不是简单的视频生成器,而是要让AI能推理、能规划、能记住过去,还能安全地帮我们做决策。听完这场对话,你会觉得AI的未来远不止聊天机器人那么简单。