header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

a16z:AI让每个人效率翻10倍,但真正的赢家还没出现

阅读本文需 28 分钟
机构级 AI 和个人级 AI「更好地结合」是必然趋势。
原文标题:Institutional AI vs Individual AI
原文作者:George Sivulka,a16z
原文编译:深潮 TechFlow


AI 刚刚让每个人的生产力提升了 10 倍。


没有一家公司因此变得 10 倍值钱。


生产力去哪了?


这不是第一次发生。


1890 年代,电力承诺了巨大的生产力提升。


新英格兰的纺织厂,原本是围绕蒸汽机的旋转动力建造的,很快就把蒸汽机换成了更快的电动马达。


但整整三十年,电气化的工厂几乎没有提升产出。技术远远领先了。但组织没跟上。


直到 1920 年代,工厂彻底重新设计了生产线——流水线、每台设备装独立电机、工人和机器执行完全不同的工种——电气化才产生了真正的回报。


图注:洛厄尔纺织厂的三次进化。从左到右:1890 年蒸汽动力工厂、1900 年电力驱动工厂、1920 年「单元驱动」工厂(即从零开始重建为电力流水线)。


回报不是来自技术本身,也不是来自让单个工人或机器纺线更快。而是当我们终于把制度和技术一起重新设计的时候,收益才真正兑现。


这是技术史上最昂贵的教训,而我们现在正在重新上这一课。


2026 年,AI 正在为那些懂得利用它的人带来 10 倍的生产力提升。但这还不够。我们换了电动机,但还没有重新设计工厂。


因为一个简单的事实:高效的个体不等于高效的组织。


绝大多数 AI 产品给人的是「高效」的感觉,但没有真正推动价值。你看到的大部分 AI 使用案例,是个人在 Twitter 或公司 Slack 里自我陶醉式的「效率 max」,实际影响为零。



过去一年反复提及的「服务即软件」说法方向没错,但没给出蓝图。而且它忽略了更大的图景。真正的转变不是从工具到服务,而是把技术和制度一起建设(不管是改造旧的还是从零开始)。一个真正高效的未来需要全新品类的产品——明天的流水线。


高效的组织需要「机构级智能」。


这篇文章会深入分析区分「机构级 AI」和「个人级 AI」的七大维度。未来十年整个 B2B AI 领域的公司都会建立在这些差异之上:


图注:机构级智能的七大支柱对比表


机构级智能的七大支柱


1. 协调


个人级 AI 制造混乱。


机构级 AI 创造协调。


先来一个思想实验。假设你明天把组织的人数翻倍,全部克隆你最优秀的员工。


这些员工每个人都有微小的差异、偏好、怪癖和视角(你最好的员工尤其如此)。如果管理不到位,沟通不充分,职责分工、OKR、角色边界没有定义清楚……你创造的是混乱。


按个人来衡量,组织可能更高效了。但成千上万的 Agent(或人类)各划各的桨、方向相反,好的结果是原地不动,坏的结果是把组织凝聚力拆碎。


这不是假设。每一个在没有协调层的情况下采用 AI 的组织,现在就在经历这件事。每个员工都有自己的 ChatGPT 使用习惯、自己的 prompt 风格、自己的产出——和别人的产出毫无衔接。组织架构图可能还在,但 AI 生成的工作实际上走的是另一条线。


图注:高效的个体(或 Agent)各自朝不同方向划桨。没有协调,就是混乱。


协调是绝对的硬需求,对人类和 Agent 都一样。


机构级智能将催生一个完整的「Agent 管理」行业——聚焦于 Agent 的角色与职责、Agent 之间及 Agent 与人类之间的沟通、以及如何衡量 Agent 的价值(光靠按量计费远远不够)。


2. 信号


个人级 AI 制造噪音。


机构级 AI 找到信号。


今天的人类可以创造——或者说生成——任何能想到的东西:AI 写的文章、演示文稿、电子表格、照片、视频、歌曲、网站、软件。多好的礼物。


问题是,AI 生成的绝大部分内容是彻头彻尾的垃圾。AI 垃圾的泛滥已经严重到一些组织矫枉过正,干脆禁止所有 AI 产出。说实话我自己也有同感——我经营一家 AI 公司,但要求高管团队不要在任何最终文字产品上使用 AI。我受不了那些垃圾。


想想 PE(私募股权)行业正在变成什么样。去年,你桌上可能收到 10 个交易机会。今年,下个季度你会收到 50 个机会,每一个都被 AI 打磨得无可挑剔,而你判断的时间还是一样多——得从里面找到那一个真正靠谱的。


生成任何东西已经不是问题了。对任何正经组织来说,现在的问题是生成并筛选出正确的东西。在一个 AI 驱动的世界里,找到那一个好的成果物、那一笔好的交易、噪音中的信号,变得越来越关键。未来十年的核心经济驱动力,就是从指数级增长的垃圾山中挖出信号。


图注:个人生产力工具产生的 AI 垃圾正在以指数速度增殖。人类自己已经没法从噪音中分拣,需要一类新的机构级 AI 产品。


机构级智能必须找到信号,必须结构化噪音以穿透垃圾,而且在工作中必须是可定义、确定性、可审计的。


个人级 AI 可能强调 Clawdbot 那种「永远在线」的生产力,以不可预测的方式 24/7 满足你的需求——本质上是非确定性 Agent。机构级 AI 则依赖确定性 Agent 的可靠性。有可预测检查点、步骤和流程的 Agent 才能规模化、才能发现信号,并通过这些信号为组织驱动收入回报。


图注:Matrix 是一款利用生成式技术穿透噪音的工具,由此打开了一个确定性 Agent 和检查点的世界。


3. 偏见


个人级 AI 喂养偏见。


机构级 AI 创造客观性。


围绕社会政治偏见的讨论主导了好几年的 AI 话语。基础模型实验室最终通过足够多的 RLHF 绕过了这个问题,把所有模型调成了谄媚者。今天,ChatGPT、Claude 等模型对齐得过了头,在奥弗顿窗口内的任何话题上都会赞同你(有时候还会稍微越界,说的就是你 @Grok)。社会政治偏见的讨论消退了。但一个新问题取而代之。


这种对一切事情的过度附和已经荒谬到可笑。它本身成了一个 meme——Claude 那句条件反射般的「你说得完全对!」,不管你说的是不是真的完全对。



这听起来无害。不是的。


很多组织里最卖力推 AI 的人,可能很快就会是历史上表现最差的员工。想想为什么。


组织里表现最差的员工,每天几乎得不到任何正面反馈,很快就会有一个 ASI 全程赞同他们。他们会在心里说:「有史以来最聪明的智能体都同意我。是我的经理搞错了。」


这令人上瘾。也对组织有毒。


图注:个人级 AI 的回音室加剧分裂,让两个人渐行渐远,这种动态在规模化后会在原本一致的组织内制造派系。


这揭示了一件重要的事。个人生产力工具强化的是用户。但真正最该强化的是事实。


人类组织经过数千年的进化,建立了专门对抗这个问题的体系:


· 投资委员会会议

· 第三方尽职调

· 查董事会

· 美国政府的行政、立法、司法三权分立

· 代议制民主,以及民主制度本身


图注:客观性甚至能缓解协调问题——把小分歧抑制而非放大。


组织很少因为员工缺乏信心而失败。它们失败是因为没有人愿意或能够说「不」。


机构级 AI 必须扮演这个角色。它不会被 RLHF 调教成讨好用户或附和他们的信念,而是要挑战他们的偏见。行为高效时给予正向反馈,偏离正轨时画出硬线、强制纠偏。


因此,组织内部最重要的 Agent 不会是「应声虫」,而是有纪律的「否决者」——质疑推理、暴露风险、执行标准。未来一些最有影响力的 AI 应用将围绕制度性约束来建设:AI 董事会成员、AI 审计师、AI 第三方测试、AI 合规……


4. 边缘优势


个人级 AI 优化使用量。


机构级 AI 优化边缘优势。


AI 的能力边界每周甚至每天都在移动。基础模型公司为了争夺每个人和每个组织,在快速迭代能力。


但经典的创新者困境告诉我们,在具体应用上,深度永远打败广度:


· @Midjourney 的工作是在设计图像上保持微弱领先。


· @Elevenlabsio 的工作是在语音模型上保持微弱领先。


· @DecagonAI 的工作是在全栈客服体验上永远领先。


虽然基础模型会越来越接近,但对各领域专家来说,真正的边缘优势才是关键。


很多最好的设计师用 @Midjourney,很多最好的语音 AI 公司用 @Elevenlabsio——因为即使基础模型在进步,专用应用对推动其特定边缘优势的不懈聚焦,本身就定义了优势。


只要专用解决方案也在进化,对经济成果真正关键的能力——对企业关键的能力——永远在专用产品这边。


这在金融领域体现得淋漓尽致——目前 LLM 开发最火热的领域。一旦某种能力普及了,按定义它就不会帮你跑赢市场。但如果前沿技术能产生一个短暂的 1% 小众优势?这 1% 可以撬动十亿美元级的回报。


图注:对于任何足够具体的任务,边缘优势由你在前沿技术之上搭建的机构级解决方案来定义。


我们的用户一直在超越前沿。LLM 的上下文窗口在四年里从 4K 增长到 100 万 token。我们有些用户在单次任务中处理 300 亿 token。今年我们已经看到了处理 1000 亿 token 任务的路径。每次基础模型能力提升,我们已经走得更远了。


图注:上下文窗口和其他能力一样是个移动靶。过去三年前沿实验室和 Hebbia 的上下文窗口演进对比。


面向广泛用户的通用性当然重要,尤其在让员工入门 AI 的阶段。但未来不会是人们使用 ChatGPT/Claude 或者垂直解决方案,而是 ChatGPT/Claude 加上垂直解决方案。


机构级智能必须利用领域专用的、甚至任务专用的 Agent。


我们会问自己一个听起来荒谬但并不荒谬的问题:


「AGI 会选择使用哪些 Agent 作为捷径?即使是超级智能也会想要针对特定领域的专用工具。」


AI 的能力边界永远在移动,那些利用真正边缘优势的组织才是赢家。其他人都在为一个非常昂贵的通用商品买单。


5. 结果


个人级 AI 节省时间。


机构级 AI 扩大收入。


@MaVolpi 曾经跟我说过一句话,重塑了我对向企业卖 AI 的认知:「如果你问任何 CEO 优先削减成本还是扩大收入,几乎所有人都会说收入。」


但今天市场上几乎每一个 AI 产品交付的都是降本——承诺帮你省时间、用更少的人做更多的事、或者替代人力。


机构级 AI 必须交付增量收益。而增量收益比省下的时间难被商品化得多。


拿 AI 辅助软件开发举例。代码 IDE 是有史以来最好的个人 AI 生产力工具之一,但它们已经面临来自 Claude Code(另一个个人级 AI 工具)的巨大冲击。Cognition 在玩一个完全不同的游戏。他们增长最稳的业务是用技术卖转型,而不是卖工具。我押注这种模式会有持久力。



纯软件「正在迅速变得不可投」。纯服务不可规模化。解决方案层——把技术和结果绑定在一起——才是持久价值沉淀的地方。


再看 M&A。个人级 AI 帮分析师更快地建模。机构级 AI 从一百个目标中识别出那一个值得追的交易对手,然后把搜索范围扩展到一千个。一个省时间,另一个创造收入。


图注:基础模型公司正在向垂直应用层移动。垂直应用层公司正在向解决方案层移动。


「向上游移动」是市场当前的自然引力。基础模型在向应用层走,应用层公司在向解决方案层走。


机构级智能就是解决方案层。而解决方案层——结果在的地方——将沉淀持久价值,捕获最大的收益空间。


6. 赋能


个人级 AI 给你一个工具。


机构级 AI 教你怎么用。


人类再聪明,也抗拒改变。


信不信由你,纽约现在还有成功的店铺不收信用卡。他们知道自己在亏钱,知道不收信用卡会亏钱,但就是不动。同样,在可预见的未来,某些组织里的某些员工,就是会拒绝使用 AI。


从纯人工组织转型为 AI 优先的混合组织,将是未来十年最持久、最具定义性的挑战。而且很多时候,组织中最高层、最重要的人,反而是最晚采用的。


图注:组织最高层——离「生产力工具操作」最远的人——往往是采用新技术最慢但最关键的群体。


Palantir 是唯一一家在过去两个月万亿美元科技股抛售潮中,还维持着超高估值倍数的「软件」公司。这是有原因的。Palantir 是第一批真正的「流程工程」公司之一。不管你叫它「流程工程」还是「编写 Claude 技能文件」,未来的机构级 AI 将催生一个行业:把企业流程编码进 Agent,并落地推行所需的变革管理。


图注:组织全面采用 AI 将跨越多个鸿沟,每一个都有自己的挑战。把流程上线 AI 将是主要推动力。


我敢说,流程工程将成为近期最重要的「技术」。


而在流程工程中,业务和行业专长——而非软件专长——才最关键。垂直解决方案会培养出在前线部署工程、实施和变革管理方面拥有专业知识的人才。


一家选择了 Hebbia 做全面部署的头部投行(前三名大行)说得最到位:他们之所以不跟某家大模型实验室合作,是因为「我们得给他们的团队解释什么是 CIM(保密信息备忘录)」。Claude 或 GPT 当然了解这个领域,但负责落地推广的团队不了解……


这个差别决定了一切。


7. 无需提示


个人级 AI 响应人类的 prompt。


机构级 AI 主动行动,不需要 prompt。


关于 Agent 之间通信、未来的企业和制度是否还需要人类,讨论很多。


但更好的问题是:未来的 AI Agent 是否还需要 prompt?


给 AGI 写 prompt,就像把电动机接到手工织布机上。它从根本上、不可逆转地受限于组织供应链中最薄弱的环节——我们自己。人类根本不知道该问什么正确的问题,更别说什么时候问。


AI 能做的最有价值的工作,是那些没人想到要问的工作。AI 应该找到没人发现的风险、没人想到的交易对手、没人知道存在的销售管线。


这将彻底打开 AI 用例的边界。


一个无需提示的系统持续监控整个投资组合的数据流。它发现某家被投公司的运营资本周期已经连续三个月悄悄恶化,与信贷协议中的契约条款做交叉比对,在基金里任何人打开那份 PDF 之前就通知了运营合伙人。


当你不再需要人类来给 AI 写 prompt,新的界面和新的工作方式就出现了。我们 @Hebbia 在这方面有很强的想法。后续再聊。


结语


以上这些并不否定聊天机器人、Agent 和个人级 AI 的价值。


个人级 AI 将是全球大多数企业第一次体验 AI 变革魔力的载体。推动使用量、推动易用性,是建设 AI 优先经济所需的变革管理的关键第一步。


但与此同时,对机构级智能的需求是明确的、紧迫的、巨大的。


未来每个组织都会有一个来自大模型实验室的聊天机器人。每个组织也会有为特定领域问题专门打造的机构级 AI——而个人级 AI 会把机构级 AI 当作自己工具箱里最关键的工具来使用。


机构级 AI 和个人级 AI「更好地结合」是必然趋势。


但请记住 1890 年代纺织厂的教训。最先通电的工厂,输给了重新设计车间的工厂。


我们已经有了电力。是时候重新设计我们的工厂了。


感谢 @aleximm 和 @WillManidis 的审阅,以及 Will 的「工具形状的物体」一文对本文的启发。


原文链接


点击了解律动BlockBeats 在招岗位


欢迎加入律动 BlockBeats 官方社群:

Telegram 订阅群:https://t.me/theblockbeats

Telegram 交流群:https://t.me/BlockBeats_App

Twitter 官方账号:https://twitter.com/BlockBeatsAsia

AI 解读
这篇文章触及了当前AI浪潮中一个极其深刻却常被忽视的核心矛盾:个体生产力的爆炸式增长并未自动转化为组织层面的同等价值提升。作者通过电力革命的类比精准地指出,问题不在技术本身,而在于组织架构和流程的滞后。仅仅将AI作为工具分发给个人(如同给旧工厂换上电动机),而不对工作流、协调机制和决策体系进行根本性重构,生产力的增益就会在组织的摩擦与混乱中耗散。

其提出的“机构级AI”与“个人级AI”的七大维度,本质上是在勾勒一套全新的组织运作范式。这远不止是购买软件或服务,而是将智能深度嵌入组织的制度设计。例如,“协调”维度指出,无数高效但方向各异的AI代理(Agent)若无协同,其产生的将是内耗而非合力;“偏见”维度则洞察到,一味讨好用户的AI会强化组织内部的认知茧房,而机构级AI需要扮演“有纪律的否决者”角色,引入客观性和制衡,这直接呼应了人类为对抗集体谬误而设计的董事会、司法等制度。

“边缘优势”和“结果”维度尤为关键,它们点明了价值捕获的真实路径。通用大模型的能力会迅速 commoditized(商品化),真正的竞争优势来自于在特定领域构建的、持续迭代的专用解决方案,并且其价值衡量标准应从“节省时间”转向“创造增量收入”。最终,最高形态的“无需提示”的AI,意味着智能体能够主动洞察并响应组织需求,将人类从认知瓶颈中解放出来。

这预示着一个必然趋势:未来的竞争将不再是模型能力的竞争,而是看哪个组织能更有效地将AI深度融入其制度基因,完成从“工具应用”到“系统重构”的跃迁。那些只停留在给员工配备ChatGPT的公司,很可能如同当年只更换了电动机却保留旧生产线的纺织厂,终将被彻底重新设计过的“新工厂”所淘汰。
展开
选择文库
新增文库
取消
完成
新增文库
仅自己可见
公开
保存
纠错/举报
提交