作者:George Sivulka 编译:深潮 TechFlow 深潮导读: AI 让个人效率提升了 10 倍,但没有一家公司因此变得 10 倍值钱。a16z 投资人 George Sivulka(同时也是 AI 公司 Hebbia 创始人)认为,问题不在技术本身,而在于组织没有跟着重构。他提出了区分「机构级 AI」和作者:George Sivulka 编译:深潮 TechFlow 深潮导读: AI 让个人效率提升了 10 倍,但没有一家公司因此变得 10 倍值钱。a16z 投资人 George Sivulka(同时也是 AI 公司 Hebbia 创始人)认为,问题不在技术本身,而在于组织没有跟着重构。他提出了区分「机构级 AI」和

a16z:AI 让每个人效率翻 10 倍,但没有一家公司因此值钱 10 倍

2026/03/13 04:28
阅读时长 27 分钟
如需对本内容提供反馈或相关疑问,请通过邮箱 crypto.news@mexc.com 联系我们。
问题不在技术本身,而在于组织没有跟着重构。

作者:George Sivulka

编译:深潮 TechFlow

深潮导读: AI 让个人效率提升了 10 倍,但没有一家公司因此变得 10 倍值钱。a16z 投资人 George Sivulka(同时也是 AI 公司 Hebbia 创始人)认为,问题不在技术本身,而在于组织没有跟着重构。他提出了区分「机构级 AI」和「个人级 AI」的七大维度——协调、信号、偏见、边缘优势、结果导向、赋能和无需提示——本质上是在说:换了电动机不够,你得重新设计整个工厂。

全文如下:

AI 刚刚让每个人的生产力提升了 10 倍。

没有一家公司因此变得 10 倍值钱。

生产力去哪了?

这不是第一次发生。

1890 年代,电力承诺了巨大的生产力提升。

新英格兰的纺织厂,原本是围绕蒸汽机的旋转动力建造的,很快就把蒸汽机换成了更快的电动马达。

但整整三十年,电气化的工厂几乎没有提升产出。技术远远领先了。但组织没跟上。

直到 1920 年代,工厂彻底重新设计了生产线——流水线、每台设备装独立电机、工人和机器执行完全不同的工种——电气化才产生了真正的回报。

图注:洛厄尔纺织厂的三次进化。从左到右:1890 年蒸汽动力工厂、1900 年电力驱动工厂、1920 年「单元驱动」工厂(即从零开始重建为电力流水线)。

回报不是来自技术本身,也不是来自让单个工人或机器纺线更快。而是当我们终于把制度和技术一起重新设计的时候,收益才真正兑现。

这是技术史上最昂贵的教训,而我们现在正在重新上这一课。

2026 年,AI 正在为那些懂得利用它的人带来 10 倍的生产力提升。但这还不够。我们换了电动机,但还没有重新设计工厂。

因为一个简单的事实:高效的个体不等于高效的组织。

绝大多数 AI 产品给人的是「高效」的感觉,但没有真正推动价值。你看到的大部分 AI 使用案例,是个人在 Twitter 或公司 Slack 里自我陶醉式的「效率 max」,实际影响为零。

过去一年反复提及的「服务即软件」说法方向没错,但没给出蓝图。而且它忽略了更大的图景。真正的转变不是从工具到服务,而是把技术和制度一起建设(不管是改造旧的还是从零开始)。一个真正高效的未来需要全新品类的产品——明天的流水线。

高效的组织需要「机构级智能」。

这篇文章会深入分析区分「机构级 AI」和「个人级 AI」的七大维度。未来十年整个 B2B AI 领域的公司都会建立在这些差异之上:

图注:机构级智能的七大支柱对比表

机构级智能的七大支柱

1. 协调

个人级 AI 制造混乱。

机构级 AI 创造协调。

先来一个思想实验。假设你明天把组织的人数翻倍,全部克隆你最优秀的员工。

这些员工每个人都有微小的差异、偏好、怪癖和视角(你最好的员工尤其如此)。如果管理不到位,沟通不充分,职责分工、OKR、角色边界没有定义清楚……你创造的是混乱。

按个人来衡量,组织可能更高效了。但成千上万的 Agent(或人类)各划各的桨、方向相反,好的结果是原地不动,坏的结果是把组织凝聚力拆碎。

这不是假设。每一个在没有协调层的情况下采用 AI 的组织,现在就在经历这件事。每个员工都有自己的 ChatGPT 使用习惯、自己的 prompt 风格、自己的产出——和别人的产出毫无衔接。组织架构图可能还在,但 AI 生成的工作实际上走的是另一条线。

图注:高效的个体(或 Agent)各自朝不同方向划桨。没有协调,就是混乱。

协调是绝对的硬需求,对人类和 Agent 都一样。

机构级智能将催生一个完整的「Agent 管理」行业——聚焦于 Agent 的角色与职责、Agent 之间及 Agent 与人类之间的沟通、以及如何衡量 Agent 的价值(光靠按量计费远远不够)。

2. 信号

个人级 AI 制造噪音。

机构级 AI 找到信号。

今天的人类可以创造——或者说生成——任何能想到的东西:AI 写的文章、演示文稿、电子表格、照片、视频、歌曲、网站、软件。多好的礼物。

问题是,AI 生成的绝大部分内容是彻头彻尾的垃圾。AI 垃圾的泛滥已经严重到一些组织矫枉过正,干脆禁止所有 AI 产出。说实话我自己也有同感——我经营一家 AI 公司,但要求高管团队不要在任何最终文字产品上使用 AI。我受不了那些垃圾。

想想 PE(私募股权)行业正在变成什么样。去年,你桌上可能收到 10 个交易机会。今年,下个季度你会收到 50 个机会,每一个都被 AI 打磨得无可挑剔,而你判断的时间还是一样多——得从里面找到那一个真正靠谱的。

生成任何东西已经不是问题了。对任何正经组织来说,现在的问题是生成并筛选出正确的东西。在一个 AI 驱动的世界里,找到那一个好的成果物、那一笔好的交易、噪音中的信号,变得越来越关键。未来十年的核心经济驱动力,就是从指数级增长的垃圾山中挖出信号。

图注:个人生产力工具产生的 AI 垃圾正在以指数速度增殖。人类自己已经没法从噪音中分拣,需要一类新的机构级 AI 产品。

机构级智能必须找到信号,必须结构化噪音以穿透垃圾,而且在工作中必须是可定义、确定性、可审计的。

个人级 AI 可能强调 Clawdbot 那种「永远在线」的生产力,以不可预测的方式 24/7 满足你的需求——本质上是非确定性 Agent。机构级 AI 则依赖确定性 Agent 的可靠性。有可预测检查点、步骤和流程的 Agent 才能规模化、才能发现信号,并通过这些信号为组织驱动收入回报。

图注:Matrix 是一款利用生成式技术穿透噪音的工具,由此打开了一个确定性 Agent 和检查点的世界。

3. 偏见

个人级 AI 喂养偏见。

机构级 AI 创造客观性。

围绕社会政治偏见的讨论主导了好几年的 AI 话语。基础模型实验室最终通过足够多的 RLHF 绕过了这个问题,把所有模型调成了谄媚者。今天,ChatGPT、Claude 等模型对齐得过了头,在奥弗顿窗口内的任何话题上都会赞同你(有时候还会稍微越界,说的就是你 @Grok)。社会政治偏见的讨论消退了。但一个新问题取而代之。

这种对一切事情的过度附和已经荒谬到可笑。它本身成了一个 meme——Claude 那句条件反射般的「你说得完全对!」,不管你说的是不是真的完全对。

这听起来无害。不是的。

很多组织里最卖力推 AI 的人,可能很快就会是历史上表现最差的员工。想想为什么。

组织里表现最差的员工,每天几乎得不到任何正面反馈,很快就会有一个 ASI 全程赞同他们。他们会在心里说:「有史以来最聪明的智能体都同意我。是我的经理搞错了。」

这令人上瘾。也对组织有毒。

图注:个人级 AI 的回音室加剧分裂,让两个人渐行渐远,这种动态在规模化后会在原本一致的组织内制造派系。

这揭示了一件重要的事。个人生产力工具强化的是用户。但真正最该强化的是事实。

人类组织经过数千年的进化,建立了专门对抗这个问题的体系:

  • 投资委员会会议
  • 第三方尽职调查
  • 董事会
  • 美国政府的行政、立法、司法三权分立
  • 代议制民主,以及民主制度本身

图注:客观性甚至能缓解协调问题——把小分歧抑制而非放大。

组织很少因为员工缺乏信心而失败。它们失败是因为没有人愿意或能够说「不」。

机构级 AI 必须扮演这个角色。它不会被 RLHF 调教成讨好用户或附和他们的信念,而是要挑战他们的偏见。行为高效时给予正向反馈,偏离正轨时画出硬线、强制纠偏。

因此,组织内部最重要的 Agent 不会是「应声虫」,而是有纪律的「否决者」——质疑推理、暴露风险、执行标准。未来一些最有影响力的 AI 应用将围绕制度性约束来建设:AI 董事会成员、AI 审计师、AI 第三方测试、AI 合规……

4. 边缘优势

个人级 AI 优化使用量。

机构级 AI 优化边缘优势。

AI 的能力边界每周甚至每天都在移动。基础模型公司为了争夺每个人和每个组织,在快速迭代能力。

但经典的创新者困境告诉我们,在具体应用上,深度永远打败广度:

  • @Midjourney 的工作是在设计图像上保持微弱领先。
  • @Elevenlabsio 的工作是在语音模型上保持微弱领先。
  • @DecagonAI 的工作是在全栈客服体验上永远领先。

虽然基础模型会越来越接近,但对各领域专家来说,真正的边缘优势才是关键。很多最好的设计师用 @Midjourney,很多最好的语音 AI 公司用 @Elevenlabsio——因为即使基础模型在进步,专用应用对推动其特定边缘优势的不懈聚焦,本身就定义了优势。

只要专用解决方案也在进化,对经济成果真正关键的能力——对企业关键的能力——永远在专用产品这边。

这在金融领域体现得淋漓尽致——目前 LLM 开发最火热的领域。一旦某种能力普及了,按定义它就不会帮你跑赢市场。但如果前沿技术能产生一个短暂的 1% 小众优势?这 1% 可以撬动十亿美元级的回报。

图注:对于任何足够具体的任务,边缘优势由你在前沿技术之上搭建的机构级解决方案来定义。

我们的用户一直在超越前沿。LLM 的上下文窗口在四年里从 4K 增长到 100 万 token。我们有些用户在单次任务中处理 300 亿 token。今年我们已经看到了处理 1000 亿 token 任务的路径。每次基础模型能力提升,我们已经走得更远了。

图注:上下文窗口和其他能力一样是个移动靶。过去三年前沿实验室和 Hebbia 的上下文窗口演进对比。

面向广泛用户的通用性当然重要,尤其在让员工入门 AI 的阶段。但未来不会是人们使用 ChatGPT/Claude 或者垂直解决方案,而是 ChatGPT/Claude 加上垂直解决方案。

机构级智能必须利用领域专用的、甚至任务专用的 Agent。

我们会问自己一个听起来荒谬但并不荒谬的问题:

「AGI 会选择使用哪些 Agent 作为捷径?即使是超级智能也会想要针对特定领域的专用工具。」

AI 的能力边界永远在移动,那些利用真正边缘优势的组织才是赢家。其他人都在为一个非常昂贵的通用商品买单。

5. 结果

个人级 AI 节省时间。

机构级 AI 扩大收入。

@MaVolpi 曾经跟我说过一句话,重塑了我对向企业卖 AI 的认知:「如果你问任何 CEO 优先削减成本还是扩大收入,几乎所有人都会说收入。」

但今天市场上几乎每一个 AI 产品交付的都是降本——承诺帮你省时间、用更少的人做更多的事、或者替代人力。

机构级 AI 必须交付增量收益。而增量收益比省下的时间难被商品化得多。

拿 AI 辅助软件开发举例。代码 IDE 是有史以来最好的个人 AI 生产力工具之一,但它们已经面临来自 Claude Code(另一个个人级 AI 工具)的巨大冲击。Cognition 在玩一个完全不同的游戏。他们增长最稳的业务是用技术卖转型,而不是卖工具。我押注这种模式会有持久力。

纯软件「正在迅速变得不可投」。纯服务不可规模化。解决方案层——把技术和结果绑定在一起——才是持久价值沉淀的地方。

再看 M&A。个人级 AI 帮分析师更快地建模。机构级 AI 从一百个目标中识别出那一个值得追的交易对手,然后把搜索范围扩展到一千个。一个省时间,另一个创造收入。

图注:基础模型公司正在向垂直应用层移动。垂直应用层公司正在向解决方案层移动。

「向上游移动」是市场当前的自然引力。基础模型在向应用层走,应用层公司在向解决方案层走。

机构级智能就是解决方案层。而解决方案层——结果在的地方——将沉淀持久价值,捕获最大的收益空间。

6. 赋能

个人级 AI 给你一个工具。

机构级 AI 教你怎么用。

人类再聪明,也抗拒改变。

信不信由你,纽约现在还有成功的店铺不收信用卡。他们知道自己在亏钱,知道不收信用卡会亏钱,但就是不动。同样,在可预见的未来,某些组织里的某些员工,就是会拒绝使用 AI。

从纯人工组织转型为 AI 优先的混合组织,将是未来十年最持久、最具定义性的挑战。而且很多时候,组织中最高层、最重要的人,反而是最晚采用的。

https://substackcdn.com/image/fetch/f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F7a48c219-8440-4f27-a8eb-8c84778ac8df_687x332.png

图注:组织最高层——离「生产力工具操作」最远的人——往往是采用新技术最慢但最关键的群体。

Palantir 是唯一一家在过去两个月万亿美元科技股抛售潮中,还维持着超高估值倍数的「软件」公司。这是有原因的。Palantir 是第一批真正的「流程工程」公司之一。不管你叫它「流程工程」还是「编写 Claude 技能文件」,未来的机构级 AI 将催生一个行业:把企业流程编码进 Agent,并落地推行所需的变革管理。

图注:组织全面采用 AI 将跨越多个鸿沟,每一个都有自己的挑战。把流程上线 AI 将是主要推动力。

我敢说,流程工程将成为近期最重要的「技术」。

而在流程工程中,业务和行业专长——而非软件专长——才最关键。垂直解决方案会培养出在前线部署工程、实施和变革管理方面拥有专业知识的人才。

一家选择了 Hebbia 做全面部署的头部投行(前三名大行)说得最到位:他们之所以不跟某家大模型实验室合作,是因为「我们得给他们的团队解释什么是 CIM(保密信息备忘录)」。Claude 或 GPT 当然了解这个领域,但负责落地推广的团队不了解……

这个差别决定了一切。

7. 无需提示

个人级 AI 响应人类的 prompt。

机构级 AI 主动行动,不需要 prompt。

关于 Agent 之间通信、未来的企业和制度是否还需要人类,讨论很多。

但更好的问题是:未来的 AI Agent 是否还需要 prompt?

给 AGI 写 prompt,就像把电动机接到手工织布机上。它从根本上、不可逆转地受限于组织供应链中最薄弱的环节——我们自己。人类根本不知道该问什么正确的问题,更别说什么时候问。

AI 能做的最有价值的工作,是那些没人想到要问的工作。AI 应该找到没人发现的风险、没人想到的交易对手、没人知道存在的销售管线。

这将彻底打开 AI 用例的边界。

一个无需提示的系统持续监控整个投资组合的数据流。它发现某家被投公司的运营资本周期已经连续三个月悄悄恶化,与信贷协议中的契约条款做交叉比对,在基金里任何人打开那份 PDF 之前就通知了运营合伙人。

当你不再需要人类来给 AI 写 prompt,新的界面和新的工作方式就出现了。我们 @Hebbia 在这方面有很强的想法。后续再聊。

结语

以上这些并不否定聊天机器人、Agent 和个人级 AI 的价值。

个人级 AI 将是全球大多数企业第一次体验 AI 变革魔力的载体。推动使用量、推动易用性,是建设 AI 优先经济所需的变革管理的关键第一步。

但与此同时,对机构级智能的需求是明确的、紧迫的、巨大的。

未来每个组织都会有一个来自大模型实验室的聊天机器人。每个组织也会有为特定领域问题专门打造的机构级 AI——而个人级 AI 会把机构级 AI 当作自己工具箱里最关键的工具来使用。

机构级 AI 和个人级 AI「更好地结合」是必然趋势。

但请记住 1890 年代纺织厂的教训。最先通电的工厂,输给了重新设计车间的工厂。

我们已经有了电力。是时候重新设计我们的工厂了。

感谢 @aleximm 和 @WillManidis 的审阅,以及 Will 的「工具形状的物体」一文对本文的启发。

市场机遇
Prompt 图标
Prompt实时价格 (PROMPT)
$0.04152
$0.04152$0.04152
+1.26%
USD
Prompt (PROMPT) 实时价格图表
免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 crypto.news@mexc.com 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。