回到主页

如何构建场景图谱

How to build a context graph

· 场景图谱,构建,双时钟,世界模型

原文地址:https://x.com/akoratana/status/2005303231660867619

Jaya最近写了一篇关于上下文图谱的文章,这一层能够捕捉决策轨迹,而不仅仅是数据。我的观点是:下一个万亿美元平台并非通过在现有记录系统中增加人工智能来构建,而是通过捕捉连接数据和行动的推理过程来构建。

这篇文章引起了广泛的行业共鸣,从那以后,我收到了很多关于“如何才能真正建造一个场景图谱?”的问题。

答案并非“给你的智能体添加记忆”或连接 MCP。事实上,“图谱(Graph)”这个词本身就有点误导性,真正需要建模的东西远比静态图所包含的内容更加动态和概率性。

坦白说,这在结构上很难。不是那种“扩展计算能力”的难——而是需要重新审视你固有假设的难。如今上下文图谱并不存在,因为构建上下文图谱会让我们不得不直面那些几十年来一直忽视的问题。

每个组织都要付出碎片化成本:即手动拼凑原本从未被记录的上下文信息所付出的代价。不同的职能部门使用不同的工具,每个工具都只能看到同一底层现实的片面信息,上下文图谱是避免这种成本的基础设施,但要构建上下文图谱,首先必须理解这种成本存在的原因。

我对此的看法主要基于以下三个想法。

双钟问题

关于这件事情为什么这么难,我有一个直观的理解:我们现在所有的系统,都只围绕时间的一半维度而建设。

你的客户关系管理系统只存储最终成交价,不存储谈判过程。

你的工单系统只存储“已解决”状态,不存储问题原因。

你的代码库只存储当前状态,不存储产生该状态的两次架构争论。

我们为当下的现实建造了价值万亿美元的基础设施,却几乎没有为它成为现实的原因投入任何资金。

当人类作为推理层时,这种做法是合理的。组织架构由分散在各个大脑中的个体组成,并通过对话按需重构。如今,我们希望人工智能系统做出决策,却没有给它们提供任何推理依据。我们要求模型在缺乏先例的情况下进行判断。这就像在没有判例法的情况下,仅凭判决来训练律师一样。

配置文件里写的超时时间是 `timeout=30s`,以前是 `timeout=5s`。有人把它改成了三倍。为什么?git blame 工具能查到是谁改的,但背后的原因已经找不到了。

这种模式无处不在。客户关系管理系统显示“成交失败”,却没说你是第二选择,而最终胜出的那个友商有一个你下个季度就要推出的功能。治疗方案显示“已改用B药”,却没说A药原本有效,但保险公司不再报销。合同上写着60天终止条款,却没说客户坚持30天,而你为了降低责任上限而妥协了。

对这种情况我称之为“双时钟问题”。每个系统都有一个状态时钟——记录当下的真实状态——以及一个事件时钟——记录发生了什么,发生的顺序以及背后的原因。我们已经为状态时钟构建了复杂的架构,而事件时钟却几乎不存在。

状态很容易处理,它就是一个数据库。事件很难处理,因为它们转瞬即逝——发生后就消失了。状态会覆盖现有状态,而事件必须追加记录。事件时钟中最重要的部分——将观察结果与行动联系起来的推理过程——从未被视为数据。它存在于人们的脑海中、Slack 讨论串中,以及那些没有被记录的会议中。

有三件事使这件事变得困难:

    1. 大多数系统都无法完全观察。
      任何真实的系统都存在黑箱:遗留代码、第三方服务、组件间涌现行为等等。你无法捕捉到你看不见的事物背后的逻辑。
    1. 不存在通用的本体论。
      每个组织都有其自身的实体、关系和语义。“客户”在B2B SaaS公司和消费市场中的含义截然不同。上下文图谱无法预设结构,它必须学习结构。
    1. 一切都在变化。
      你所建模的系统每天都在变化,你记录的不是静态的现实,而是变化本身。

这些问题相互关联,我们要试图为一个只能部分观察、其结构需要去发现、且在不断变化的系统重建事件时钟。

大多数“知识图谱”项目失败的原因在于,它们将此视为一个静态问题:摄取文档、构建图谱、稍后进行查询。但文档只是静态状态。事件时钟需要捕获过程,而过程是动态的。

那么,对于一个你无法完全看到、无法完全构建模型、也无法保持静止的系统,你该如何构建一个事件时钟呢?

智能体作为感知型漫步者

本体论问题(Ontology)乍看之下似乎无解。每个组织都各不相同,每个系统都有其独特的结构。你无法标准化“决策如何运作”,就像你无法标准化“公司如何运作”一样。

但有一种东西,从定义上来说,就是能够驾驭任意系统:智能体(Agent)。

当智能体处理问题(调查问题、做出决策、完成任务)时,它会即时确定相关的本体。哪些实体重要?它们之间有何关系?我需要哪些信息?有哪些可执行的操作?

智能体解决问题的轨迹其在状态空间中的一条痕迹。它是本体论的隐式映射,是在使用过程中发现的,而不是预先指定的。

常规的嵌入向量是语义性的:含义相似,向量相近。这对于检索很有用,但并不符合我们的需求。我们需要的是能够编码结构化信息的嵌入向量——不是“这些概念语义相似”,而是“这些实体扮演的角色相似”或“这些事件在决策链路中同时发生”。

语义嵌入编码的是语义内涵,而组织推理要求我们对决策的结构和形式进行建模。

这些信息并非关乎语义内涵,而是关乎推理的模式。在解决问题的过程中,哪些实体会相互关联?哪些事件先于哪些事件发生?组织状态空间中的遍历模式是什么?

图表示学习领域中的一些直觉在这里很有帮助。图嵌入(node2vec)表明,学习图的表示并不需要了解图的结构。随机游走——即沿着边遍历访问一系列节点——就足够了,共现统计法则能对结构完成编码。频繁共同出现的节点之间存在关联,它们要么直接相连,要么在不同的邻域中扮演着类似的角色。

这颠覆了通常的假设。你不需要理解一个系统就能表示它。只要遍历足够多次,表示方法就会自然而然地出现。

模式(Schema)不是起点,而是输出。

Section image

但你的行走方式决定了你学习的内容。Node2vec 使用两个参数来控制行走偏差。局部行走(容易回溯)学习同质性——节点相似是因为它们彼此连接。全局行走(向外扩展)学习结构等价性——节点相似是因为它们扮演着类似的角色,即使它们从未直接连接。

假设公司里有两位资深工程师。一位负责支付,一位负责通知。他们没有共享的工单,没有重叠的代码,也没有共同的 Slack 频道。同质性理论认为他们并不相似。但从结构上看,他们是等价的——在不同的子图中扮演相同的角色,拥有相似的决策模式和类似的升级路径,结构等价性揭示了这一点。

智能体是具备决策依据的漫步者,而不是随机的个体。

当智能体调查问题或完成任务时,它会遍历组织状态空间。它会访问系统、读取数据、调用API。其轨迹是对组织实体图的一次遍历。

与随机游走不同,智能体的轨迹是问题导向的。智能体会根据其发现进行调整。例如,在调查生产环境中的事故时,智能体可能会从全局范围入手——所有系统中最近发生了哪些变化?这属于全局探索,即结构等效性领域。随着证据的积累,探索范围会缩小到特定服务、特定部署历史和特定请求路径,这属于局部探索,即同质性领域。

随机游走通过穷举覆盖来发现结构。而有意识的游走则通过问题导向的覆盖来发现结构。智能体跟随问题的指引而行,问题本身揭示了真正重要的东西。

如果设计得当,智能体轨迹就成为了事件时钟。

Section image

每条轨迹都对组织结构进行采样,并侧重于对实际工作至关重要的部分。积累数千条轨迹,就能得到组织运作方式的学习表征,这种表征是通过使用而发现的。

本体论源于游走,反复出现的实体是重要的实体。遍历的关系是真实的关系,当不同的主体在解决不同的问题时遵循类似的路径时,结构等价性便会显现出来。

这里蕴含着经济上的精妙之处。智能体并非在构建上下文图谱,而是在解决值得付费的问题,上下文图谱只是最终的产物。更完善的上下文能够提升智能体的能力,能力更强的智能体会被更频繁地部署,部署产生轨迹,轨迹构建上下文。但这只有在智能体执行的工作值得付出相应的计算成本时才有效。

场景图谱是组织的世界模型

有一个概念值得认真对待,因为它重新定义了上下文图谱的本质:世界模型。

世界模型是对环境运作方式的一种习得性、压缩性表示。它编码了动态特性,即在特定状态下执行操作后会发生什么。它捕捉了结构:存在哪些实体以及它们之间的关系。它还能够进行预测:给定当前状态和建议的操作,接下来会发生什么?

世界模型展示了一个重要的事实:智能体可以学习环境的压缩表征,并完全在“梦境”(即在潜在空间中模拟的轨迹)中进行训练。世界模型变成了一个模拟器,你可以运行假设情景并获得有用的答案,而无需在真实环境中执行。

这在机器人领域有着显而易见的类比。一个能够捕捉物理规律(物体如何下落、力如何传播)的世界模型,可以让你在执行动作之前进行模拟,在想象中训练策略,安全地探索危险场景,并将结果迁移到实际的硬件上。你的物理模型越完善,你的模拟就越有用。

同样的逻辑也适用于组织,但其运作机制有所不同。

组织物理学并非质量和动量,而是决策动力学——例外情况如何获得批准?升级如何传播?启用该功能标志时更改此配置会发生什么?在当前依赖关系状态下,部署到此服务的影响范围有多大?

状态时钟告诉你什么是真实的,事件时钟告诉你系统如何运行——而你需要模拟的正是这种运行方式。

积累了足够结构的上下文图谱可以构成组织物理学的世界模型。它编码了决策如何展开、状态变化如何传播以及实体如何交互。有了它,就可以进行模拟。

在 PlayerZero,我们构建代码模拟——将假设的变更投射到我们的生产系统模型上,并预测结果。给定一项拟议的变更、当前配置和功能开关,以及用户使用系统的模式:这会破坏什么?故障模式是什么?哪些客户会受到影响?

这些模拟并非魔法,而是基于累积结构进行推断。我们已经观察了足够多的生产问题轨迹,从中总结出规律——哪些代码路径脆弱,哪些配置交互危险,哪些部署顺序会导致事故。世界模型编码了这些信息。模拟则是用假设条件查询该模型。

模拟是对理解的检验,如果你的上下文图谱无法回答“如果……会怎样”,那么它就只是一个搜索索引。

Section image

这对于持续学习的讨论有着更深远的意义。

许多人认为人工智能无法改变经济,因为模型无法在工作中学习——我们只能为每项能力构建定制的训练循环,这无法应对组织中庞大的知识体系,这个诊断是正确的。

但我认为这种传统的框架反而会分散注意力。持续学习的核心问题是:我们如何根据持续的经验更新权重?这很难——灾难性的遗忘、分布的变化、昂贵的再培训。

世界模型提出了一种替代方案:保持模型本身不变,改进它推理所基于的世界模型。

如果世界模型不断扩展,基础模型就不需要学习。

这就是智能体可以基于累积的上下文图谱进行的操作。每条轨迹都是关于组织动态的证据,在决策时刻,智能体可以基于这些证据进行推理:考虑到所有关于系统行为的信息,考虑到当前的观察结果,后验概率是多少?哪些行动会成功?

轨迹越多,推断效果越好。这并非因为模型更新了,而是因为世界模型扩展了。

由于世界模型支持模拟,因此可以获得更强大的功能:反事实推理。这不仅仅是“在类似情况下发生了什么?”,而是“如果我采取这种行动会发生什么?”。智能体会设想未来,评估它们,并据此做出选择。

这就是经验丰富的员工拥有,而新员工所不具备的优势。并非认知架构不同,而是拥有更完善的世界模型。他们经历过足够多的情况,能够模拟各种结果。“如果我们周五加班,值班人员周末就惨了。” 这并非简单的检索,而是基于系统行为的内部模型进行推理。

实现具有经济变革意义的人工智能之路,或许并非在于解决持续学习的问题,而在于构建世界模型,使静态模型能够通过扩展证据库和推理时计算,对这些证据库进行推理和模拟,从而表现得如同在学习一般。

模型就是引擎,上下文图谱是使引擎能够正常运行的世界模型。

这意味着什么

上下文图谱需要解决三个问题:

  1. 双时钟问题。我们耗资万亿美元构建了状态基础设施,却几乎没有投入任何资源用于推理。事件时钟必须重建。
  2. 以模式作为输出。组织本体无法预先定义。智能体轨迹通过问题导向的遍历来发现结构。嵌入是结构性的,而非语义性的——捕捉的是邻域和推理模式,而非意义。
  3. 世界模型,而非检索系统。积累了足够结构的上下文图谱会成为模拟器,它们编码了组织物理学——决策动态、状态传播、实体交互。模拟就是在测试,如果你能提出“如果……会怎样?”的问题并得到有用的答案,那么你就构建了真正有价值的东西。

这样做的公司将拥有截然不同的东西,它们不是完成任务的智能体,而是能够不断积累经验的组织智能。它们能够模拟未来,而不仅仅是回顾过去。它们基于已学习的世界模型进行推理,而不是从零开始。

这就是关键所在,不是更好的模型,而是更好的基础设施,让已部署的智能不断积累。