人与 AI 协作中的控制感、所有权与关键节点
副标题: 基于 Sense of Agency、Meaningful Human Control 和 Human–Machine Teaming 的跨学科研究
1. 项目/主题概述(What)
随着 AI 工具(Claude Code、Cursor、OpenClaw 等)在日常工作流中承担越来越多环节,一个问题正在浮现:人在这类协作中到底扮演什么角色?
本次研究的触发场景是:Jeff 在与 AI 协作过程中,感受到「AI 把有意思的部分做完了,自己只剩下审核和放行」,并由此引发了对「所有权」「控制感」「关键节点」的系统性思考。本报告将这些个人体验置于更广阔的跨学科研究背景下,整合心理学(Sense of Agency)、人机交互(HCI)、AI 伦理(Meaningful Human Control)和系统设计(Human–Machine Teaming)四个领域的文献,试图回答:在 AI 能完成大部分执行和创造工作的时代,人在协作中如何真正保持控制感和所有权?
2. 问题的理论结构
本次研究涉及的核心概念形成了三层嵌套结构:
第一层:心理学基础 — Sense of Agency(行动主体感)
人对「是我的行动产生了这个结果」的主观感受。神经科学研究发现,当因果链清晰时(意图→动作→结果),人会体验到「时间压缩」效应(intentional binding),这是行动主体感的可量化指标。
当 AI 介入因果链时,这条链就断裂了——你有了结果,但没有你的动作介入。行动主体感因此被稀释甚至消失。1(https://www.sciencedirect.com/science/article/pii/S0950705123010468)
第二层:人机交互研究 — Autonomy 和 Control 的张力
HCI 研究者早就注意到:自动化程度越高,人的「感知控制感」反而可能越低,而非越高2(https://www.tandfonline.com/doi/full/10.1080/10447318.2023.2189815)。这与直觉相悖——按理说 AI 替你做了更多,你应该更轻松才对。但实际上,「轻松」和「有控制感」是两件事。
当 AI 产出速度超过人可追溯的速度时,人会陷入「决策疲劳 + 上下文过载」,这正是 Jeff 描述的「被消耗感」的来源。
第三层:AI 伦理与治理 — Meaningful Human Control
AI 伦理领域提出的核心命题是:什么叫「真正的人类控制」?研究表明,仅仅在结果出来之后「批准或否决」并不等于 meaningful human control——那只是 supervisory control(监督式控制)。3(https://pmc.ncbi.nlm.nih.gov/articles/PMC9868906/)
真正的人类控制需要在关键决策节点上有能力介入、理解和改变路径。这意味着控制不是静态的「人在圈里」,而是动态的「人在对的时机做了对的事」。
3. 设计哲学 / 核心思想(重点)
3.1 「所有权」的本质是因果可追溯性
Jeff 说的「那东西不像是我的」,其本质不是「我没有动手」,而是「我无法追溯它是怎么产生的」。
这与心理学中「因果归因」(causal attribution)的研究高度吻合:当一个结果无法被追溯到清晰的决策路径时,人不会把它视为自己的所有物,即使他名义上有权批准它。4(https://arxiv.org/html/2411.03275v1)
关键洞察: 所有权感不来自于「署名」,而来自于「理解来路」。
导演在一部电影上署名,但导演理解每一个关键决定的来路——为什么选这个镜头,为什么否定那个方案。这才让一个作品「是导演的」。当 Jeff review 一个他无法追溯来路的 AI 方案时,他只是一个盖章的人,不是导演。
3.2 监督式控制和协作式控制是两种根本不同的关系模式
| 维度 | Supervisory Control(监督式) | Human–Machine Teaming(协作式) |
|---|---|---|
| 关系 | 上下级,人在上 AI 在下 | 合作者,平等但有分工 |
| 人做什么 | 批准/否决已完成的工作 | 在关键节点参与判断 |
| AI 做什么 | 执行后汇报 | 决策前暂停并解释 |
| 透明度 | 低(黑盒产出) | 高(路径可见) |
| 控制感来源 | 结果控制 | 过程理解 |
Jeff 目前跟 AI 的协作模式偏向第一种。AI 产生大量输出,Jeff 在结果层面做审核。这不是协作,只是监督。3(https://pmc.ncbi.nlm.nih.gov/articles/PMC12058881/)
3.3 产出量过大的根本问题:认知带宽不对称
AI 产出的速度和量级,与人类可处理的认知带宽之间存在结构性不对称。这不是 Jeff 个人能力的问题——这是所有高强度 AI 协作使用者都会遇到的问题。
关键洞察: 信息透明度和控制感之间不是正相关关系。当透明度超过认知带宽上限时,过度透明反而会加剧失控感。
这意味着「让 AI 解释一切」不是解决方案,而是问题的一部分。真正需要设计的是:哪些节点需要解释,哪些节点可以跳过——即关键节点的识别和选择性停顿。
3.4 Skill 作为「协作协议」的设计思想
将 Skill 从「工具使用手册」重新定义为「协作协议」——规定在哪些节点 AI 必须停顿、解释、询问,然后才继续。
这不是技术约束,是协作节奏的设计权。当 Jeff 在 Skill 中规定「在这个节点必须先解释为什么这么走」,他实际上是在把「什么时候该 AI 停、什么时候该人介入」的决定权从 AI 手里拿回来。
4. 核心机制详解
4.1 Sense of Agency 的产生机制
根据 Pacherie(2007)的研究5(https://pmc.ncbi.nlm.nih.gov/articles/PMC9559368/),Sense of Agency 由三个子成分构成:
- Sense of intentionality — 我知道我为什么做这件事
- Sense of initiation — 我知道这件事是从我的意图出发的
- Sense of control — 我知道我的行动能影响结果
当 AI 介入时,这三个成分都会受到影响:
- 你不知道 AI 为什么要做这个选择(intentionality 缺失)
- 你不是那个让事情开始的人(initiation 缺失)
- 你的行动和结果之间的因果链被 AI 中断了(control 缺失)
4.2 Meaningful Human Control 的实现框架
Verdiesen 等人提出的 Comprehensive Human Oversight Framework 从两个维度定义控制:6(https://pmc.ncbi.nlm.nih.gov/articles/PMC12058881/)
时间维度: 事前(部署前设计)、事中(运行时监控)、事后(回顾性审查)
层面维度: 技术层(可解释性工具)、社会技术层(人与系统的交互设计)、治理层(政策和规范)
传统做法过度集中在「事后审查」,但真正有效的控制需要在这三个层面、三个时间节点上都有设计。对于 Jeff 和 AI 的协作场景,这意味着:
- 事前: Skill 规定 AI 在关键决策前必须停顿并解释(不是事后解释)
- 事中: Jeff 有能力理解 AI 的解释,并有能力改变路径或否决
- 事后: 完整的决策路径可追溯(不是只看到最终结果)
4.3 「黑盒子」的根本成因
黑盒子感的产生不是因为「AI 不愿意解释」,而是因为:
- AI 的决策过程是隐性的,没有内置的自我解释机制(直到 Chain-of-Thought 等技术的出现)
- AI 产出的量远超人可追溯的量,即使有解释,信息也会过载
- AI 对「关键决策」的判断标准和人不同——AI 可能认为某个技术选型是关键决策,但对 Jeff 来说真正关键的是方向选择
这解释了为什么 Jeff 感觉「努力去追了但追不上」——他试图用人的认知带宽去覆盖 AI 的产出速度,这在系统设计上是不对称的。
5. 对 hatcloud 的启示
启示 1(Skill 设计层):将「关键节点停顿」作为 Skill 的硬性协议
Jeff 的 Skill 设计不应只规定「做什么」,还应规定「在哪些节点先停、先问、先解释」。具体做法:
- 在 Skill 的执行流程中,在每个关键决策点前插入「Break Point」——AI 必须在这里输出解释,然后等待 Jeff 确认,才能继续
- 关键节点的定义应该由 Jeff 来决定,而不是由 AI 来判断什么是重要的
在 Claude Code / OpenClaw Skill 中,可以规定:「在生成方案之前,先陈述你选择这个方向而非其他方向的核心理由;在提供多个选项时,明确说明你推荐 A 而非 B 的最关键依据。」
启示 2(协作模式层):从「产出-审核」模式切换到「提问-确认-产出」模式
当前协作的节奏是:AI 大量产出 → Jeff 审核 → 修改循环。这是一个低效的双向信息流。应该改为:
- AI 先问:在动手之前,先问清楚「你要的是什么」「约束条件是什么」「哪个方向是偏好的」
- Jeff 确认意图:这是一个协商意图的过程,不是给指令
- AI 基于确认后的意图产出:此时产出已经在关键方向上对齐了,审核变成「微调」而非「重建」
在日常 AI 协作中,这意味着要求 AI「先想清楚再动手」,而不是「先动手再想」。这需要 Jeff 在 prompt 设计时有意识地加入「先确认意图,再开始执行」的约束。
启示 3(Ownership 重建层):把「过程」变成「产品的一部分」
如果结果不可追溯,所有权感就无法建立。解决方案之一是:把决策路径本身变成一种产出。
具体做法:让 AI 在交付结果的同时,附上一份「决策日志」——这个版本是怎么来的,否定了哪些其他方向,最关键的那个判断是什么。这不只是解释,而是把「过程」显性化了。
在知识管理系统里,这相当于要求 AI 输出时附上「我的推理路径」,而不是只给最终答案。这个推理路径本身,也是 Jeff 能理解和追溯的,这样所有权感才能重建。
6. 局限与不足
文献层面: 本次研究的学术文献主要来自心理学(Sense of Agency)、HCI(人机交互)和 AI 伦理(Meaningful Human Control)三个领域,具体的「AI 协作 Workflow 设计」领域的系统性研究仍然偏少。大量相关文献是 2023-2025 年的新研究,尚未经过充分的社区验证。
验证层面: 本报告的核心洞察(「关键节点停顿」和「Skill as 协作协议」)是理论推断,尚未在 Jeff 的实际工作流中进行系统性验证。结论的可靠性需要在实践中检验和迭代。
适用性层面: 「关键节点停顿」策略在高创造力、高迭代速度的工作流中可能带来摩擦成本——如果每个节点都要停顿,协作速度会显著下降。这个策略的适用边界需要 Jeff 在实践中摸索。
个人化层面: Sense of Agency 的研究主要基于西方个体主义文化背景,对「集体劳动分工」情境下的所有权感知研究较少。在中国工作文化中,「署名」和「所有权」的关系可能有不同的社会建构方式。
参考
- [1] The sense of agency in human–AI interactions - ScienceDirect — Tier 1
- [2] Constraining the Sense of Agency in Human-Machine Interaction - Taylor & Francis — Tier 1
- [3] On the purpose of meaningful human control of AI - PMC/NIH — Tier 1
- [4] Causal Responsibility Attribution for Human-AI Collaboration - arXiv — Tier 1
- [5] Human–agent interactions through the lens of social agency - PMC/NIH — Tier 1
- [6] Human control of AI systems: from supervision to teaming - PMC/NIH — Tier 1