← 返回 关于

Agent 交互指南(AIG)

2026-03-31 · 原文链接

智能体正在改变软件被规划、构建、评审与部署的方式。由于智能体能够大量产出工作,角色与工作流也在被重塑。价值重心正在转向对输入的编排、上下文工程,以及对输出结果的审阅。

这种转变要求我们建立一份全新的人机交互契约。Agent Interaction Guidelines(AIG)是一套基础且持续演进的原则与实践,用于设计更自然融入人类工作流的智能体交互。

原则与实践⁠

智能体应始终披露其智能体身份

当人类与智能体并肩协作时,人类需要立刻、明确地知道自己正在与谁交互。智能体必须清晰标识自身身份,确保绝不会被误认为真人。

一张用户下拉菜单截图,同时列出智能体用户与人类用户。智能体以小徽章清晰标记为智能体。

图 01人类用户与智能体用户之间的清晰边界

智能体应原生地存在于平台中

默认情况下,智能体应能够通过其所在平台现有的 UI 模式与标准操作来完成工作。

Linear 中 issue 活动流的截图,展示智能体如何变更 issue 状态并关联一个 GitHub issue。

图 02智能体能够使用与人类用户相同的操作

智能体应提供即时反馈

沉默会带来不确定性。被调用时,智能体应立即给出反馈(但不应打扰用户),让用户确认请求已被接收。

Linear 评论线程截图。人类用户请编码智能体看一个 bug,智能体立刻回复“Thinking”指示。

图 03智能体会立即表明它正在处理请求

智能体应清晰透明地展示其内部状态

智能体应清楚标明自己当前是在思考、等待输入、执行任务,还是已完成工作。人类应能一眼理解当前发生了什么,并在需要时查看其底层推理、工具调用、提示词与决策逻辑。

“Agent Session”截图,展示智能体思考过程的每一步。

图 04智能体的推理过程完全透明并可供检查

智能体应尊重“退出协作”的请求

当被要求退出时,智能体应立即后退;并且只有在收到明确的重新参与信号后,才应再次介入。

智能体不能被追责

人类与智能体之间应有清晰的委派模型。智能体可以执行任务,但最终责任始终应由人类承担。

一个被委派给智能体的 issue 截图。界面清楚表明仍有一位人类用户对该 issue 负责。

图 05人类与智能体之间清晰的委派流

参与进来⁠

Agent Interaction Guidelines 是面向社区共同撰写的。如果你也在构建智能体,并思考同样的挑战,欢迎加入我们的 Slack 社区参与讨论。

这是一份“活文档”,我们预计会在实践中不断补充与更新。

页脚图片,包含 Linear logo 与 AIG logo。