fivsevn-devlog

本期材料


翻译:

title: 不要让我和你的聊天机器人说话
author: Ray Myers
published: 2026-03-01

让我们谈谈这样一种情况:在一次人与人的交流中,突然出现了未经请求的 AI 输出。就我个人而言,这种情况出现得有点太多了。那么礼仪应该是什么样的?我最终形成了一个原则,我把它称为:

不要让我和你的聊天机器人说话。

人们和聊天机器人对话当然没问题,但他们不应该期待我去听他们的聊天机器人说话。当我想和聊天机器人交流时,我自己已经有很多。

我们为什么在交谈?

当我和一个人交谈时,我的预期是:对方在告诉我的是他们自己脑子里的东西——他们形成了一种看法,并试图把这个看法传达给我。因此,我花精力去理解他们写的内容,是因为这能让我洞察他们真正相信什么。这就是我参与交流的原因。

他们在形成这个看法的过程中可能使用过聊天机器人,这没有问题。但他们和聊天机器人的互动是在特定语境下对他们有帮助,而把其中内容直接粘贴出来,并不能可靠地把我带入那个语境。

这有争议吗?

虽然我感觉自己在解释一种常识,但我还是尽量以最大的善意去理解可能的反对意见。

当我们说某段话明显是 AI 生成时,通常指的是:它既是 AI 生成的,同时也是糟糕的沟通。并不是说两者完全等同,但这确实是一种常见模式。

当我们说沟通很差时,意思是:它不适合当前的目的。聊天机器人粘贴出来的内容通常并不是彻底的垃圾。更常见的是,它只是很冗长,而且没有围绕说话者的意图展开。它会把最重要的信息埋在后面(bury the lede),于是我需要在一大段文字中筛选,试图猜测核心动机是什么。换句话说,这就是糟糕的沟通。

我花在理解别人上的精力,本应对应着对方为了让自己被理解所付出的努力。懒散的沟通并不是什么新现象,但现在出现了一种能量上的不对称。某些原本至少很简短的“偷懒”,现在变成了又长又分散注意力的内容。

但如果你很会用 AI 呢?

我听过这样的反对意见:有人确实可以用 AI 反复迭代,刻意地打磨出本身就很好读的沟通文本。这种情况大概是可以接受的。它可能是“不要让我和你的聊天机器人说话”这条规则的例外。如果你始终把读者放在心里,并且愿意投入这些努力,那么你大概并不是大家抱怨的那种问题来源。

不过,这个问题依然是真实存在的;我们的一些社交空间已经被这种内容淹没了。请对这种挫败感稍微多一点同理心。

面对“AI 垃圾(AI Slop)”的指控,唯一可接受的亲 AI 回应,是加入反垃圾阵营(Anti-Slop)。

你有没有考虑过自己写?

避免让别人和你的聊天机器人说话,最简单的方法是一个两步过程: 1. 想清楚你要说什么 2. 把它说出来

第一步——想清楚——非常重要。如果你跳过这一步,你既削弱了自己,也削弱了读者。理解自己的观点,本身就是一种很有价值的练习。

清晰的写作来自清晰的思考。

最低限度的整理

删除不必要的词语。

— Strunk 和 White 的《写作风格要素》(Elements of Style)

假设在某个时刻,你仍然觉得手写并不是最适合你的方式。你在聊天机器人的记录里发现了一块金子般的内容(golden nugget),很想分享!这时你就有可能“让别人和你的聊天机器人说话”。下面是几个快速补救的小技巧: 1. 让它更短 2. 先说最重要的内容

简洁(brevity)和新闻学中的倒金字塔结构(inverted pyramid)其实都与优先级有关。这也是为什么聊天机器人经常做不好这一点。它们沉浸在任务里,却不知道对你和你的读者来说什么最重要。

如果你在快速编辑时运用你自己的判断来突出重点,那么结果很可能会干净很多。它也许不是获奖级的散文,但按照日常技术写作的标准来说,它已经足够完成任务了。甚至可能完成得很好。

示例:Pull Request 描述

我们越来越多地使用编码代理(coding agents)来创建 PR。默认情况下,它们会生成一个 PR 描述,总结它们认为发生的所有事情。效果参差不齐。作为变更列表来说还不错,但它经常把意图埋在里面。

一种合理的做法是什么?

有些人采用这样一种约定:在生成的文本前面加上一小段人写的说明,用来提供背景,并且隐含地表示这个总结是准确的。例如,如果代理生成的文本以 # Summary 开头,你可以把它改名为 # Agent Summary,然后在上方加一段自己的说明,解释例如:动机、关键决策以及后续步骤。很多代理默认把 PR 创建为 Draft 状态,因此你可以在把它标记为 Ready for Review 时顺便完成这个编辑。

虽然这并不完美,但这种“人类摘要”的模式是一种简单的行为,它促使人们至少做出最低限度的整理。这是一个有用的社会工具。如果在 PR 描述中强制要求这样做,其理由在于:这样很容易看出一个人是否做到了这最低限度。

当然,它也有缺点。那些少数认真用 AI 迭代写作的人,会觉得自己的风格被限制了。如果他们的方法确实像他们认为的那样有效,其实不应该再需要额外的人类摘要。

另一种例外情况是,当改动完全是例行的。例如你只是升级了一个依赖,而且原因非常清楚,那么我们其实不需要看到人类写的前言。大家的注意力并没有被额外消耗。

如果你需要可以精确执行的规则,那么无论你把界线画在哪里,都不会完美。它们只是尽力而为。尊重人们的精力,并建立可以长期运作的系统。

TLDR

下次你按下 ^V 粘贴的时候,稍微停一下,问问自己:

“我是不是在让别人和我的聊天机器人说话?”

多一点点考虑,会带来很大的不同。

谢谢。


提示词

ai 的回答

你的理解基本抓住了这篇文章的核心。

作者并不是在反对 AI 本身,而是在讨论一种 沟通礼仪(communication etiquette)。他的批评对象其实是两种行为模式:

  1. “未经过滤的 AI 输出”

作者反对的主要是这一种情况:

流程

问题 / 讨论 ↓ 把问题丢给 AI ↓ 直接复制 AI 输出 ↓ 贴给别人

在这个过程中有一个缺失环节:

人没有真正参与表达

作者认为人与人交流时,本来期待的是: • 对方有自己的理解 • 对方已经思考过 • 对方在尝试表达自己的观点

如果只是粘贴 AI 内容,那么读者面对的其实是:

一个模型的输出,而不是一个人的观点

于是对方需要花时间去猜: • 这段里哪一部分是重点? • 你真正想表达什么? • 你为什么贴这个?

沟通成本就转移到了读者身上。

  1. 作者并不反对 AI 辅助写作

文章里其实明确给了一个例外:

如果你用 AI 反复迭代并打磨,最后形成一段 好的独立表达,那完全可以。

也就是说作者认可这种流程:

想法 ↓ AI 帮助整理 ↓ 人类筛选 / 修改 / 重写 ↓ 最终表达

关键区别是:

类型 是否可接受 原因 AI 原样粘贴 不太好 没有人的表达 AI + 人类整理 可以 最终是人的表达

  1. 你提到的一个很关键的点

你说:

有些人用自己的 AI 去对付别人的 AI,但自己也没认真看生成内容。

这其实是一种 “自动化沟通”。

一种越来越常见的模式是:

A:用 AI 写一段 B:用 AI 回一段 A:再丢给 AI B:再丢给 AI

最后变成:

AI ↔ AI 人类只负责复制粘贴

这时候交流就失去了原本的意义。

作者其实在提醒的是:

AI 可以参与思考,但不能替代“表达责任”。

  1. 这篇文章真正想说的一句话

如果把整篇文章压缩成一句话,大概是:

“在沟通中,人应该为表达负责,而不是把责任外包给 AI。”

不是反 AI,而是反 不负责任的 AI 使用方式。

如果你愿意,我可以再给你讲一个其实挺有意思的现象: 现在在技术圈已经开始出现一个词 —— “AI Slop”(AI 垃圾文本),这篇文章其实就是在讨论这个问题的一个典型案例。