AI 不会取代你,但会取代不用 AI 的你

2026-02-11 · 原文链接

亲爱的朋友们:

在美国以及许多其他国家,求职者正面对一个艰难的环境。与此同时,关于“AI 会导致大规模失业”的担忧——至少到目前为止——被夸大了。不过,对 AI 技能的需求正在开始推动就业市场发生变化。我想分享一下我在一线看到的情况。

首先,过去一年里,许多科技公司裁掉了员工。有些 CEO 把原因归结为 AI——认为 AI 在做这些工作,所以不再需要人——但现实是,AI 现在还没那么好用。很多裁员其实是在纠正疫情期间的过度招聘,或是一般性的成本削减与组织重组;这些事情在现代 AI 出现之前也偶尔会发生。除了少数岗位之外,几乎没有裁员是因为工作被 AI 自动化所导致。

当然,这种情况未来可能会扩大。目前一些高度暴露在 AI 自动化风险下的职业,比如呼叫中心坐席、译者和配音演员,可能会更难找到工作并/或看到薪资下降。但“广泛失业”的说法被炒得太过头了。

相反,一句常见的论断更贴近现实:AI 不会取代工人,但会用 AI 的工人会取代不会用 AI 的工人。举例来说,由于 AI 编程工具能让开发者效率大幅提升,懂得如何使用它们的开发者正变得越来越抢手。(如果你也想成为其中一员,欢迎学习我们的短课:Claude CodeGemini CLIAgentic Skills!)

因此,AI 的确正在导致失业,但方式更微妙。一些企业正在淘汰那些不适应 AI 的员工,并用能够适应的人来替换。这一趋势在软件开发领域已经非常明显。此外,从许多初创公司的招聘模式中,我也看到了这种人员替换在传统上被认为“非技术”的岗位上出现的早期迹象。懂得用 AI 来写代码的市场人员、招聘人员、分析师,比不懂的人更高产,因此一些公司正逐步与无法适应的员工分道扬镳。我预计这种情况会加速。

办公室场景:机器人与人类在桌前工作,象征 AI 对职场影响的讨论。

与此同时,当公司组建“AI 原生”的新团队时,新团队有时会比被替换掉的团队更小。AI 让个体更有效率,从而让缩减团队规模成为可能。比如,随着 AI 让软件构建更容易,瓶颈正在转向“决定做什么”——这就是所谓的 产品管理(PM)瓶颈。过去可能需要 8 名工程师和 1 名 PM 的项目,现在也许只需要 2 名工程师和 1 名 PM,甚至可能只需要一个同时具备工程与产品能力的人。

对员工来说,好消息是:大多数企业要做的事很多,但人手不够。具备合适 AI 技能的人常常会获得更多机会,承担更多职责,甚至去处理那长长的、过去因为效率不足而无法执行的想法清单。如今我看到许多企业里的员工正在挺身而出,去打造能帮助业务的新东西。机会很多!

我知道这些变化令人压力山大。我对每一个被裁员影响的家庭、每一个找不到理想岗位的求职者、以及更多担心未来职业前景的人,感同身受。幸运的是,我们仍有时间去学习,并为就业市场的走向做好定位。就 AI 而言,绝大多数人——无论技术或非技术——都还站在起跑线附近,或者不久前还在起跑线上。因此,现在依然是持续学习、持续构建的绝佳时机;而这样做的人,将拥有大量机会。

Andrew


来自 DEEPLEARNING.AI 的信息

推广横幅:“Document AI: From OCR to Agentic Doc Extraction”

“Document AI: From OCR to Agentic Doc Extraction” 探索文档系统如何超越纯文本提取。学习视觉优先、具备代理能力(agentic)的流水线如何在保留版式、表格与图表的同时,将 PDF 解析为结构化的 Markdown 与 JSON。与 LandingAI 合作打造。立即报名

新闻

论坛上的一则帖子,标题为“我拒绝不道德要求,雇主在法律上可以开除我吗?”

Agents Unleashed

开源 AI Agent —— OpenClaw 突然走红,引发了人们对“代理式未来”的兴奋、担忧与炒作。

发生了什么: 11 月,开发者 Peter Steinberger 发布了 OpenClaw —— 这款产品此前曾名为 WhatsApp Relay、Clawdbot 和 Moltbot —— 作为个人 AI 助手,用于管理日历、总结邮件、发送提醒等任务。1 月下旬,众包科技新闻网站 HackerNews 上的一篇帖子 提到 了该项目,随后迅速爆发,获得了 GitHub stars 增长最快的纪录,并带来了比 Claude Code 更多的 Google 搜索

它是怎么工作的: OpenClaw 是一个可配置的代理式框架,可运行在本地电脑或云端虚拟机中。用户可以构建能够浏览和写入本地文件系统的代理,或让其在预定义的沙箱中活动。他们也可以授权代理使用云服务,例如邮件、日历、效率工具、语音转文字与文字转语音应用,以及几乎任何能通过 API 响应的服务。代理还可以使用编程工具(例如 Claude Code)、在社交网络上互动、抓取网站,并代用户花钱。

是的,但是: OpenClaw 与 Moltbook 最初上线时存在大量 安全漏洞 与其他问题,其中一些在撰写本文时已被修复。一个开放式系统、不安全的设计与缺乏经验的用户组合在一起,带来了各种漏洞:配置不当的 OpenClaw 部署 暴露 了 API 密钥,Moltbook 暴露 了更多达数百万的数据。为窃取数据等恶意任务设计的技能也已 泛滥。许多用户把系统安装在专用机器上,以免把私密数据暴露给攻击者,或是给那些“出于好意但容易闯祸”的代理。

为什么重要: OpenClaw 引发了巨大关注,让 AI 社区中的知名人士开始争论其新颖性与重要性。对开发者而言,OpenClaw 提供了一个高度可定制、功能强大的 AI 助手,但需要非常谨慎的安全措施。它也让我们瞥见一个未来:自主代理在几乎不需要人类输入的情况下,忙着自己的业务。

我们的看法: 作为一个富于想象力与进取心的开源项目,OpenClaw 引发的炒作可能远超其实际。媒体 报道 Moltbook——其内容与自 GPT-3 以来让世人惊叹与发笑的 LLM 输出并无本质区别——比作 AGI 或奇点的到来。我们想强调:代理还远没到那一步,甚至差得很远。相反,OpenClaw 展示的是:代理可以非常有用,我们仍在寻找好的用例,而我们必须密切关注安全问题。以及,你永远不知道你的某个开源项目什么时候会突然起飞!


流程图显示 Kimi K2.5 AI 作为“编排者”,在各种专门化子代理之间分配任务。

Kimi K2.5 组建了自己的“劳动力”

一个开源视觉-语言模型释放出“打工小弟”代理,让它能更快、更有效地完成任务。

最新进展: Moonshot AI 发布了 Kimi K2.5——其 Kimi K2 大语言模型的更新版本,新增了视觉能力,并支持生成作者所谓的子代理(subagents):并行工作流,可控制独立模型来执行 AI 研究、事实核查与 Web 开发等任务,并将任务分派给它们。

它是怎么做到的: Moonshot 很少披露 Kimi K2.5 的构建细节;它公开的信息包括:

结果:Artificial Analysis Intelligence Index(10 个基准的加权平均)中,开启思考模式的 Kimi K2.5 超过 了所有其他开源权重模型。在 Moonshot 的测试中:

是的,但是: Moonshot 没有披露 Kimi K2.5 使用子代理所带来的算力与内存成本,因此速度/性能与资源需求之间的权衡并不明确。

新闻背景: Kimi K2.5 在 Moonshot 初代视觉-语言模型(规模小得多、160 亿参数的 Kimi-VL)发布 7 个月后到来;Kimi-VL 同样使用了 MoonViT 视觉编码器。

为什么重要: 构建一个代理式工作流可以提升模型在特定任务上的表现。与预先定义的代理式工作流不同,Kimi K2.5 会自行决定何时需要新的子代理、子代理应该做什么、以及何时把工作委派出去。这种自动化的代理编排提升了并行任务的表现。

我们的看法: Kimi K2.5 把任务执行从“链式推理”转向“代理式团队协作”。它不再按顺序逐步响应提示词,而是像一个管理者一样,调度多个独立工作流/模型并行完成不同部分。


多条线连接多个维基百科地球标志,象征数据交换与合作伙伴关系。

在 25 周年之际,Wikipedia 以高调的合作协议庆祝:通过让 AI 公司更容易使用其数据来训练模型,换取对方的资金支持。

最新进展: Wikimedia 基金会 宣布 与包括 Amazon、Meta、Microsoft、Mistral AI 和 Perplexity 在内的 AI 公司建立合作。该合作项目名为 Wikimedia Enterprise,使合作方能以更高速度、更大吞吐量访问 Wikipedia 数据,而不必像过去那样抓取网页。财务条款未披露。

它是怎么运作的: 除了用户捐赠之外,企业合作是 Wikimedia Foundation 的主要收入来源。 Wikimedia Enterprise 提供 API,使开发者能够直接访问百科条目与其他 Wikimedia 数据,包括 Wikimedia Commons 图片、Wiktionary 在线词典,以及 Wikidata 机器可读知识库。免费计划提供有限的数据更新与支持门户访问。付费计划(条款不公开)可能包含每日快照、潜在的无限数据请求(限制取决于订阅价格)、实时修订的流式访问,以及人工技术支持。

新闻背景: 其他内容广泛被用于训练 AI 的出版方也在尝试向 AI 公司收费,成功程度不一。2023 年,Reddit 与 Stack Overflow 宣布 计划在寻求许可协议的同时保护其数据不被 AI 爬虫抓取。Reddit 与 Google、OpenAI 等达成了许可协议,让对方使用其内容训练模型。Stack Overflow 的流量与提问量则 暴跌:从 2014 年每月 20 万个问题,降至 2025 年末每月 5 万个问题。随着用户从在网站上讨论技术问题转向向 AI 模型提问,公司从“以广告为主要收入”转向“把数据打包出售用于 AI 训练”。

为什么重要: AI 公司希望在 Wikipedia 上训练模型,而用 API 调用收集数据比抓取网页要快得多——更不用说为了跟上百科不断更新的节奏,爬虫必须以极高频率抓取。与此同时,Wikipedia 需要收入才能生存。出售 API 访问既能为开发者提供有价值的服务,也能为这一关键数据源建立更稳固的财务基础。

我们的看法: 这些交易是双赢。喜欢用传统方式阅读在线百科的人照旧可以继续读;构建 AI 模型的人也能更安心,因为他们不会“误杀”这一重要训练数据来源。


流程图展示将 Mistral Small 3.1 通过剪枝与蒸馏压缩为更小的 Ministral 3 系列,并配合后训练步骤。

更小但更强的模型配方

Mistral 把 Mistral Small 3.1 压缩到更小的版本,得到一个相对小规模、开源权重、视觉-语言模型家族;在一些指标上,它们比同等规模的竞争对手更强。该方法结合了剪枝与蒸馏。

最新进展: Mistral AI 发布 了 Ministral 3 系列的权重,参数规模分别为 140 亿、80 亿与 30 亿。每个规模都提供 base、instruction-tuned 和 reasoning 变体。团队在一篇 论文 中详细说明了其蒸馏配方。

它是怎么做到的: 团队采用一种他们称为“级联蒸馏”(cascade distillation)的方法来构建模型。从更大的父模型开始,他们交替进行剪枝(移除不重要的参数)与蒸馏(训练更小模型去模仿大模型输出),逐步得到更小的子模型。

性能: Ministral 3 14B(版本未说明)在 Artificial Analysis Intelligence Index 上排在 Mistral Small 3.1 与 Mistral Small 3.2 之前;该指数是 10 个基准的加权平均。Mistral 将 Ministral 3 与 Mistral Small 3.1 以及同等规模的开源权重竞争对手进行比较。Ministral 3 14B base 在数学与多模态理解测试上比 Mistral Small 3.1 高 1 到 12 个百分点,在 Python 编码上打平;它也在 GPQA Diamond 上超过了父模型。与同规模竞争对手相比:

为什么重要: 级联蒸馏为“从单一父模型以远低于常规的成本产出一个高性能模型家族”提供了一条路径。训练 Ministral 3 所需的训练 tokens 约为 1 万亿到 3 万亿;而同规模的 Qwen 3 与 Llama 3 模型则需要 15 万亿到 36 万亿 tokens。训练时间也更短,训练算法相对简单。这类方法可以帮助开发者在不成比例增加成本的情况下,构建多个不同规模的模型。

我们的看法: Ministral 3 模型可以在普通笔记本与智能手机上运行。边缘端的本地 AI 正变得越来越强、竞争力越来越高。