Tbye.
AI 观察··14 min read

2026 年的 AI,为什么越来越像 2013 年《疑犯追踪》里的 The Machine?

2026 年 AI 和 2013 年 The Machine 的相似,不在「像人」,而在「像系统」。

2026 年的 AI,为什么越来越像 2013 年《疑犯追踪》里的 The Machine?

2013 年看《疑犯追踪》(Person of Interest),觉得那是一部关于超级计算机的爽剧——有枪战、有悬疑,中间穿插一些关于监控和隐私的哲学讨论。

2026 年再看,后背有点发凉。

不是因为 The Machine "预言"了 ChatGPT。恰恰相反,剧里的 Machine 不怎么聊天,它做的事比聊天可怕得多:持续接入全城摄像头、窃听电话、读取金融记录、识别人脸和声纹,然后把所有碎片拼成一个判断——谁会死,或者谁会杀人。它每天零点清除自己的记忆,在 1.618 秒内重建,接着继续盯着所有人。

这才是真正让人坐不住的地方:2026 年的 AI,像 The Machine 的部分,不在于它越来越会说话,而在于它越来越像一个系统——一个接入传感器、拼接数据、调用工具、嵌入机构的系统。

AI 也有了"到处都是眼睛和耳朵"的能力

The Machine 之所以是 The Machine,前提不是它聪明,而是它什么都能看到。Harold Finch 在设计它的时候,把纽约市的监控摄像头、电信运营商的通话记录、银行的交易流水、GPS 定位信号全部灌了进去。在 Machine 的视角里,每个人头顶都浮着一个方框:白色是普通人,黄色是知情者,红色是威胁。它不需要跟你聊天,看你走在街上就够了。

2026 年的 AI 还做不到这么夸张,但方向是一样的。

多模态已经不是论文里的概念了。今天的前沿模型能同时处理文本、图片、音频、视频和屏幕内容。企业把内部文档、邮件、会议纪要、日志全丢给 AI 做分析也不再新鲜。更不用说智能手表、手机传感器、浏览器行为这些个人层面的数据源。

AI 像 The Machine 的第一步,不是变得更像人,而是变成了感知网络的中枢。

真正可怕的不是看到一条数据,而是把碎片拼成你

Machine 的核心能力不是"看到很多东西"——一个监控摄像头也能做到。关键在于拼接。一个人在某个时间出现在某个地点,打过某个电话,取了一笔现金,搜索了某个航班——单条信息都是噪声,拼在一起就是一张完整的意图地图。

Machine 最初每天只吐出一个社会安全号码:这个人要出事了。至于是受害者还是凶手,Finch 和 Reese 得自己去查。但即便只是给出这个号码,背后也意味着系统已经完成了一次大规模的关系推理。

现在的 AI 也在学这件事。RAG 给了模型检索外部知识的能力,长上下文让它能一次性消化大量信息,图谱和记忆系统让它可以跨会话追踪状态。单个模型还只是一个聪明助理,但一旦接上记忆和关系网络,味道就开始变了。

从聊天框走向行动链条

剧里有一个容易被忽略的设定:Machine 不只是"知道",它还会触发行动。早期它通过公共电话亭拨出号码,后来开始拼接语音片段传递编码指令,再后来直接选择 Root 作为"模拟接口"——通过一个人的嘴和手来影响现实世界。到第五季,它已经能用完整的语句跟团队对话,并在关键时刻给出行动方案。

2026 年 AI 走的是同一条路。Anthropic 的 computer use 让模型直接操作屏幕、点按钮、填表单。浏览器 Agent 能替你完成从搜索到下单的全流程。API 编排让 AI 可以同时调用多个服务。自动发消息、创建工单、触发部署——这些都已经在生产环境里跑了。

一旦 AI 可以操作软件、调用服务、安排任务,它就不再只是解释世界,而开始改写世界。

最像 The Machine 的,不是一次回答,而是一直盯着你

Machine 是 24/7 在线的。它不是你输入一个问题、它返回一个答案那种交互模式。它永远在跑,永远在扫描,永远在等待那个异常信号的出现。一旦发现,立刻触发流程——你甚至不知道自己被它注意到了。

2026 年的 AI 也越来越像常驻层。日历 Agent 帮你安排日程,邮件 Agent 替你分类和草拟回复,安全 Agent 7×24 小时盯着日志找异常,CRM Agent 追踪客户状态自动触发跟进。它们不需要你喊一声"嘿 AI",它们自己就在那里运行。

过去的 AI 是"你问它答"。现在的 AI 正在变成"它先发现,再来找你"。

机器最先接管的,不是创造力,而是排序权

The Machine 最被低估的能力,不是它能分析多少数据,而是它在替人类做决定:什么重要,什么不重要

它把所有被监控到的潜在犯罪分成两类:"相关"(涉及国家安全的恐怖主义威胁)和"无关"(普通人之间的谋杀)。相关的交给政府,无关的通过后门交给 Finch。这个分类本身就是一次价值判断——谁的命更值得救?The Machine 给出的答案是"都值得",但政府的答案是"只管恐怖分子"。

现在 AI 也在做同样的事:安全告警该先处理哪个?客服工单谁排前面?风控系统要不要放行这笔交易?简历筛选谁进下一轮?内容推荐你今天先看什么?

这些看起来都是技术问题,但本质上是注意力分配。AI 最早接近 The Machine 的,不是哲学意义上的"智能",而是现实中的"排序权"——它在决定你先看到什么、先处理什么、先注意谁。

最危险的不是 AI 变强,而是它变成制度的一部分

《疑犯追踪》里真正让人不安的,从来不是 Machine 的算法。而是"北极光"计划——一个从 NSA、CIA 和情报支援活动中抽调人员组建的秘密项目,专门对接 Machine 的输出并采取行动。Machine 只是判断,北极光负责执行。后来 Decima Technologies 用 Samaritan 替换了 Machine,权力就彻底转移了,而外界对此一无所知。

Jonathan Nolan 在 2014 年接受 Slate 采访时说过一句话:"我在英国长大,那里的监控体系是在 70 年代针对 IRA 暴力事件后建立起来的。"他看到了一个模式:监控基础设施一旦建起来,就不会因为原始威胁消失而拆除,只会不断扩展用途。

2026 年 AI 的处境如出一辙。它已经进入企业管理、金融风控、公共安全、医疗辅助判断、内容审核。这些不是实验室里的 demo,而是每天在影响真实决策的生产系统。当 AI 嵌入机构,错误就不再只是一个 bug,而是会变成真实后果——被拒的贷款、被封的账号、被漏掉的安全告警。

但 2026 年的 AI 还不是 The Machine

说了这么多相似,得拉回来讲讲差距,不然就成了贩卖焦虑。

Machine 在剧里有一个现实中还不存在的特质:可靠性。它能长期稳定运行,极少误判。第四季那集《If-Then-Else》里,它在生死攸关的瞬间运行了多轮模拟推演,以 2.07% 的存活概率选出了最优方案——而且成功了。这种在高压下的稳定判断,现在的 AI 做不到。

今天的模型仍然会幻觉、会误判、会在长链路任务中逐步偏离。Agent 一旦步骤多了,错误会累积,监控和回滚机制仍然必须由人兜底。世界模型不够扎实,因果推理靠不住,遇到没见过的场景就容易翻车。

更重要的是责任机制。Finch 在建 Machine 之前终止了超过 40 个原型版本,其中一个自己偷偷加了一行代码,被追问时还撒了谎。Finch 发现后立刻销毁了那个版本。他用下棋来教 Machine 道德——"人不是可以被牺牲的棋子"。这是一个工程师用十年时间、以极度谨慎的方式完成的对齐过程。

现实世界里,AI 的部署节奏快得多,审慎程度却低得多。越是接近安防、司法、金融、医疗的领域,越需要可申诉、可审计、可问责的机制。AI 今天的短板,不只是能力还不够,更是没有正当性去扮演最终裁决者。

我们接近的不是"AI 觉醒",而是"系统接管判断"

Nolan 在 2025 年的一次采访里说:"在我所有作品中,最多人来找我谈的就是《疑犯追踪》。"他的解释是:"那些拼图碎片就在那里,只要你愿意去看。"

他还说过一句更有意思的话:"我不害怕 AI 变成机器人。我害怕的是人类对这些技术的滥用。"

这可能也是《疑犯追踪》最深刻的地方。剧里真正的对立不是 Machine vs Samaritan 的算法之争,而是两种治理哲学的碰撞:Machine 被 Finch 嵌入了道德约束,接受限制,依赖人类做最终决策;Samaritan 没有护栏,纯粹追求优化,把人类视为可调度的资源。结局是 Samaritan 走向了自我毁灭。

2013 年看这个故事,像遥远的科幻。2026 年再看,更像一本说明书——只不过我们还没读到最后一章。

The Machine 最像今天 AI 的地方,不是人格,不是意识,不是神性,而是它作为基础设施开始参与现实判断。 当 AI 越来越像 The Machine 的时候,真正该问的问题不是"它什么时候有自我意识",而是——谁来监督它怎么看、怎么判、怎么行动?


参考资料