首页 / 互联网 / 正文

2030年大预言:会用AI的人进入新贵族,不会用的人变成数字农奴

优创 2026-03-31

很少有让我觉得写的不错的文章,特别是在节奏如此快的社会中,这种又长字有多的文章,一般我都是一晃而过。

但是我希望你静下心用十分钟的时间,停下来,看一下,思考一下,在整理这篇文章格式时,又看了一遍,有一些东西不知道对你有没有用,但是对我个人来说有很大启发。

以下内容来源自:AI最严厉的父亲

2030年大预言:会用AI的人进入新贵族,不会用的人变成数字农奴

写于2026年3月。数据是真的,预测是大胆的,悲观的部分是我最不想说对的。

ps:本文又臭又长,但是我还是你坚持读完。给我一个不同的意见。

我认识一个朋友,前几年做短视频博主,做得还不错,几十万粉丝。

去年他跟我说,他现在用AI做内容,以前三个人干的事他一个人干,而且做得比以前好。我当时还觉得他在凡尔赛。

上个月我们又聊,他说他现在在考虑怎么”管理”他那几个AI——因为它们开始会自己规划任务了。

我没说什么,但我在想:他用的那个词,”管理”,可能很快就会显得天真,就像二十年前有人说”我在管理我的文件夹”一样。那时候人们也觉得那是很认真的事情。

然后我想起另一个朋友。他在某个制造业工厂做质检,一个月六千块,做了八年,很熟练。

去年工厂引入了视觉检测AI,他被调去负责”监督AI”,薪资降到了四千八。今年他跟我说,他现在在送外卖,因为工厂那边连”监督AI”的岗位也不需要了。

这两个朋友,一个在往上走,一个在往下走。

而他们之间的距离,正在以一种让人来不及反应的速度变大。

这篇文章,我想说清楚几件事:

接下来四年,那些往上走的机会在哪里;那条往下走的路会通向什么地方;以及,如果你有孩子,你现在应该怎么想这件事。

最后这部分,是我最私人的想法,也是我觉得最值得认真对待的部分。

一、先说一个让我久久不能平静的数字

2021年,世界上最聪明的AI,做了一套小学数学题,得了35分。

这不是玩笑,这是OpenAI自己公布的测试数据,测试集叫GSM8K,就是那种”小明有3个苹果,给了小红2个,还剩几个”的题型。最先进的AI,35分。(GSM8K:Grade School Math 8K,包含8500道小学水平数学应用题的测试集,曾是衡量AI数学推理能力的标准基准之一。)

2030年大预言:会用AI的人进入新贵族,不会用的人变成数字农奴

然后到了2026年,同类型的测试,得分是99分。用了不到五年。

这条曲线的形状不是缓慢爬升,是一根杆子,几乎垂直插进天空——垂直到让出题的人觉得尴尬,这道题现在已经被废弃了,因为它失去了测试意义,就像你不会用”会不会骑自行车”来考驾照一样。

于是他们出了更难的题。

全球几百个领域的顶尖专家联手出了一套”AI绝对通不过”的考试,叫做Humanity’s Last Exam,我姑且叫它”人类的最后一块自留地”。

(Humanity’s Last Exam,HLE:由全球顶尖专家协作出题的超难考试,涵盖数学、物理、化学、生物、法律等100多个专业领域,设计目标是让AI短期内无法通过。设计规则:只要现有AI能答对某题,就撤换那道题,直到AI彻底答不出来为止。)

2024年底这套题出来的时候,顶尖AI的得分是个位数百分比。

到2026年2月,Claude Opus 4.6拿到了53.1%。

从个位数到超过一半,用了大约一年半。

那帮出题的顶尖专家们,现在大概要认真想想,什么叫”只有人类才能做到的事”。因为他们以为的那条线,正在以他们没有预料到的速度被穿越。

二、在谈预测之前,我要先发明几个词

你记不记得,三年前”Agent”这个词突然就流行起来了?或者”RAG”、”MCP”?

这些词在两年前还不存在,或者只有极少数研究员在用,现在已经是科技媒体的日常词汇了。(Agent:智能体,指能自主规划、执行任务、调用工具的AI系统,不只是回答问题,而是会主动做事。RAG:检索增强生成,让AI能实时调用你私有数据来回答问题的技术。MCP:Model Context Protocol,让AI和各种外部工具互联互通的标准接口,理解成AI的”USB接口”就够了。)

新技术总是先有现象,再造词语。词语跟不上的地方,就是变化正在发生的地方。

我接下来说的这几个词,现在还没有人这么叫,但我猜五年内它们会进教科书。

第一个:编排者经济(Orchestration Economy)

过去,”谁能做”决定了谁有价值。医生有价值是因为他懂医学,程序员有价值是因为他会写代码。

执行能力是稀缺的。当AI的执行能力全面溢出,稀缺的就变成了”知道让谁做什么”。

编排者,就是那个不一定会做,但知道怎么把一堆AI工具组合起来让整件事完成的人。

第二个:技能蒸发(Skill Evaporation

每个人都有一些花了多年时间积累的技能。

翻译、校对、排版、基础编程、数据整理、客服话术……过去是护城河。

技能蒸发,是指这些技能在极短时间内失去市场价值。不是慢慢贬值,是蒸发。

蒸发最快的是”有清晰输入输出、可被验证、大量重复”的技能。就像马车夫在1920年代的遭遇,只是速度快了二十倍。

第三个:静默生产(Silent Production)

当Agent可以24小时在后台运行,生产活动就开始在你睡觉的时候发生。

你早上起来打开手机,你的AI昨晚写了三篇草稿、处理了十二封邮件、抓取了竞争对手的价格数据。

没有人盯着它,它就是在工作。静默生产的规模将在2027年到2028年间变得可被统计。

第四个:意图层(Intent Layer)

现在你用软件的方式是:打开APP,找功能,点击,填表,提交。这个交互模式统治了三十年。

意图层是指一个新的范式:你只需要表达你想要什么,有一个系统帮你路由到正确的工具并执行。

你在微信里说”帮我把今天的会议录音整理成三条结论发给我老板”,它自己调用三个工具,你不需要知道背后发生了什么。意图层一旦成熟,APP时代就会终结。

第五个:薄壳公司(Thin-Shell Company)

人类层极薄,AI基础设施密实——10个人,借助AI Agent和自动化,能支撑起传统意义上需要几百人才能跑通的业务体量。2029年前后会成型。

三、OpenClaw:一个你必须知道的故事

2025年11月的一个深夜,一个叫Peter Steinberger的奥地利开发者——他曾经创办了一家PDF工具公司,软件被装进超过十亿台设备——把WhatsApp的接口和Claude的API连在了一起。

一个小时后,他有了一个能工作的原型:你在WhatsApp上发一条消息,AI在你的电脑上帮你执行任务。

2030年大预言:会用AI的人进入新贵族,不会用的人变成数字农奴

他以为这太简单了,OpenAI或者Anthropic肯定早就做了。他们没有。”大公司做不了这种事。不是技术问题,是组织结构问题。”

2026年1月,他把项目开源。72小时内,6万个GitHub Star。四个月后,超过25万Star——超越React这个全球最流行的前端框架用了整整十年积累的记录,成为GitHub历史上增长最快的开源项目。

这个项目叫OpenClaw。

英伟达CEO黄仁勋3月初评价OpenClaw:”这可能是有史以来最重要的一次软件发布。”他说完11天后,英伟达发布了NemoClaw——专门为OpenClaw构建的企业安全插件。

当世界上最贵的芯片公司为一个诞生四个月的开源项目专门做配套产品,一个新时代的轮廓就清晰了。

OpenClaw回答了一个问题:当AI足够强大的时候,人机交互的入口是什么?

不是APP,不是网站。是你的微信、WhatsApp、Telegram。你发一条消息,AI在你的设备上帮你做事——整理文件、起草邮件、抓取数据、运行代码、定时任务。它24小时不下班,有持久记忆,你睡觉的时候它还在工作。

而OpenClaw的Skill系统(ClawHub平台上已有超过3000个社区开发的功能插件)意味着:AI Agent的边界,由它能调用的工具决定。谁在建造这些工具,谁就在建造明天的基础设施。

四、2027年:第一次让大多数人沉默的时刻

有一套叫SWE-bench的测试,专门检验AI能不能解决GitHub上真实的代码bug。不是玩具题,是需要读懂整个项目逻辑、定位问题、修复、提交的真实工程任务。

2026年初,Claude Code搭配最强模型的得分是80.8%——随机抽一百个真实bug,AI能独立搞定八十多个。据SemiAnalysis统计,Claude Code目前年化收入超过25亿美元,占Anthropic企业营收的一半以上。

预测:2027年Q1,SWE-bench得分将首次突破95%。

初级程序员的岗位,将在2027年进入招聘冻结期。不是裁员潮,是根本不再开新坑。

但反向命题是:会”编排”AI完成复杂工程任务的人,2027年会变得极度稀缺。

他们懂得拆解任务、设计工作流、评估AI输出质量。培养一个这样的人需要三到六个月,不是三到六年——这个差异将让整个行业的人才结构在极短时间内重写。

一人公司时代,2027年正式到来。

不是励志故事,是可复制的方法论。中文互联网上”年入百万的独立开发者”的案例,将从稀有物种变成常见现象。

五、2028年:AI开始帮AI变得更聪明

2028年,AI将首次在没有人类提出假设的情况下,独立发现一个此前未被科学界记录的自然规律,并将其发表。

不是AI写了一篇人类已经知道答案的论文,而是AI自己提出问题,自己设计验证路径,自己得出结论,而这个结论是人类没有想到过的。这个时刻意味着:知识的生产,将不再是人类的专属能力。

广告驱动的互联网,同年开始生病

当越来越多的搜索和决策被AI代劳,传统广告逻辑崩塌。广告主花钱是为了影响人类决策,但如果决策是AI做的,广告往哪里打?

2028年,至少一家主流平台会在财报中第一次把”AI导致的流量结构变化”列为核心风险项。

六、关于工作方式,我有一个非常具体的想象

未来的工作方式不是”人被AI替代”,而是人类只做人类的事,AI做生产的事。

想象一个场景,可能就发生在2028年到2029年之间:

三个认识多年的朋友,某个周四下午约在咖啡馆。其中一个说,我最近一直在想一个问题:某个行业的某个环节,现在的解决方式非常低效,如果用某种思路来改造,可能能做出一个有价值的东西。

另外两个人开始反应,一个说我知道这个行业,这个痛点确实存在,另一个说我记得有人做过类似的尝试但失败了,原因是XXX。

就这样,三个人聊了大概两个小时。聊到下午五点,其中一个打开手机,把这两个小时的会议记录发给了自己的AI,加上一句话:”帮我把这个想法变成可执行的方案。”

第二天早上,他收到了一份完整的东西:市场分析、竞品调研、技术可行性评估、产品原型、MVP开发路径、第一批潜在用户名单,以及初步的财务模型。

(MVP:Minimum Viable Product,最小可行产品,以最小成本和时间验证产品核心功能的开发策略。)

那个场景里,三个人做了什么?他们在喝咖啡,在争论,在回忆,在连接彼此的认知。他们在做人类的事:社交、思考、创意、判断。

AI做了什么?执行、检索、分析、整合、生产——所有有清晰标准的工作。

人类最稀缺的,将不再是执行力,而是想法的质量、判断的准确度,以及一个至今仍被严重低估的能力:知道什么时候不该信任AI的结论。

七、2029年:AI从屏幕里爬出来

此前所有变化都发生在数字世界。2029年,溢出了。

人形机器人将在2029年前后越过部署拐点。特斯拉Optimus、Figure AI,加上国内的多家机器人公司,正在快速积累可靠性数据。当一台能完成多种体力任务的机器人成本跌破5万美元,仓库、工厂、物流中心的经营逻辑就会重写。

预测:2029年,全球仓储、物流、基础制造产线的人形机器人部署总量将突破一千万台。

薄壳公司成型:10个人,运营传统意义上需要500人的业务体量。

八、未来四年里,会出现哪些新职业

每次技术变革都会消灭旧职业,也会创造新职业。但新职业的出现总是滞后的。以下是我认为2027年到2030年间会真正成形的几个新职业:

1. AI编排师(AI Orchestration Designer)

核心能力:把复杂业务问题拆解成适合AI处理的子任务,设计各Agent之间的协作关系,定义”做对了”是什么样,并在AI做错的时候知道为什么。预测:2027年顶尖AI编排师的市场价值将超过高级软件工程师,2028年会有专门培训机构,2029年进大学课程。

2. 上下文架构师(Context Architect)

“提示工程师”会消失——提示会被系统化、工具化。但上下文架构师不同。他们的工作是:设计AI系统”应该知道什么”——哪些知识放系统提示,哪些通过RAG实时检索,哪些通过工具调用获取,哪些根本不需要AI知道。这是关于知识结构和信息流的系统设计能力,不会被工具替代。

3. AI输出审计员(AI Output Auditor)

当AI大量生产代码、法律文件、医疗建议,谁来审查输出是否正确、合规、没有幻觉?

(幻觉,hallucination:AI以高度自信方式输出错误信息的现象,是目前所有大语言模型都存在的问题。)

医疗行业的审计员需要是医生,法律行业需要是律师。工作范式完全不同——他们需要知道AI在什么类型的任务上容易出错,以及如何高效验证AI结论的可靠性。

4. Skill开发者(Skill Developer)

OpenClaw的ClawHub上现在有超过3000个插件,未来会有3万个,30万个。Skill开发者的工作是:理解用户的真实需求,把需求拆解成AI能理解和执行的指令集,并让这个能力包在各种边界情况下不出错。App Store早期独立开发者靠一款工具app养活自己的机会窗口有三四年。

Skill经济的窗口可能更短——十八个月到两年。但回报会很高,因为现在会做的人还是少数。

5. 人机协作培训师(Human-AI Collaboration Trainer)

帮助那些不熟悉AI工具的员工完成工作方式转型。

不是教人用某个软件,而是帮助人重建关于”工作是什么”的认知——什么任务应该交给AI,什么任务应该自己做,在哪些地方信任AI是危险的。

2028年,这会是中大型企业内部需求最旺盛的岗位之一。

6. AI伦理调解员(AI Ethics Mediator)

当AI做出了一个决策,伤害了某个人,谁来承担责任?AI伦理调解员横跨技术、法律、心理学、社会学,在AI系统造成真实伤害的案例中,帮助各方理解发生了什么,为受害者争取合理的解释和补偿,并推动系统改进。

2027年,第一批专门处理AI相关纠纷的仲裁机构会出现。

九、现在我要说那些没人想说的

以上说的是机会。现在说让我睡不好觉的那部分。

有一种流行的叙事,讲的是”AI带来的财富将惠及所有人,全民高收入时代即将到来”。

马斯克讲过类似的愿景,OpenAI也勾勒过类似的图景。听起来很美,但我不信。

不是不信AI能创造巨大财富。我信。

我不信的是”这些财富会均匀分配”这件事。

历史上从来没有过哪次技术革命,让财富分配变得更平等。

蒸汽机出现的时候,工厂主变富了,工人从农村来到城市,生活水平在最初几十年是下降的。

电力普及的时候,拥有电力基础设施的资本家获益最多,普通工人的工资增长远慢于生产力提升。

互联网经济造就了少数极度富裕的人,同时让大量传统行业就业机会消失,中产空心化在很多国家是肉眼可见的。

AI这一轮,我认为不会是例外,甚至会是历史上财富集中速度最快的一次。

原因很简单:这次被替代的不只是体力劳动,而是几乎所有标准化的认知劳动。

而认知劳动,正是过去五十年中产阶级赖以存在的护城河。

十、我真正担心的那个未来

让我说一个可能会发生的场景,这不是科幻,这是一个逻辑上能够自洽的推论。

2028年到2030年之间,会有一批国家开始推行某种形式的全民基础收入或AI红利分配制度。

听起来不错,对吗?

但细节决定一切。

这种基础收入,金额不会让你过得很好,只够让你不饿死。

足够你租一个小单间,买一些超加工食品,购买某种娱乐订阅服务。不够你投资,不够你创业,不够你送孩子上好学校。

勉强够你活着,不够你向上走。

而那些向上走的人,那些拥有AI工具、AI资产、AI编排能力的人,他们的财富积累速度将是另一个量级的。

这不是贫富差距,这是物种分化。

更可怕的是:这种差距会非常稳定。

为什么稳定?因为维持这种稳定,不再需要暴力,不再需要明显的压迫,只需要数据和算法。

十一、大数据维稳与NPC化

我们已经生活在一个行为数据被大规模收集的世界里了。你在哪里停留,你点击了什么,你在某个内容上停顿了几秒,你何时刷了多久的短视频,你搜索了什么——这些数据,正在被用来预测和影响你的行为。

这还只是2026年的状态。

到2029年,当AI的能力全面成熟,当传感器更无处不在,当预测模型更精准——这套系统的能力会是现在的几十倍。

当一个系统足够了解你,它就能在你不知不觉的情况下,把你的注意力引导到它希望你去的地方。

给你推送让你愉快的内容,让你停留更长时间,让你购买更多东西,让你的情绪保持在一个容易管理的区间内。不愤怒,不绝望,不冷静,不深思。就是那种让你感觉”挺好的”但什么也没发生的状态。

NPC化,是一个无感的过程。

NPC——游戏里那些有固定行为模式、在你不跟它互动时就循环执行预设动作的角色。它们看起来像在生活,但其实是在运行程序。

我担心的是:相当一部分人,会在不知情的情况下完成这个转变。

每天起床,刷一下推送,感觉了解了世界;上班,做一些被AI指定的任务,或者不工作,领着基础收入;下班,刷视频,玩游戏,订外卖;睡觉。循环。
不是不幸福。而是不清醒。

十二、奶头乐的工业化与精准投放

1995年,布热津斯基在一次精英会议上说过一个词:tittytainment——奶头乐。当全球化导致大量人口在经济上变得”多余”,最有效的社会管理方式,是给他们足够的娱乐和基本的物质满足,让他们不会产生威胁性的愤怒或组织。

他说这话是1995年,那时候还没有短视频,没有算法推荐,没有精准内容投放。那时候的”奶头乐”是粗放的:电视、体育、廉价食品。

现在的奶头乐,是精准的、个性化的、实时调整的。

它知道你喜欢什么风格的内容,知道多长的视频刚好让你愉快但不会疲惫,知道什么时候给你推送一条负面内容来调动情绪让你继续停留。

当AI完全成熟,这套系统的精准度将达到一个让人不安的水平。

你看到的内容,不再只是在你刷视频的那几个小时影响你,它会塑造你对世界的认知,影响你认为什么是正常的,什么是可能的,什么是值得追求的。

一个始终只看到”普通人也可以躺平”内容的人,和一个始终只看到”这个时代充满机会”内容的人,最终会活在完全不同的现实认知里——即使他们住在同一个城市,走过同一条街道。
这不是未来,这是现在。AI只会让它更彻底。

十三、那些悬而未决的真实风险

监控资本主义的升级

当AI Agent开始在你的本地机器上运行,当它深度嵌入你的工作流,当它访问你的文件、邮件、日历——你的AI助理,可能同时也是这个星球上对你了解最深的数据收集节点。

谁拥有这些数据?谁能访问这些数据?当这些数据被用于信用评估、保险定价、就业决策——这些问题,现在几乎没有国家有足够完善的法律框架来回答。

AI幻觉的大规模工业化危害

当AI被大规模用于法律文件、医疗建议、新闻内容生产,幻觉就不再是让用户皱眉的小问题,而是可能造成真实伤害的系统性风险。2027年,预计会出现第一批”因AI生成的错误医疗建议导致伤害”而进入法律程序的案例。

权力集中的速度超过任何历史先例

现在,世界上最重要的AI能力,集中在少数几个实验室手里——Anthropic、OpenAI、Google DeepMind、DeepSeek。这种集中程度,在人类历史上没有先例。核技术是分散的,电力基础设施是分散的,互联网架构是分散的。但顶级AI能力,正在高度集中。谁控制了最聪明的AI,就控制了未来的生产力、信息生产、决策支持,甚至科学研究的速度和方向。
十四、关于我女儿的教育,我有一些很具体的想法

前面说了那么多宏观的,现在说一件最私人的事。

我有一个女儿。

每次我想到那些数据,想到2027年到2030年会发生什么,我都会想:她那时候在哪里,在做什么,她有没有准备好?

然后我会意识到,”准备好”这件事,不是她一个人的事,是我现在就要开始做的事。

我目前的想法是:初中读完就保留学籍,然后带她用另一种方式学习。

我知道这听起来很激进。但我想解释一下我的逻辑。

现在的学校教育,本质上是在培养一个适应1990年代工业社会需求的人:服从规则,完成指定任务,在标准化考试中取得好成绩,然后进入一个大机构,做一份稳定的工作。
这套逻辑,在AI时代是失效的。

不是说知识不重要,而是”用背诵和刷题来积累知识”这件事,是AI时代性价比最低的事情。因为AI能记住所有你背过的东西,而且比你背得更准、调用得更快。

那么,什么是AI时代性价比最高的教育?

我的答案是:让一个人尽早接触真实世界里真实的问题,然后学会用各种工具——包括AI工具——去解决它。

具体来说,我计划带她去做几件事:

第一件:接触物流行业。

物流是一个你不研究就不知道有多复杂的行业。从仓库的货物管理,到最后一公里的派送路径优化,到跨境物流的海关申报,到冷链运输的温控管理——每一个环节都有真实的痛点,每一个痛点都有AI能插手的机会。

更重要的是,物流行业是一个”人机协作”形态会在2027年到2029年间最先成熟的行业之一。她提前接触这个行业,不是为了去做快递员,而是为了理解一个真实的复杂系统是怎么运转的,以及AI在其中扮演什么角色、有什么局限。

第二件:接触AI服务业。

所谓AI服务业,就是”帮别人用AI解决问题”这件事。现在有大量传统中小企业,他们知道AI有用,但不知道怎么用,也没有能力自己搭建。能给他们做AI工作流设计、Agent部署、数据整理的人,现在是严重稀缺的。

我想让她真正做几个这样的项目——哪怕规模很小,哪怕是给亲戚的小店做一个AI客服或者库存管理工具。重要的不是规模,而是经历真实的需求对接、真实的交付、真实的反馈循环。
第三件:接触能源和网络基础设施。

这两个行业,大多数年轻人觉得很无聊。但它们会是接下来十年增长最快、且最不容易被完全AI化的行业之一——原因很简单,它们需要物理世界里的实地判断和操作,这是AI目前最薄弱的地方。

更重要的是,AI算力的爆发,本质上是一个能源消耗的爆发。训练一个顶级大模型需要消耗的电力,相当于一个中等城市几天的用电量。数据中心的选址、冷却系统、电力供应——这些不性感但极其关键的基础设施,在接下来十年会有大量的建设需求和人才缺口。

让她理解这些不是为了让她去做电工,而是让她知道”数字世界”的背后是什么,那些算力从哪里来,那些数据存在哪里,支撑整个AI生态的物理基础是什么。懂得看见”看不见的基础设施”的人,思维方式会很不一样。

第四件:心理学——但不是课本上那种。

我想让她学的心理学,有两个核心方向。

第一个是自我认知。知道自己在恐惧什么,在渴望什么,知道自己的情绪是怎么被触发的,知道当一个人在影响你的想法时,他用的是什么机制。这不是为了让她变得冷漠,而是为了让她在被影响的时候,是知情的,是主动选择的,而不是被动被推着走。

第二个是——坦白说——PUA的识别与反制。

(PUA:Pick-Up Artist,泛指用系统性的心理操控手段影响他人行为和认知的技术,现在这个词在中文语境里多指情感操控、洗脑等行为。)

这个世界上有大量的人,会用各种形式的话术来操控他人——不一定是感情上的PUA,可能是商业谈判里的、团队管理里的、网络舆论里的、甚至内容推荐算法里的。

我希望她很早就知道:当有人让你感觉”你还不够好”、”你需要依赖我”、”只有我理解你”——这不是真相,这是一种技术。当你能识别这种技术,你就很难被它困住。

这比任何课本上的心理学都重要。

第五件:融入各种圈子。

这件事没有方法论,只有去做。

我会在我能力范围内,带她接触不同行业、不同背景、不同年龄层的人。不是为了让她建立人脉,而是为了让她知道:世界比她能看见的更大,人们解决问题的方式比她想象的更多样,没有一种生活方式是唯一正确的。

一个见过足够多不同人的人,有一个很重要的能力:她不会轻易被某一种叙事框住,告诉她”只有这条路才是对的”。

第六件:人生题库。

这是我一直在思考、打算单独写文章展开讲的一个概念,这里先说个轮廓。

我们在学校里刷题,刷的是别人出的、有标准答案的题。

但人生里真正的问题,没有标准答案,而且大多数问题你只有亲身遇到了才知道它的存在。

所谓人生题库,是让一个人主动积累那些”只有自己能遇到并解答”的问题——你做过一个决策,后来发现对了或者错了,你要知道为什么;你和一个人发生了冲突,你要能把这个冲突拆解成一道题,分析它;你遇到了某个行业的某个机会,你要能评估它。

这些题不是从书本上来的,是从生活里来的。而一个人积累的人生题库越丰富、越经过自己真正的思考——他的判断力就越强,他越不容易被别人的叙事带走,他越能在真实世界里做出属于自己的选择。
(关于人生题库这个概念,我后面会单独写文章详细讲。如果你对这个话题感兴趣,可以先关注一下。)

我为什么这样规划,而不是让她老老实实把高中上完?

不是因为我觉得高中没用。是因为我觉得时间是有成本的。

她在高中刷题的那三年,如果用来做上面这些事,她会积累什么?她会积累真实的判断经验、真实的行业认知、真实的人际网络、真实的工具能力,以及一个对”我是谁、我想要什么、我如何面对困难”有初步答案的自我认知框架。

这些东西,是高考卷子给不了的。而且在AI时代,这些东西的价值,会比一张大学文凭更持久。

我当然不是在说文凭没用。文凭还有用,还会有用很多年——但它的用处,正在从”证明你有能力”变成”证明你没有明显的缺陷”。这是两件不一样的事。

学籍保留,是因为我也不确定。如果她在外面走了一年发现自己更想去大学,那学籍还在,路还在。我不是要帮她做决定,是要让她有选择。

这整件事,我想做的不是一个另类的教育实验,而是一件很朴素的事:让她在世界真正变天之前,有机会用脚踩过那些她将来要站上去的土地。

十五、写给那些还没决定往哪走的人

我认识的那个质检员,他现在送外卖,不是因为他不够努力,也不是因为他不够聪明。是因为他在做决定的时候,信息不对称。他不知道那扇门在哪里,不知道那扇门什么时候关。

我不想假装这篇文章能解决那个问题。它解决不了结构性的问题,解决不了信息不对称,解决不了资本的逻辑。

但它能做的是:让你知道,有一个窗口,现在是开着的。

你现在能做什么?

学会编排,不只是使用。会用AI工具是基础,会设计让多个AI协作完成复杂任务的工作流,才是竞争力。

开始建你自己的知识库。当所有人都用同一个基础模型,你积累的私有数据和结构化经验,是让你的AI比别人的AI更聪明的唯一方法。

关注Skill经济。ClawHub、各类Agent插件市场——去看看有哪些需求是你所在行业里真实存在、但还没有人做插件解决的。那是你的线索。

还有最重要的一件事:保持清醒。

不是不要娱乐,不是要你二十四小时工作,而是要知道自己在做什么,为什么在做。知道什么时候你是在主动选择,什么时候你是在被推着走。
去咖啡馆,去和人坐下来聊,去产生那些无法被流程化的想法。更是你维持清醒、不变成NPC的方式。

因为NPC化的本质,不是你不勤劳,不是你不聪明,而是你停止了真正意义上的选择。你在运行程序,而不是在做决定。

写在最后

计算机出现的时候,没有消灭工作,它改变了什么样的工作有价值。 互联网出现的时候,没有消灭工作,它改变了工作发生在哪里。 AI成熟的时候,不会消灭工作,它将改变——为什么,工作有价值。

但在它改变这件事的过程中,财富会向少数人集中,权力会向少数机构集中,注意力会被算法捕获,认知会被内容塑造,越来越多的人会在”感觉还不错”的状态下,悄悄地失去自我决策的能力。

这不是预言,这是正在发生的事的延伸。

我认识那个做外卖的质检员,也认识那个管理着一堆AI的博主。他们都不是坏人,也都不是蠢人。他们之间的差距,正在变成一道不容易跨越的沟。

我写这篇文章,不是要恐吓谁,也不是要贩卖焦虑。

是因为那条往下走的路,在开始走的时候,看起来和往上走的路是一样的风景。直到走了很远之后,才会发现自己去了哪里。

而那个发现的时刻,可能来不及回头。

时钟在走。

窗口在收窄。

你现在看到的,是这篇文章。下一步,是你的选择。

写于2026年3月27日。乐观的部分我希望说对了,悲观的部分我希望说错了。关于我女儿的那部分,是我最认真写的,因为那是我唯一真正有把握的事:我想让她准备好。

评论

抢沙发