当AI变成基础设施,孩子真正该学什么

Create Mar 12, 2026

前两天,我在一个朋友拉的 AI 讨论群里,看到一个很现实的话题。

家长既希望孩子早点接触和学习 AI,又不希望孩子太依赖 AI。

我太理解这种拧巴了。

一方面,所有人都能感觉到,这一轮技术变化来得太快了。今天不会用,明天就有可能落后。孩子如果太晚接触,很容易错过最早的一波适应窗口。

但另一方面,家长又会天然害怕:

如果孩子太依赖 AI,以后是不是就不愿意自己动脑了?会不会懒得阅读,懒得写字,懒得思考?会不会把 AI 给出的每一个答案都当成标准答案?

这种担心不是没道理。

但我这几天越想越觉得,难点其实不在“要不要依赖”,而在另一层。

当 AI 慢慢变成基础设施以后,我们到底该教孩子什么?

依赖,其实是不可避免的

很多人一提到 AI 教育,就本能地想把“接触”与“依赖”对立起来。

好像理想状态是:孩子既能熟练使用 AI,又永远保持足够独立,最好只把它当一个辅助工具,而不是生活和学习的一部分。

听起来很美好,但从技术演化的历史看,这件事大概率并不会这样发生。

任何新技术在刚出现的时候,都会伴随类似的担忧。

汽车刚普及的时候,会有人担心人类走路能力退化。

电脑刚进入办公室和家庭的时候,也会有人担心大家以后字都不会写了。

互联网兴起的时候,又有人担心人类的记忆力、阅读能力、专注力都会被彻底打散。

这些担心,并不完全错。

技术每往前走一步,人类确实都会把一部分能力外包出去。

但当一项技术慢慢变成基础设施以后,社会真正讨论的,通常就不再是“能不能依赖”,而是“怎么更好地使用”,以及“哪些能力还必须留在自己身上”。

今天已经很少有人会认真地说:

“不要太依赖电脑,万一以后忘了写字怎么办。”

因为电脑已经不是一个可有可无的高级玩具,而是整个社会运转的一部分。你不会因为担心依赖电,就拒绝让孩子用灯。也不会因为担心依赖搜索引擎,就要求孩子回到完全手工查资料的时代。

我觉得 AI 也正在走向这个阶段。

它今天也许还不够稳定,幻觉还很多,工具形态也还在高速变化,但它已经开始像水、电、网络、手机一样,逐渐渗入学习、工作、生活的底层。

所以从某种意义上说,依赖不是能不能避免的问题,而是早晚会发生的问题。

真正的问题变成了:

当依赖不可避免时,我们人还该保留什么。

最麻烦的是,大人自己也不知道该不该相信

这一点,可能才是这一代家长最尴尬的地方。

以前很多教育问题,至少大人自己心里是有把握的。

比如该不该多读书,该不该练字,该不该多运动,该不该少看电视。你未必每件事都做得好,但至少知道大方向在哪。

可到了 AI 这里,很多大人自己都没有答案。

AI 明明越来越强了,知识越来越多了,表达越来越像那么回事了。很多时候,它给出的解释、总结、建议,看起来都比普通人自己说得更完整、更有条理。

问题就在这里。

随着 AI 的知识丰度越来越高,对于绝大多数普通人来说,已经越来越难分辨哪些信息是真的,哪些信息是假的,哪些只是说得像真的。

更麻烦的是,如果原始语料本身就带着错误、偏见或过时信息,那么 AI 的输出只会把这些东西重新组织得更顺滑、更自然,让人更难起疑心。

这就带来了一个很现实的问题:

当大人自己都不知道该不该彻底相信 AI 时,又怎么去教孩子。

这也让我越来越确定,教育的重点不能只停留在“教会孩子怎么用 AI”。

因为工具层面的东西,变化太快了。

今天最火的产品,明年可能就被新的产品替代。今天最流行的提示词技巧,过一阵子可能就被系统默认能力吞掉。你今天辛苦总结出来的“秘籍”,很可能两年以后就没什么意义了。

所以教育真正该抓住的,不是这一层。

当AI越来越强,教育反而要回到更老的东西

最近我看到一条写得很好的推文,里面提到一些站在 AI 产业最前沿的人,给自己孩子规划的方向,反而并不是去卷某一种最新技术技能。

他们更看重的,恰恰是一些看起来很“老”的东西:

同理心、沟通能力、解决真实世界问题的能力、逻辑和提问能力、跨学科的通才视角,以及承担责任的能力。

我觉得这很有意思。

它至少说明了一件事:越站在技术最前沿的人,越容易看清一个事实。

工具会越来越强,越来越便宜,也越来越像基础设施。可人的价值,反而会往那些不那么像工具的地方收缩。

比如同理心。

AI 可以模拟安慰,可以模仿语气,可以写出很像样的共情表达。但它没有真实生命经验,也不承担真实的人际后果。人与人之间真正的理解、陪伴和信任,不会因为一句顺滑的话术就自动成立。

比如提问能力。

当 AI 越来越擅长给答案的时候,真正稀缺的就不再是“知道很多答案的人”,而是“知道该问什么问题的人”。

比如责任感。

AI 可以提供建议,可以列出选项,可以把事情分析得头头是道,可以进行自动化投资交易。但最后谁来拍板,谁来承担后果,谁来面对一个真实的人、一个真实的家庭、一次真实的亏损,一个真实的社会环境,这件事终究还是落在人身上。

再比如价值观和判断力。

未来孩子一定会越来越频繁地接触 AI,向它提问、让它辅导、让它帮着写、帮着查、帮着做决策。这个趋势几乎不可逆。

所以,越是这样,越要让孩子慢慢建立起一种内在的坐标系。

什么是重要的,什么是不重要的;什么是对的,什么是错的;什么值得长期投入,什么只是短期诱惑;什么时候该相信工具,什么时候要保持怀疑。

这些东西,不会自动从 AI 的回答里长出来。

它只能从生活、家庭、阅读、交流、观察、犯错、反思里,一点一点长出来。

所以我现在更愿意这样理解 AI 时代的教育:

不是培养一个更会用工具的人,

而是培养一个不容易被工具带偏的人

普通家庭真正该做的,也许没有那么复杂

如果把这个问题落回到普通家庭,我觉得可以先做几件很朴素的事。

第一,不要把“会不会用 AI”当成教育目标本身。

让孩子接触,可以。但接触 AI,不应该等于把 AI 当成成绩机器、答题机器、偷懒机器。它更像一个新环境的一部分,一个新基础设施的一部分。孩子迟早会用上,但重点不是“多早学会点按钮”,而是他在使用的时候,脑子是不是还在。

第二,要让孩子保留提问和怀疑的能力。

不是 AI 说了什么就是什么,而是要习惯追问:你为什么这么说?这个信息是哪来的?有没有别的角度?如果答案错了,错在哪里?

第三,要让孩子持续接触真实世界。

去和人打交道,去观察具体的人和事,去处理现实里的小麻烦,去体验合作、冲突、责任、照顾、承诺这些东西。AI 在虚拟世界里会越来越强,但很多真实世界的问题,依然需要一个人在场。

第四,要比以前更重视价值观和逻辑。

因为未来真正危险的,不一定是孩子不会用 AI,而是他会用,却没有判断力;接收到大量信息,却没有稳定的逻辑;表达越来越流畅,内里却越来越空。


写到这里,我反而觉得,家长最该担心的,也许不是孩子会不会依赖 AI。

因为这件事,大概率本来就会发生。

更该担心的是:

当孩子开始依赖 AI 的时候,他心里有没有一个自己的标尺。

他能不能判断一件事值不值得做,能不能分辨一个答案靠不靠谱,能不能在工具越来越强的时候,依然保住一点属于自己的方向感。

所以如果让我概括为一句话,我大概会这么说:

当 AI 变成基础设施以后,教育最重要的任务,不是阻止孩子依赖它,而是让孩子在依赖它的时候,依然保有判断力。

这可能不是一个让人轻松的答案。

但我觉得,这大概是更真实的答案。

Tags

QiDi

Trusting the journey. From Beijing to Japan, I’ve traded one chapter for another to build a new life here. This is where I document my story of starting over. | 一切都是最好的安排。 从北漂到日漂,开启一段新的人生,讲述自己的故事。