当AI变成基础设施,孩子真正该学什么
前两天,我在一个朋友拉的 AI 讨论群里,看到一个很现实的话题。
家长既希望孩子早点接触和学习 AI,又不希望孩子太依赖 AI。
我太理解这种拧巴了。
一方面,所有人都能感觉到,这一轮技术变化来得太快了。今天不会用,明天就有可能落后。孩子如果太晚接触,很容易错过最早的一波适应窗口。
但另一方面,家长又会天然害怕:
如果孩子太依赖 AI,以后是不是就不愿意自己动脑了?会不会懒得阅读,懒得写字,懒得思考?会不会把 AI 给出的每一个答案都当成标准答案?
这种担心不是没道理。
但我这几天越想越觉得,难点其实不在“要不要依赖”,而在另一层。
当 AI 慢慢变成基础设施以后,我们到底该教孩子什么?
依赖,其实是不可避免的
很多人一提到 AI 教育,就本能地想把“接触”与“依赖”对立起来。
好像理想状态是:孩子既能熟练使用 AI,又永远保持足够独立,最好只把它当一个辅助工具,而不是生活和学习的一部分。
听起来很美好,但从技术演化的历史看,这件事大概率并不会这样发生。
任何新技术在刚出现的时候,都会伴随类似的担忧。
汽车刚普及的时候,会有人担心人类走路能力退化。
电脑刚进入办公室和家庭的时候,也会有人担心大家以后字都不会写了。
互联网兴起的时候,又有人担心人类的记忆力、阅读能力、专注力都会被彻底打散。
这些担心,并不完全错。
技术每往前走一步,人类确实都会把一部分能力外包出去。
但当一项技术慢慢变成基础设施以后,社会真正讨论的,通常就不再是“能不能依赖”,而是“怎么更好地使用”,以及“哪些能力还必须留在自己身上”。
今天已经很少有人会认真地说:
“不要太依赖电脑,万一以后忘了写字怎么办。”
因为电脑已经不是一个可有可无的高级玩具,而是整个社会运转的一部分。你不会因为担心依赖电,就拒绝让孩子用灯。也不会因为担心依赖搜索引擎,就要求孩子回到完全手工查资料的时代。
我觉得 AI 也正在走向这个阶段。
它今天也许还不够稳定,幻觉还很多,工具形态也还在高速变化,但它已经开始像水、电、网络、手机一样,逐渐渗入学习、工作、生活的底层。
所以从某种意义上说,依赖不是能不能避免的问题,而是早晚会发生的问题。
真正的问题变成了:
当依赖不可避免时,我们人还该保留什么。
最麻烦的是,大人自己也不知道该不该相信
这一点,可能才是这一代家长最尴尬的地方。
以前很多教育问题,至少大人自己心里是有把握的。
比如该不该多读书,该不该练字,该不该多运动,该不该少看电视。你未必每件事都做得好,但至少知道大方向在哪。
可到了 AI 这里,很多大人自己都没有答案。
AI 明明越来越强了,知识越来越多了,表达越来越像那么回事了。很多时候,它给出的解释、总结、建议,看起来都比普通人自己说得更完整、更有条理。
问题就在这里。
随着 AI 的知识丰度越来越高,对于绝大多数普通人来说,已经越来越难分辨哪些信息是真的,哪些信息是假的,哪些只是说得像真的。
更麻烦的是,如果原始语料本身就带着错误、偏见或过时信息,那么 AI 的输出只会把这些东西重新组织得更顺滑、更自然,让人更难起疑心。
这就带来了一个很现实的问题:
当大人自己都不知道该不该彻底相信 AI 时,又怎么去教孩子。
这也让我越来越确定,教育的重点不能只停留在“教会孩子怎么用 AI”。
因为工具层面的东西,变化太快了。
今天最火的产品,明年可能就被新的产品替代。今天最流行的提示词技巧,过一阵子可能就被系统默认能力吞掉。你今天辛苦总结出来的“秘籍”,很可能两年以后就没什么意义了。
所以教育真正该抓住的,不是这一层。
当AI越来越强,教育反而要回到更老的东西
最近我看到一条写得很好的推文,里面提到一些站在 AI 产业最前沿的人,给自己孩子规划的方向,反而并不是去卷某一种最新技术技能。
他们更看重的,恰恰是一些看起来很“老”的东西:
同理心、沟通能力、解决真实世界问题的能力、逻辑和提问能力、跨学科的通才视角,以及承担责任的能力。
我觉得这很有意思。
它至少说明了一件事:越站在技术最前沿的人,越容易看清一个事实。
工具会越来越强,越来越便宜,也越来越像基础设施。可人的价值,反而会往那些不那么像工具的地方收缩。
比如同理心。
AI 可以模拟安慰,可以模仿语气,可以写出很像样的共情表达。但它没有真实生命经验,也不承担真实的人际后果。人与人之间真正的理解、陪伴和信任,不会因为一句顺滑的话术就自动成立。
比如提问能力。
当 AI 越来越擅长给答案的时候,真正稀缺的就不再是“知道很多答案的人”,而是“知道该问什么问题的人”。
比如责任感。
AI 可以提供建议,可以列出选项,可以把事情分析得头头是道,可以进行自动化投资交易。但最后谁来拍板,谁来承担后果,谁来面对一个真实的人、一个真实的家庭、一次真实的亏损,一个真实的社会环境,这件事终究还是落在人身上。
再比如价值观和判断力。
未来孩子一定会越来越频繁地接触 AI,向它提问、让它辅导、让它帮着写、帮着查、帮着做决策。这个趋势几乎不可逆。
所以,越是这样,越要让孩子慢慢建立起一种内在的坐标系。
什么是重要的,什么是不重要的;什么是对的,什么是错的;什么值得长期投入,什么只是短期诱惑;什么时候该相信工具,什么时候要保持怀疑。
这些东西,不会自动从 AI 的回答里长出来。
它只能从生活、家庭、阅读、交流、观察、犯错、反思里,一点一点长出来。
所以我现在更愿意这样理解 AI 时代的教育:
不是培养一个更会用工具的人,
而是培养一个不容易被工具带偏的人。
普通家庭真正该做的,也许没有那么复杂
如果把这个问题落回到普通家庭,我觉得可以先做几件很朴素的事。
第一,不要把“会不会用 AI”当成教育目标本身。
让孩子接触,可以。但接触 AI,不应该等于把 AI 当成成绩机器、答题机器、偷懒机器。它更像一个新环境的一部分,一个新基础设施的一部分。孩子迟早会用上,但重点不是“多早学会点按钮”,而是他在使用的时候,脑子是不是还在。
第二,要让孩子保留提问和怀疑的能力。
不是 AI 说了什么就是什么,而是要习惯追问:你为什么这么说?这个信息是哪来的?有没有别的角度?如果答案错了,错在哪里?
第三,要让孩子持续接触真实世界。
去和人打交道,去观察具体的人和事,去处理现实里的小麻烦,去体验合作、冲突、责任、照顾、承诺这些东西。AI 在虚拟世界里会越来越强,但很多真实世界的问题,依然需要一个人在场。
第四,要比以前更重视价值观和逻辑。
因为未来真正危险的,不一定是孩子不会用 AI,而是他会用,却没有判断力;接收到大量信息,却没有稳定的逻辑;表达越来越流畅,内里却越来越空。
写到这里,我反而觉得,家长最该担心的,也许不是孩子会不会依赖 AI。
因为这件事,大概率本来就会发生。
更该担心的是:
当孩子开始依赖 AI 的时候,他心里有没有一个自己的标尺。
他能不能判断一件事值不值得做,能不能分辨一个答案靠不靠谱,能不能在工具越来越强的时候,依然保住一点属于自己的方向感。
所以如果让我概括为一句话,我大概会这么说:
当 AI 变成基础设施以后,教育最重要的任务,不是阻止孩子依赖它,而是让孩子在依赖它的时候,依然保有判断力。
这可能不是一个让人轻松的答案。
但我觉得,这大概是更真实的答案。