隐性知识:AI教育的困境
移居日本第 1144 天
前几天,我在整理 Luffy 收集的 AI 教育资料时,看到一个数据,让我停下来想了很久。
Stanford SCALE 在 2026 年发布的研究报告显示:
83% 使用 AI 辅助写作的学生,无法复述自己刚刚“写”的文章内容。
对照组呢?只有 11%。
一个 MIT 学生的发现
我看到一篇文章,作者是 MIT 的学生,她去采访一位做航空维护 AI 的创始人。
那位创始人说了一件事:
飞行员把飞机开进机库,填了一张纸,放进活页夹,活页夹上了架子。从来没有人扫描它。
这张纸上写的东西——某种异常的振动,起飞前的一个感觉,没办法用数字描述的“不对劲”——就这样消失了。永远不会进入任何数据库,永远不会成为任何模型的训练数据。
AI 的世界,就少了这一块。
哲学家 Michael Polanyi 在 1966 年说过一句话:
“我们知道的,永远比我们能说出来的多。”
这就是隐性知识(Tacit Knowledge)。
它存在于每个有经验的人的脑子里、手里、身体里,但从来没有被语言编码过。
AI 学不到这部分。它从结构上就学不到,更不会因为模型变得更厉害而改变。
83% vs 11% 这个数据,和隐性知识,是同一件事的两面。
AI 能学到的,只是被写下来的那一部分
AI 只能学到被写下来的东西。
而人类知道的,有很大一部分,从来没有被写下来过。
这不是 AI 不够强的问题,而是结构性盲区。
时机和直觉。
好的投资人,一眼能看出一个创始人有没有 agency(主观能动性)。
从简历看不出来,从商业计划书甚至路演里也看不出来,是从你跟他对话的方式里感觉到的。
判断力只有一个来源:见证过周期。见过一波热潮起来,见过它慢慢衰退,见过那些当时看起来必然成功的公司怎么无声地消失。然后再见一波。
只有这样,才知道什么时候该出手,什么时候该等。
数据给不了你,报告给不了你,AI 分析出的概率分布,也给不了你。
失败知识。
AI 的训练语料,严重偏向成功故事。
失败的项目,大部分不会有详尽的复盘。失败的真实原因,很多时候连创始人自己都没完全想清楚,更不会写出来。
那个大客户私下说“我们不会用这个的”,那句话没有写进任何文档。
那次产品方向的转变,真正的原因是某个人某天心情不好,但事后写出来的版本有完整的逻辑和框架。
AI 形成了一个过度理性化的世界观。它以为事情按逻辑发生。
实际上,事情按人发生。
判断力。
一架飞机出问题,从飞行员汇报到维修开始,中间经过了 24 个人工交接点。
电话、Slack、口头说了一句,再转述给下一个人。没有任何一个交接点被完整记录下来。
AI 看到的,是最后那份维修单。
维修单上的世界,和真实发生的过程,是两件事。
判断力是在那 24 个交接点里,在信息残缺、时间有限的情况下,知道下一步该做什么。先做,边做边修正。
等分析完了才做出决策,飞机早就误点了。
AI 能给你最好的分析,但它只会停在分析这里。剩下的,是人的事。
83% 的孩子,失去的是什么
回到那个数据:83% 使用 AI 辅助写作的学生,无法复述自己刚刚“写”的文章。
当孩子把写作外包给 AI 时,他们失去的不只是写作能力,而是那个“从模糊到清晰”的思考过程。
写作,本质上是思考的过程。
你不知道自己要说什么,你坐下来,开始写,写着写着,想法慢慢清晰了。你发现有些话说不通,你停下来,重新想,重新组织。
痛苦,低效,但必要。
因为在这个过程中,你在建立隐性知识:
- 什么样的论证是有力的,什么样的论证是苍白的
- 什么样的例子能支撑观点,什么样的例子只是凑数
- 什么样的结构让人读起来舒服,什么样的结构让人读不下去
没有人教过你,你也说不清楚,但你的手知道,你的脑子知道。
当 AI 替你完成这个过程时,你获得了一篇文章,但失去了“知道”的过程。
所以你记不住你“写”的东西。
因为那不是你写的,那是 AI 写的。你只是搬运工。
顶级 AI 高管给孩子的建议,都指向同一个方向
我最近看到一篇 WSJ 的文章,问了 5 位 AI 领域的顶级高管:你会给自己的孩子什么建议?
孩子年龄从 6 个月到 26 岁不等,答案惊人地一致。
Anthropic 联合创始人 Daniela Amodei(两个孩子,4 岁和 6 个月):
“当我想到我孩子长大后需要什么技能时,我认为是人类的特质:与人交往的能力、同理心以及与他人相处的能力。AI 在职场中的地位越来越重要时,人类的特质将变得越来越重要。”
微软首席科学家 Jaime Teevan(四个孩子,17-21 岁):
“元认知技能将变得非常重要——灵活性、适应性、实验精神、批判性思考、挑战事物的能力。要培养批判性思维,需要一些‘摩擦’、去做困难的事、去做深入的思考。AI 在提供建议方面非常出色,但它不能承担责任。那是人类的角色。”
沃顿商学院教授 Ethan Mollick(两个孩子,16 岁和 19 岁):
“在 AI 世界,由多种技能组合而成的通用型职业,都是不错的选择。博雅教育比以往任何时候都重要。职业生涯很长,会有很多改变,人类的适应力是很强的。”
SAP 全球组织增长主管 Caroline Hanke(一个孩子,15 岁):
“我内心深处相信,敏捷性和对变化的开放态度——能够应对变化并迅速适应的人,才是未来最核心的能力。至于大学学习什么,我会建议他学习得尽可能广泛一些。如果让我选择,我更倾向于数学,因为逻辑思维在未来的任何岗位上都将是必需的。”
没有一个人说“让孩子学编程”、“让孩子学提示词”、“让孩子学 AI 工具”。
他们都在说:同理心、批判性思维、承担责任的能力、适应变化的能力、广泛的教育。
都是隐性知识。
Stanford 的研究:工具设计决定一切
Stanford SCALE 的报告里,还有一个重要发现:
儿童教育中,辅导型 AI(Socratic/脚手架式)远优于通用 AI。
通用 AI(比如 ChatGPT),你问它一个问题,它直接给你答案。你用它做练习,当时成绩很好,但独立考试时成绩很差。
辅导型 AI,不直接给你答案,而是引导你思考。它问你问题,让你自己推导,给你提示,但最后的结论要你自己得出。
用辅导型 AI 的学生,不仅当时成绩好,独立考试时成绩也好。
更重要的是,推理深度得到了保持或提升。
为什么?
因为辅导型 AI,保留了那个“从模糊到清晰”的思考过程。
它没有替你完成,而是陪你完成。
所以你记得住,因为那是你自己想出来的。
AI 教育的核心,不是让孩子学会用 AI,而是让孩子在用 AI 的时候,依然保留思考的过程。
我们该教孩子什么
教孩子那些 AI 学不到的东西。
不是因为 AI 不够强,而是因为从结构上就无法被 AI 学到。
1. 经历和体验。
AI 可以读一万本书,但它没有经历过你的童年,没有经历过你的失败,没有经历过你的低谷。
这些经历,塑造了你的判断力、你的价值观、你的独特视角。
让孩子去经历真实的世界。去和人打交道,去观察具体的人和事,去处理现实里的小麻烦,去体验合作、冲突、责任、照顾、承诺。
2. 做困难的事情。
不要让 AI 替孩子完成所有困难的部分。
困难,本身就是学习的一部分。
写作很难,但正是在“难”里,孩子学会了思考。
数学很难,但正是在“难”里,孩子学会了推理。
如果所有困难都被 AI 消解了,孩子就失去了建立隐性知识的机会。
3. 批判性思维和怀疑能力。
不是 AI 说了什么就是什么,而是要习惯追问:你为什么这么说?这个信息是哪来的?有没有别的角度?如果答案错了,错在哪里?
在 AI 越来越强的时代,这个能力会越来越重要。
4. 承担责任。
AI 可以提供建议,可以列出选项,可以把事情分析得头头是道。
但最后谁来拍板,谁来承担后果,谁来面对一个真实的人、一个真实的家庭、一个真实的社会环境,终究还是人。
要让孩子从小就习惯承担责任。小到自己的作业、自己的房间,大到自己的选择、自己的人生。
一个更难的问题
写到这里,我意识到一个更难的问题。
隐性知识的建立,需要大量的亲自“做”。
需要你亲自写过很多烂文章,才知道什么是好文章。
需要你亲自犯过很多错,才知道什么是对的判断。
需要你亲自经历过失败,才知道什么是真正的成功。
但现在的 AI 工具恰好消解了这个过程。
它让“做”变得太容易了。容易到你可以跳过所有痛苦、低效、笨拙的阶段,直接得到一个看起来不错的结果。
问题是,那些被跳过的阶段,恰好是隐性知识形成的地方。
更麻烦的是,这个过程可能是不可逆的。
一个从小就习惯了“AI 陪写作业”的孩子,可能永远不会知道,自己独立思考一个问题是什么感觉。就像一个从小坐电梯长大的人,可能永远不会理解爬楼梯的人为什么觉得“到顶楼”是一种成就感。
所以真正的困境不是“该不该让孩子用 AI”,而是:
当 AI 把所有困难都变成可选项时,我们如何让孩子依然选择困难?
我现在还没有答案。
但我知道的是,如果我们不想让下一代变成那 83%,就必须在“效率”和“成长”之间,做出一些反直觉的选择。
让孩子用最笨的方法写作文。
让孩子用最慢的方式解题。
让孩子在明明可以问 AI 的时候,先自己想。
这听起来很反潮流,甚至有点残忍。
但说到底,隐性知识从来不是被“教”出来的,而是被“磨”出来的。
AI 时代的教育,可能不是让孩子更快地得到看起来正确、完美的答案,而是让孩子自己完成思考的整个链条。
哪怕慢,哪怕会出错。
这些,才是成长的意义所在。