当前,人工智能不仅重塑着生产力,更对教育这一传承文明、塑造未来的领域提出了严峻挑战。面对这股浪潮,是严防死守,还是大胆拥抱?答案或许在于一种平衡的智慧:教育需要坚决回归对人的“基本能力的培养”,同时必须为前沿探索建立一个“风险可控的创新”环境。作为一个理工科非AI专业,多年来从事互联网研究的退休老师,谈一些个人的体会。

CERNET网络中心副主任、清华大学教授 李星
基础教育需要打好做人的基础
面对AI的发展,首先应分清不同教育阶段的根本目标。对于基础教育,我觉得不应该大规模地用AI取代人类老师。基础教育的重点是打好做人的基础:包括读写技能、逻辑思维、计算能力、健康体能和在极端情况下的生存技能,以及最为重要的“人际交往与协作能力”。学校作为一个社会化的场所,其价值无可替代。
强调回归“打好做人的基础”,并非因循守旧。AI首先替代的是低层次的、重复性的脑力劳动,而这恰恰是初学者构建知识体系和思维框架的必经之路。如果因为有了计算器就认为不必学算术,人的批判性思维和解决复杂问题的能力培养将无从谈起。这只会加剧“数字鸿沟”,或称之为“AI鸿沟”,让依赖工具者最终被工具驯化。因此,教育的某些根本性规律,在AI时代不仅没有过时,反而愈发彰显其价值。
另一方面,在AI的辅助下,基础教育中学生学习的速度或许会适度加快,但并不意味着可以直接缩短学制。如前所述,教育并非仅等于知识的学习,而是技能的全方位培养。知识的接收时间可以压缩,但人的成长过程无法大规模地压缩。
重构高等教育的评价与实践体系
在打好基础的前提之上,高等教育的使命是为社会培养能够解决复杂问题的专业人才。而面对AI的冲击,高等教育必须重构其评价与实践体系。传统的论文、报告等考核方式,在AI可轻松生成长篇文章的今天,其用于考评的有效性需重新衡量。我认为,应改革考核方式,以检验学生的真实水平。具体而言,可以继续推行闭卷考试,强迫学生在没有AI协助的情况下对于学科知识体系的理解和洞察;同时可推广口试,由经验丰富的教师组成考评组,通过即问即答,判断学生对知识的理解深度与思维过程。一个有经验的教师,通过几个关键提问,就能判断学生的水平是源于真才实学,还是AI的包装。
另一方面,更深层次的挑战在于,AI正在替代大量入门级的脑力劳动,使得企业培养实习生的意愿大大降低。然而,任何资深专家都是从实习生成长起来的,此类趋势可能导致学生失去至关重要的“在实践中学习”的机会。传统的“企业实习”作为连接学业与职场的关键一环可能被弱化,而破解之道,或许在于将综合实践环节回归校园。如今,毕业生在学习的最后一年里,除了要完成毕业论文之外,精力还被找工作、考公考研等各类事务占据。或可考虑参考清华大学曾经实施的“五年制”,最后有一整年的“毕业设计”。具体而言,是将毕业设计延长至一年,让学生在学校的支持下潜下心来,专注完成真实的项目。学校与企业的根本区别在于,学校的核心目标是育人,能够也应当承担这份“教育成本”,为学生创造企业难以提供的成长土壤。
对于毕业设计的具体内容,在坚持专业训练和严格考核的同时,可以大胆利用AI赋能。例如,可构建高度仿真的虚拟实践环境(元宇宙)。这有别于完成一份传统的论文或设计,我曾经想利用未来网络试验环境,重演从ARPANET诞生到今天的互联网,部署数百个RFC定义的协议。学生可以“回到”互联网诞生的早期或其他历史现场,在沉浸式体验中理解先贤们面临的真实抉择。这种体验的核心在于,它不再是简单的知识检验,而是创造一个开放的实验环境,学生做出的每一个决策都可能引发系统的不同演进路径,从而深刻地培养战略思维和宏观决策能力。该方法类似于MBA的案例教学,但AI能将其提升到前所未有的深度。
构建风险可控的AI创新“试验环境”
无论是重构评价体系,还是创设虚拟实践环境,这些教育改革设想都指向了一个共同的需求:需要一个能包容试错、保障安全、富集资源的创新生态。我长期以来呼吁构建的“人工智能专网”或“学科专网”,其核心目标恰恰是为前沿探索构建一个规模化、风险可控的创新环境。
传统上,重大的、高风险的创新尝试往往受限于物理条件或安全顾虑而难以开展。我们能否在数字世界里,为各个学科打造一个专属的创新专网?此类专网与公共互联网实现逻辑隔离,拥有自己的生态和规则。在这里,研究者可以规模化地进行在公网上无法实施的有一定风险性的试验,快速试错并进行迭代。中国有众多学科,如果每个学科都能构建这样一个专网,连接所有相关院校和机构,或许能形成强大的规模效应,让思想的碰撞和实验的迭代效率发生质变。
当前关于AI“幻觉”的治理难题,从另一个角度揭示了这类专网的前沿价值。对于面向公众的服务,确保AI的可靠与“对齐”至关重要。然而在科研的边界,情况则更为复杂。如果我们以实用主义标准,要求AI在所有场景下都产出绝对“正确”的结果,可能会不自觉地排斥掉那些看似“错误”、却可能指向未知规律的非共识探索路径。问题或许不在于是否完全消除“幻觉”,而在于能否在一个安全且富集的环境中去引导、观察和筛选它。
在专网内部,可以主动设定规则,安全地引导多个智能体进行高强度的推理、辩论甚至相互质疑,其全过程受到严密监控与审计,风险被严格控制在网络内部。研究人员则能观察这些交互,从中捕捉反常模式、矛盾点或意想不到的关联——这些都可能成为激发人类研究者颠覆性灵感的催化剂。它借鉴了国际先进科研管理的精髓,如支持“高风险、高回报”的探索,因为真正的创新往往始于对未知的勇敢试错,而一个成熟的科研环境需要为这种试错提供制度化的安全空间。近期爆火的“OpenClaw”和“MoltBook”,可以看作是对这类实践的探索。
这种大规模、高可信的专网构想,也对底层网络基础架构提出了革命性要求,其核心正是IPv6。我曾在多个场合阐述过一个观点:最初的互联网(IPv4)是为计算机联网设计的,移动互联网是为每个人联网,而下一代网络(IPv6)则不仅是为每个人,更是为海量的“AI智能体”或“机器人”联网的。未来,一个人可能拥有数十甚至上百个为之服务的智能体,专网内部也会有大量智能体进行交互,每个都需要一个独立、可信、可追溯的网络身份。
IPv4枯竭的地址空间无法支撑如此量级的连接,而IPv6的海量地址正是为此而生。更重要的是,在学科专网内,可以为每个智能体或实验进程分配一个可验证的IPv6地址,如同为其颁发了一张“数字身份证”。这确保了即使AI产生“幻觉”或进行高风险推演,其行为也能被精准定位、审计和追溯,从技术上实现了“风险可控的创新”中的“风险可控”。这不仅仅是连接的自由,更是在可管理、可信任的前提下,赋予智能体进行创造性探索的自由。
结语
AI时代的教育,需要在“以人为本”与“颠覆性创新”之间找到平衡。一方面,要坚守基础教育中那些不可替代的“基本能力的培养”,建立人之为人的根基;另一方面,则要通过构建“学科专网”等风险可控的环境,以AI促进高阶创新。这可能是教育应对挑战的务实路径,也是塑造未来发展韧性的关键所在。
本文根据李星教授采访整理