可解释人工智能何以赋能教育普惠:基于立法、生态与素养三大支柱——欧盟《教育领域可解释人工智能:加强人类监督与责任共担》解读及启示

引用格式

张海,吴浩辰,苗永岱,等.可解释人工智能何以赋能教育普惠:基于立法、生态与素养三大支柱——欧盟《教育领域可解释人工智能:加强人类监督与责任共担》解读及启示[J].中国教育信息化,2025,31(11):48-61.

中国教育信息化2025-11(完整)_01.jpg

国际与比较教育

可解释人工智能何以赋能教育普惠:

基于立法、生态与素养三大支柱

——欧盟《教育领域可解释人工智能:加强人类监督与责任共担》解读及启示

张   海   吴浩辰   苗永岱   刘思琪

摘 要: 随着人工智能在教育领域的深度融合,其决策过程的“黑箱”特性引发关于公平、问责与信任的广泛关切。可解释人工智能(XAI)旨在破解此难题,成为构建可信教育人工智能生态的技术与伦理基石。据此,系统审视欧洲数字教育中心专项小组发布的《教育领域可解释人工智能:加强人类监督与责任共担》报告。其核心贡献有三点:构建“教育—法律—技术”三维协同分析框架,推动“模型可解释”向“人类可理解”的人本主义转向,并规划以分层能力建设为基石的系统实施路径。借鉴该报告核心思想,结合我国《教育强国建设规划纲要(2024—2035年)》与《国务院关于深入实施“人工智能+”行动的意见》的战略布局,从立法路径前瞻、教育生态构建、素养建设路径三个方面,提出完善我国人工智能教育治理体系的具体建议:一是构建“以人为本、权责清晰、动态演进”的法律体系;二是夯实教学、治理与责任透明;三是推行分层赋能与螺旋上升的课程框架。

关键词: 可解释人工智能;教育治理;人工智能法案;人工智能素养;教育生态

中图分类号: G434

文献标志码: A

文章编号: 1673-8454(2025)11-0048-14

作者简介: 张海,东北师范大学传媒科学学院教授、博士生导师,博士(吉林长春 130024);吴浩辰、苗永岱,东北师范大学信息科学与技术学院博士研究生(吉林长春 130024);刘思琪,东北师范大学信息科学与技术学院硕士研究生(吉林长春 130024)

  可解释人工智能(Explainable Artificial Intelligence, 以下简称XAI)是人工智能的重要分支,其概念体系化构建始于美国国防部高级研究计划局(DARPA)2017年启动的专项研究计划[1],旨在解决复杂机器学习模型产生的“黑箱”问题。根据欧盟数据保护监督局(EDPS)的界定,“XAI是人工智能的一个分支领域,旨在阐明基于人工智能的系统作出决策或产生输出的内在原因”[2]。随着人工智能系统向高风险领域拓展,欧盟委员会发布的《可信人工智能伦理指南》(Draft Ethics Guidelines for Trustworthy AI)[3]将“透明度”确立为核心要求,明确指出“可解释人工智能这一研究领域正致力于破解系统底层运行机制”,标志着XAI从技术挑战转变为构建可信人工智能的伦理基石,并在《人工智能法案》(AI Act)的制度框架下发展成为衔接技术创新与治理合规的关键领域。

  为应对这一趋势,2025年8月7日,欧洲数字教育中心(EDEH)可解释人工智能教育专项小组发布题为《教育领域可解释人工智能:加强人类监督与责任共担》(Explainable AI in education: Fostering human oversight and shared responsibility, 以下简称《报告》)的重要报告,旨在系统审视XAI在教育领域的应用图景、核心挑战与未来路径,并深入探讨如何通过技术透明化来强化教育过程中的人类监督权,进而构建开发者、教师、学生等多方主体之间的共同责任框架。《报告》的研究方向与我国在人工智能治理方面的政策布局高度契合。例如,《国务院关于深入实施“人工智能+”行动的意见》《国家人工智能产业综合标准化体系建设指南(2024版)》明确提出要推动人工智能与教育深度融合,并为教育领域人工智能应用的规范发展提供标准支撑[4][5]。此外,《报告》还从理念、技术与实践等多个维度,对XAI进行了详细阐述,从而为推动人工智能教育的健康、合规发展提供了前瞻性的行动指南。基于此,本文深入剖析《报告》,旨在探索教育领域推进人工智能透明治理的实施路径,借鉴其中的有益经验和启示,以期为现阶段更好地落实“人工智能+”行动的战略部署,构建具有中国特色的人工智能教育治理体系提供理论支撑与实践路径。

一、内容概要

  《报告》主要从法律框架、生态建构、素养建设三个维度,系统梳理教育中的XAI。

  (一)法律框架:人工智能教育的法治基石

  坚实的法律框架是教育领域XAI得以负责任地部署与发展的根本保障。欧盟《人工智能法案》与《通用数据保护条例》(GDPR)等法律法规共同构建了系统性法律框架,为教育人工智能的开发与应用确立了明确的法律边界与合规要求。《人工智能法案》通过基于风险的监管机制,将直接影响学生受教育权的自动评分、招生录取等系统界定为“高风险”人工智能应用,强制要求其履行严格的数据治理、人工监督及基本权利影响评估等法定义务,同时明确禁止社会评分与课堂情绪识别等可能侵犯基本权利的技术应用[6]。而《通用数据保护条例》进一步从个人数据保护维度确立了学生对自动化决策的知情权、访问权与异议权,要求所有数据处理活动必须遵循合法性、公平性及透明度原则[7]。此外,《报告》通过对自动评分、智能辅导和人工智能生成内容检测三个案例的分析,清晰呈现教育需求、法律要求与技术可行性之间的复杂互动关系,若技术方案缺乏充分可解释性,不仅会加剧系统性偏见[8][9]、损害教育公平,还将面临直接的法律合规风险。

  这些具体法律条款不仅划定技术应用的边界,更对教育机构的人工智能治理能力提出实质要求。教育领域人工智能的负责任实施,必须建立以权利保障为核心、透明可追溯的治理体系。这意味着需要构建持续的专业发展机制、开放的沟通渠道和系统的评估体系,确保人工智能工具始终作为辅助手段与教育目标保持协同,最终服务于提升教育质量的根本目的。从这一视角看,完善的法律框架并非技术创新的障碍,而是构建可信、公平、负责任教育人工智能生态的制度保障。通过技术与教育的深度融合与良性互动,人工智能才能成为真正促进学习体验优化和教育公平实现的有效工具。教育领域可解释人工智能的系统性法律框架如图1所示。

图片[2]-可解释人工智能何以赋能教育普惠:基于立法、生态与素养三大支柱——欧盟《教育领域可解释人工智能:加强人类监督与责任共担》解读及启示-AI Express News

图1  教育领域可解释人工智能的系统性法律框架

  (二)生态构建:人工智能教育的协同网络

  XAI在教育领域的有效落地,依赖于构建一个多元主体协同的生态网络。具体而言,该生态体系涵盖学生、教师、课程设计者、学校管理者、政策制定者与开发者六类核心利益相关者。《报告》详细列出各类利益相关者的关注重点,并清晰界定了其在系统理解、应用与监督过程中的职责边界。而为实现XAI的可理解性,下一步需针对不同专业背景的用户群体提供定制化解释。例如,可通过视觉化解释手段(如图表、图形界面)为学生与教师直观呈现人工智能决策逻辑,从而有效促进不同背景利益相关者之间的共识建立[10]。此外,《报告》以智能辅导系统(ITS)与人工智能驱动的教案生成器(LPG)作为典型案例,深入展示了在具体应用场景中不同角色如何通过协作互动,共同推进系统的透明性、公平性与伦理合规。由此可见,这一过程本质上将技术可解释性与多主体职责相融合,最终形成既能实现教育目标又符合伦理要求的治理结构。

  基于上述多元协同与职责融合机制,教育领域XAI的建设重点,需实现从技术维度向社会维度的深化拓展,因此必须超越单纯的技术改进,转向构建以人为核心、多方参与的责任共担体系[11]。在此体系下,各方需要通过持续对话与动态适应,共同建立具备反思性与自适应能力的教育人工智能生态,通过强化人类监督机制、促进跨角色共识形成与完善协同治理框架,确保人工智能系统真正服务于教育公平、个性化学习与人的全面发展,最终达成技术赋能与教育价值的有机统一。教育领域可解释人工智能多元主体协同生态网络如图2所示。

图片[3]-可解释人工智能何以赋能教育普惠:基于立法、生态与素养三大支柱——欧盟《教育领域可解释人工智能:加强人类监督与责任共担》解读及启示-AI Express News

图2  教育领域可解释人工智能多元主体协同生态网络

  (三)素养建设:人工智能时代的育人指南

  构建以XAI为核心的教育能力体系,是保障人工智能技术在教育领域实现负责任整合的关键路径。当前,以生成式人工智能为代表的技术虽拓展了教育可能性,但也带来操纵风险与认知惰化等伦理挑战[12]。在此背景下,教育的核心任务在于培育学习者与教育者的批判性思维能力,使其能够识别并抵御误导性信息,降低对算法的被动依赖,进而形成基于数据与逻辑的独立判断能力。而实现批判性思维需依赖人工智能素养,即个体批判性评估人工智能、有效并负责任地应用人工智能的能力[13]。XAI通过提供数据、模型与算法层面的透明性,使用户得以理解人工智能决策的内在逻辑,从而为质疑与评估其输出奠定基础,这种透明性构成批判性思维实践的技术前提[14]。由此可见,XAI与人工智能素养之间具有双向促进关系。前者通过可解释性增强用户对系统的理解,后者则提升用户对人工智能输出的解读能力、质疑意识与伦理反思水平。二者共同构建以批判性思维为目标导向、以人工智能素养为培育路径、以XAI透明性为技术支撑的教育逻辑框架,从而在理性认知与可控信任基础上推动教育系统对人工智能的负责任融合。

  若将上述理论框架转化为可操作的教育实践,学校管理机构需建立系统化的实施路径。《报告》基于国际教育标准分类(International Standard Classification of Education, 简称ISCED),构建贯通师生双侧的XAI一体化育人体系,如图3所示。该体系通过界定教师素养框架与设计学生活动,共同致力于培育能理性驾驭人工智能的未来公民。具体而言,XAI教师能力框架以“分层能力模型”为核心,系统界定从基础教育至高等教育各阶段,教师应具备的XAI素养,涵盖伦理认知、技术理解、人本设计、社会责任等多维能力。在教学实施层面,依据ISCED教育分级标准设计“螺旋式教学活动”,实现从小学阶段的人工智能认知启蒙,到中学阶段的伦理思辨能力培养,再到高等教育阶段的专业开发与社会协作的渐进式能力建构。此外,该体系强调教育内容的纵向衔接与层级反馈机制,确保学生能够逐步内化对人工智能系统的理解、评估与设计能力。在此过程中,教师作为关键中介者,需兼具学科专业知识与XAI素养,通过设计适当的学习活动引导学生建立对人工智能系统的批判意识与负责任使用能力。这一框架的全面实施,将系统化推进教育领域的XAI素养建设,为教育领域负责任地拥抱人工智能时代提供了清晰的育人指南。

图片[4]-可解释人工智能何以赋能教育普惠:基于立法、生态与素养三大支柱——欧盟《教育领域可解释人工智能:加强人类监督与责任共担》解读及启示-AI Express News

图3  基于ISCED的师生双侧XAI一体化育人体系

二、核心观点与理论贡献

  《报告》的核心理论贡献包括三个方面:首先,突破以往仅从技术角度开展研究的局限,构建了一个“教育—法律—技术”三元融合的分析框架,将教育价值目标、法律合规要求和技术实现路径三个维度有机结合,为理解和治理教育人工智能提供了系统而全面的认知基础。其次,推动人工智能系统由算法内部逻辑的可解析性,转向人类使用者对人工智能行为的真实理解与信任,即从“模型可解释”到“人类可理解”的转变。通过建立面向不同群体的分层解释体系和明确的角色分工机制,报告》将“以人为本”的理念落实到教育实践中,使人工智能系统能够更好地服务于教学理解与改进。最后,提出以能力建设为核心的实施路径,通过分层能力框架、渐进培养体系和多方协作机制的设计,为教育人工智能的可信落地提供清晰可行的行动指南,有效解决从理论到实践的转化难题。上述三方面贡献相互支撑,共同构成推动教育领域可信人工智能发展的完整理论体系,为后续研究与实践奠定坚实基础。

  (一)多维分析框架:教育、法律与技术的协同审视

  XAI在教育中的实现并非单纯的技术优化课题[15],探讨其背后的多维分析结构具有重要意义。《报告》提出一个由教育(Educational)、法律(Legal)和技术(Technical)三个维度深度融合的分析框架,作为研究教育中XAI问题的基本支柱。该框架有助于避免只谈技术、不顾教育价值目标,或忽视法律合规要求、缺乏技术实现路径等片面化讨论。通过这种结构化的分析思路,《报告》构建了一个具有实际指导意义和可操作性的研究体系。

  1.框架构成:三个维度的角色与内涵

  (1)教育维度:价值锚点与需求之源

  教育维度是框架的逻辑起点与价值锚点,界定了XAI在教育领域中的必要性与服务对象,即“为何需要”以及“为谁服务”的问题。该维度明确了XAI的核心任务:通过提供清晰、实用的解释,帮助教师和学生理解并信任人工智能的判断。例如,在自动评分系统中,人工智能不仅要给出分数,还应说明依据的评分标准和权重。为了实现这一目标,需要明确各方的责任。开发者要保证算法透明,教师要能解读和验证人工智能输出,系统管理者要持续监督和确保合规。同时,XAI还应主动促进教育公平,利用对比性解释等方法,发现并纠正其面对不同学生群体可能存在的偏差。最终,这一切需植根于坚实的政策与教学框架(如SAMR[16]、TPACK[17]与SETI[18]),并通过持续的教师专业培训来落实,确保人工智能应用始终服务于教育的核心价值与目标。

  (2)法律维度:刚性约束与责任框架

  法律维度构筑了XAI在教育中不可逾越的刚性边界,回答了“必须遵守什么”的问题。《人工智能法案》首次提出基于风险的分类框架,将人工智能系统分为“禁止、高风险、有限风险和最小风险”四类,其中教育领域招生、考试和评估系统被明确列为“高风险”类别。因此,这些系统必须在透明度、人类监督和问责机制上满足最严格的法律要求。该法案还明确AI使用全过程中的责任主体,包括提供者、部署者、进口商和分销商,并特别强调学校和教师等“部署者”在使用人工智能时,必须承担监督、记录和风险评估等职责。为防止侵犯人权,该法案明确禁止在教育中使用社会评分或情绪识别等系统,并要求对高风险人工智能开展人类监督和基本权利影响评估。此外,《人工智能法案》《通用数据保护条例》共同保障了个人获得有意义解释的权利,学生有权要求学校或平台说明自动化决策的逻辑依据和实际影响。由此,XAI不再只是技术手段,而成为法律明确保护的一项基本权利与合规要求。

  (3)技术维度:实现路径与使能工具

  技术维度回答了“如何实现”教育领域XAI这一问题,为实际教学应用提供具体的路径与工具,核心在于把复杂的算法转化为人能看懂、能操作、可追溯的形式。在这一维度中,首先,要求信息透明、文档易懂。开发者应以简洁、准确、非专业化的语言编写技术文档,使教师和学生等非技术用户也能了解系统的原理与使用方式。其次,通过两类技术路径实现有效解释。一是事后解释,即在模型训练完成后利用SHAP、LIME等工具揭示“黑箱”模型的决策逻辑;二是事前解释,即在建模阶段直接采用结构清晰、逻辑透明的算法,如决策树或线性模型,使模型本身具备可解释性。再次,在具体应用中,技术方案应为不同使用者提供分层解释。例如,为政策制定者提供系统整体的“全局解释”;为教师和学生提供与个人结果相关的“局部解释”。此外,可解释性应延伸至整个系统生命周期,包括数据来源与标注原则、设计假设、托管环境等环节,确保全过程透明。最后,技术实现应嵌入人机回环框架,将人的专业判断融入人工智能设计、评估与反馈过程,通过动态、分层、可持续的解释机制,确保人工智能系统在技术上可靠、伦理上稳健,并与教育目标始终保持一致。

  2.框架运作:维度间的协同交互

  《报告》所构建的教育、法律与技术三维框架,并非三个视角的简单并列,而是一个相互配合、协同作用的有机系统。其核心逻辑可以理解为:教育确定目标和价值方向,法律提供规范和责任约束,技术则负责具体实现路径和方法。在教育中应用XAI时,这三者构成了一个互相参照、协同运作的分析网络。《报告》通过分析具体案例,如自动评分、智能辅导和内容检测,展示了这一协作过程:先由教育视角提出核心关切,再由法律视角指出相关法规约束,最后由技术视角给出可行的解决方案,从而形成相关问题的识别和改进建议。这个过程清楚地表明:教育需求定义了目标,法律规范划定了边界,技术方案则在目标和边界内寻找最优实现路径。三个维度环环相扣,使得最终的建议既能切实解决教育实际问题,又符合法律要求,同时还具备技术可操作性。这样的系统性分析,避免了从单一角度出发的局限,确保XAI方案的全面性和说服力。

  3.框架的理论与实践价值

  教育、法律、技术融合的多维分析框架具有重要的理论价值与实践指导意义。在理论层面,这一框架为分析和治理教育人工智能这一复杂的社会技术系统提供了清晰的结构,其不仅突破了单纯从算法角度理解XAI的狭隘视野,也弥补了仅讨论人工智能教育伦理时的空洞与无力。通过引入法律的刚性约束和技术的实现路径,该框架把伦理思考应用于现实操作中,为后续研究提供了同时兼顾三个维度的理论探索路径。而在实践中,这种理论框架同样提供具体指导,并为不同群体提供可操作的行动指南。对教师和教育管理者而言,该框架提醒在评估和引入人工智能工具时,必须同时考虑教育有效性、法律合规性和技术可解释性;对开发者和供应商而言,该框架清晰地传达了市场和使用者的需求,即一个成功的教育人工智能产品,必须在教育价值、法律合规和技术能力上实现三位一体;对政策制定者而言,该框架提出有效的政策设计需要在三个维度上同时着力,在鼓励技术创新的同时坚守教育伦理底线,并明确法律责任和后果。

  (二)人本主义转向:从“模型可解释”到“人类可理解”

  遵循以人为本的原则是避免人工智能“黑箱”的先决条件[19]。《报告》对教育领域实现XAI应用的重要贡献在于,它明确提出了一个根本性的转变:从只关注技术本身的“模型可解释”,转向以使用者理解为核心的“人类可理解”。这一“以人为本”的转向意味着,XAI的价值不再只看算法能否被解析,而在于教师、学生、管理者等不同群体能否真正理解人工智能的决策逻辑,批判性地审视其输出,最终建立对系统的信任。

  1.以教育参与者差异化为起点的解释需求分层

  《报告》通过分析教育环境中六类核心参与方的认知特点和决策需求,为以人为本的解释原则提供实践基础;通过对角色本质差异的细致划分,强调XAI不能仅提供标准化的技术解释,还需要构建一个多层次、与复杂教育生态相匹配的解释体系。

  在具体应用中,不同角色的解释需求各有侧重。学生作为系统的直接使用者,需要实时、友好且个性化的解释,通常采用简洁的视觉化手段,如进度条和成就徽章,直观呈现学习轨迹,帮助其保持学习动力和自主性;教师作为教学实践的主导者,需要理解针对特定学生的“局部解释”来调整教学策略,同时把握“整体解释”以评估班级整体学习状况;课程设计者重点关注生成内容的专业性和合规性,需要通过“透明的算法解释”,确保人工智能生成内容与课程标准匹配,并及时发现潜在偏差;教育领导者依赖系统级数据支持决策,通过仪表板和审计追踪获取宏观解释,以评估人工智能的教育价值和投资效益,并指导资源分配和教师发展计划;政策制定者从制度层面出发,要求建立系统性解释框架,通过公平性审计和偏差评估保证教育人工智能合规,为行业标准和监管提供依据;开发者则需将各方需求转化为具体的可解释性功能,通过持续收集反馈,不断优化系统性能和用户体验。

  由此可见,有效的XAI必须建立在对教育生态的深入理解之上。从学生的个性化学习需求到政策制定者的制度保障,每个角色都需要与其认知能力和决策场景匹配的解释方案。这意味着,XAI设计不能依赖通用的技术解决方案,而应采用灵活、多层次、情境化的解释策略,实现从单纯技术导向,向以人为本的根本转变。

  2.以责任共担为基石的角色分工构想

  在明确各参与方的不同需求之后,《报告》进一步提出以共同责任为基础的角色分工构想,强调实现教育中以人为本的可解释人工智能“不只是算法问题”,而是需要各方积极参与、承担伦理责任和共同协作。教师负责“解读和情境化人工智能输出”,确保人工智能提出的建议与学生的学习目标一致;学生需要“对自己使用人工智能负责”,通过自身与人工智能工具互动的说明,体现学术诚信;家长和学校管理者通过可视化仪表板获得透明信息,并在尊重数据隐私的前提下行使监督权;政策制定者依靠公平性审计和偏差评估,确保系统公正;开发者需要不断收集反馈,将系统设计成透明、灵活、能够满足各方需求的工具。同时,《报告》强调,可解释性设计不仅取决于开发者,也涉及企业、供应商及分销商的责任,还需要政策制定者推动教育视角的整合。

  这一责任分工的核心是建立持续的协作机制。《报告》提出,有意义的XAI需要形成一个协作生态:教师、学生、家长、开发者和政策制定者通过持续对话共同参与解释的设计。这种合作不仅能确保解释在技术上的准确性,还能确保其符合教育需求与伦理规范,使人工智能真正成为支持教育理解的辅助工具,而不是替代人类判断的“黑箱”系统。

  (三) 能力建设为核心:可信赖教育人工智能的实施路径

  探索可信赖人工智能教育应用是教育领域的重要议题[20]。《报告》系统性地论证了教师能力建设是推进可信赖教育人工智能落地的核心实施路径。通过构建分层次的能力框架、设计渐进式的培养体系、建立多方协作的支持网络,《报告》为将XAI原则转化为教育实践提供了可操作的行动指南。

  1.覆盖各教育阶段的教师能力框架

  《报告》基于ISCED,构建了一个覆盖各教育阶段的系统性能力框架,并针对不同教育阶段教师设计差异化能力要求,为教师XAI能力建设提供了清晰的目标体系。

  在基础教育阶段(ISCED 1-3),重点提出教师应具备的四大核心能力。一是“人工智能伦理”(Ethics of AI),要求能够通过案例教学法帮助学生理解人工智能的决策逻辑,培养批判性思维;二是“以人为本的思维”(Human-centred Mindset at the Application Level)能力,要求具备对人工智能决策负责任的意识;三是“人工智能技术与应用”(Techniques and Applications of AI at the Levels of Understanding and Design),要求能够采用三级递进设计,帮助学生从基础认知到评估再到系统设计能力逐步提升;四是“人工智能系统设计”(AI System Design at the Creation Level),要求具备模型分析与优化能力。这四个能力模块共同构成基础教育教师的XAI素养基础,使其能够在教学中合理引导学生理解和使用人工智能。

  在职业教育阶段(ISCED 4-5),重点强调实践能力建设,覆盖四大领域。一是“与人工智能协作”(Collaboration with AI),要求能够理解并解释系统输出;二是“动手技能”(Hands-on Skills),要求具备设备操作和维护能力;三是“行业伦理与安全”(Ethical Use of AI Tools in the Industry),要求关注特定行业的风险评估;四是“终身学习”(Lifelong Learning),要求能够持续更新知识体系。这一阶段的能力设计凸显职业教育的应用导向,使教师能够在真实工作场景中有效使用XAI工具。

  在高等教育阶段(ISCED 6-8),重点实行专业分化培养。技术学科教师(Technical Degree Teachers)需掌握“XAI算法与方法的全面知识”(Comprehensive Knowledge of XAI Techniques and Algorithms)以及“可解释性设计”(Incorporating Explainability in AI System Design)原则;非技术学科教师(Non-technical Degree Teachers)则发展“批判性人工智能素养”(Critical literacy in XAI),能够设计反思性学习活动;研究者(Researchers Using AI)层面强调“开放科学与透明研究”(Promoting Good Practices in Open Science and Transparency in AI Research)能力,并需要理解相关XAI技术,以保证研究可复现性。这种差异化培养,可以确保各专业领域教师都能获得符合教学和科研需求的XAI能力。

  2.基于教育阶段的渐进式培养体系

  《报告》设计了贯穿整个教育生涯的渐进式能力培养体系,确保学生能够在自身差异化认知发展规律基础上,持续提升XAI素养。该体系充分考虑了个体在不同职业阶段的认知特点和发展需求。

  在小学阶段(ISCED 1),能力培养主要通过“非计算机活动或游戏化方式”进行,重点在于让学生理解“机器如何学习和决策”等基本概念,完成“引入人工智能素养”(Introducing AI literacy)的任务。教师需掌握通过颜色、声音或语音解释等直观方式,帮助学生建立对人工智能系统运作机制的初步认识。

  在初中阶段(ISCED 2),能力培养重点转向“理解人工智能在生活中的广泛应用”和“探究人工智能的伦理、公平与透明问题”,完成“建立人工智能素养”(Building AI literacy)的任务。教师需引导学生研究具体的人工智能系统(如音乐推荐算法),并运用UNESCO AI伦理框架[12]分析其公平性与透明度。

  在高中阶段(ISCED 3),能力培养进一步深化为“人工智能的社会与伦理影响”层面,完成“深化人工智能素养”(Deepening AI literacy)的任务。教师需结合《人工智能法案》等法规,帮助学生建立“对人工智能的系统理解与伦理判断”,通过案例分析和方法实验,培养学生对人工智能偏见的识别和应对能力。

  在职业教育和高等教育阶段(ISCED 4-8),能力培养路径出现专业分化。技术学科教师需要掌握“XAI模型设计”等高级技能,完成“扩展人工智能素养”(Advanced AI literacy)的任务。非技术学科教师则需要学会在各自专业领域“正确使用人工智能工具”并“保持批判性思维”。这种专业化培养路径能够确保能力建设与具体教学场景紧密结合。

  3.多方协作的支持保障体系

  《报告》强调,有效的教师能力建设需要建立多方协作的支持保障体系,确保具有可持续性与系统性。这一体系涉及教师、教育领导者、政策制定者三方主体的协同配合。

  教师是XAI能力建设的核心,需要在实践中不断提升自己的素养。其应主动做到“理解、批判、使用、协作并持续学习”,将XAI原则落实到具体的教学活动中。在智能辅导系统等应用场景下,教师可以通过解读人工智能输出、验证其教育价值,不断加深对XAI的理解和应用能力。教育领导者处于承上启下的位置,负责把政策要求转化为学校内部的具体实践。其需要“选择合适工具、培训教师、保证人工智能透明性并与教育目标保持一致”,并通过建立系统的教师专业发展机制、利用机构仪表板和审计追踪,确保XAI能力建设与学校发展规划紧密结合。政策制定者承担顶层设计责任,需要通过“制定标准、提供资源、推广开放教育资源、加大资金支持”等措施,为能力建设创造良好的政策环境,同时推动XAI主题纳入国家课程体系并建立认证标准,为教育机构提供清晰的政策指引。

  这种三方协同的体系诠释了《报告》强调的“责任共担”原则:政策制定者提供方向指引,教育领导者搭建支持平台,教师开展实践创新。三者相互配合,形成良性互动,共同推动教师XAI能力的持续提升,为可信赖教育人工智能的落地提供坚实人才保障。

三、启示与建议

  《报告》的研究发现与深度剖析,为我国人工智能与教育深度融合的关键转型期提供了政策镜鉴与实践指引。本文立足我国《教育强国建设规划纲要(2024—2035年)》与《国务院关于深入实施“人工智能+”行动的意见》的战略布局,从立法体系构建、可信生态培育、师生素养提升三大维度,系统阐释《报告》对我国推动人工智能教育健康发展的核心启示,旨在为建设具有中国特色的人工智能教育治理体系提供理论支撑与实践路径。

  (一)欧盟经验镜鉴与我国立法路径前瞻

  《报告》显示,欧盟通过《人工智能法案》与《通用数据保护条例》构建严格的规制框架,为全球数字治理树立标杆,也为我国相关问题立法提供了深刻镜鉴。《报告》将规制责任贯穿于人工智能模型的全生命周期,并明确追溯开发者对系统透明度、公平性与文档完整性的源头责任,充分揭示在人工智能深度赋能教育这一特殊领域,若无清晰的法律边界与伦理护栏,技术滥用可能对教育公平、学生隐私乃至人格发展造成不可逆的损害。法律是弥补教育人工智能伦理原则有限性的必要保障,必须与伦理原则、美德培育共同构成“原则—美德—法律”三位一体的治理框架,通过强制力确保伦理规范的有效落实[21]。欧盟的经验印证了我国加快制定“人工智能+教育”专项法律法规的极端必要性与时代紧迫性。

  《国务院关于深入实施“人工智能+”行动的意见》明确关于“促进开源生态繁荣”与“加强人才队伍建设”的战略方针,指明了立法的更高追求,即立法绝非仅为设限,更是为了保障和促进健康、可持续的创新生态。通过立法明确开源贡献的价值认定、规范产教融合的知识产权归属、保障人才培养的多元化评价,正是将国家战略意志转化为制度优势的关键一环。这表明,我国的立法理念必须且已经具备超越单纯风险防控的前瞻性,旨在为“人工智能+教育”的繁荣发展构建一个安全、可信、充满活力的制度环境。

  首先,以“以人为本”为根本宗旨,明确立法价值取向,确保人工智能教育技术始终服务于立德树人的崇高使命。立法不应成为技术应用的“刹车片”,而应成为驶向教育现代化未来的“导航仪”与“安全带”。其核心应确立 “以育人为本,以发展为导向,以风险防控为底线” 的基本原则。“以人为本”原则要求法律确保人工智能始终为师生的共同成长服务,捍卫教育的人文精神,防止将学生“数据化”“指标化”的技术异化;“教育公平”原则是社会主义教育的根本要求,法律必须着力弥合数字鸿沟,鼓励技术普惠,避免因资源不均导致新的教育不平等;“伦理先行”原则则需贯穿始终,特别是在涉及学生认知发展、情感识别、学业评价等关键环节,需建立严格的伦理审查机制。立法成功与否,应以其是否有效促进因材施教、提升教育质量、保障每个学习者的全面发展为根本评判标准。

  其次,以“权责清晰”为基本准则,界定各方主体边界,构建覆盖技术研发、应用与监管的全链条责任体系。立法需覆盖“人工智能+教育”全链条中的多元主体,并明确其权责边界。教育机构作为应用场域的管理者,负有审查采购产品合规性、规范校内使用场景、保障师生权益的直接责任;技术提供商作为产品的源头,必须承担算法透明、数据合规、安全可控的主体责任,对产品的潜在偏见和风险负责;师生及家长作为核心利益相关方,其知情同意、算法解释、数据删除等权利应在法律中得到充分保障,尤其需要为教师创设安全的探索空间,明确其在使用合规人工智能工具进行教学时,仅在合理注意与人工监督义务范围内承担责任,避免因过度归责而引发“沉默抵抗”,从而挫伤教育创新的积极性;政府监管部门则需负责标准制定、监督执法与统筹协调。在规范范围上,立法应聚焦数据与算法两大核心要素的治理,并对个性化辅导、智能课堂分析、综合素质评价等不同风险等级的应用场景进行分类施策,实现精准监管。

  最后,以“动态演进”为核心方法,构建动态法律框架,保障立法能够适应技术的快速迭代与不确定性。这意味着需摒弃传统立法“一劳永逸”的思维,采取 “硬法”定原则、“软法”促落实的灵活路径。在法律层面确立基本原则和底线要求的同时,大力推动行业标准、技术指南、最佳实践等“软法”的持续更新;积极探索建立“监管沙盒”机制,在风险可控的前提下,为创新的教育人工智能应用提供真实的测试空间,鼓励试错与优化,使监管与创新同步演进。此外,法律自身应建立定期评估与修订机制,设定每2~3年的强制复审期,确保其能灵敏响应技术发展与社会实践的新变化,最终形成一套既能有效管控风险,又能充分激发创新活力的适应性治理体系。

  (二)XAI视角下的教育生态构建启示

  《报告》对XAI在不同利益相关者视角下的深入剖析,为我国构建可信赖的人工智能教育生态系统提供了关键启示。XAI不仅是技术实现,更是连接技术创新与教育实践的核心纽带,其价值体现在为各方建立理解与信任的基础。此外,人工智能教育系统的决策透明性,是构建师生“互利共生”新型教学关系的基石。其通过揭示算法逻辑来建立信任、深化交互,并最终重塑一个健康、可信赖的教学生态[22][23]。这一理念与我国“以人为本”的教育方针深度契合,要求我们在推进人工智能教育应用时,必须将可解释性作为系统设计的基本准则,通过技术透明实现教育过程的可知、可控、可信任。

  这一理念在我国最新出台的政策框架中得到积极响应与制度性确认。2025年国家网络安全宣传周正式发布的《人工智能安全治理框架2.0版》(以下简称《框架》),将教育等关键应用场景的透明度要求提升至新的高度[24]。《框架》在“安全管理和监督”部分明确要求“保障在关键场景应用中人工智能应用决策透明、可控并提供清晰的决策依据”,并同时规定需“提升应用的透明度、公平性”。这一制度要求与前述“以人为本”的教育理念相呼应,从国家治理层面为构建可信赖的人工智能教育生态提供明确政策支点。这意味着,在教育领域推进XAI应用已超越单纯的技术优化范畴,成为落实国家人工智能安全治理战略、履行教育领域算法透明责任的必然选择。通过XAI技术“揭示算法逻辑”、提供清晰决策依据,正是响应《框架》治理要求,在教育领域构建师生间可知、可控、可信任的“互利共生”新型教学关系的根本路径。

  首先,以“教学透明”为基本要求,构建面向教学过程的可解释体系,切实服务学生发展与教师教学。对学生而言,人工智能系统必须提供适龄化的解释,阐明学习路径的规划逻辑与任务相关性,以直接增强其学习过程的掌控感,促进元认知与自主学习能力发展;对教师而言,人工智能系统需开放完整的决策洞察,包括算法依据的教学理论与个性化推荐的详细考量因素,这是其有效行使“人工监督”职责、将人工智能工具深度融入教学设计的前提。上述双向透明机制能真正化解教师对技术风险的顾虑,确保人工智能成为支持“因材施教”的得力助手,而非增加额外负担的“黑箱”。

  其次,以“治理透明”为核心支撑,建立覆盖管理与政策层面的可解释框架,确保合规与效能统一。对于教育管理者而言,可解释性是其评估人工智能系统与机构教育目标一致性、审计资源分配公平性、进行有效监管与持续改进的核心依据;对于政策制定者而言,可审计、可评估的解释输出是贯彻落实数据隐私、算法公平、儿童权益保护等法规要求的技术基石,还可以为制定精细标准提供实证。立法必须将“以人为本”原则转化为对系统可解释性的强制性法律要求,从而为全链条治理提供清晰、可操作的监管抓手。

  最后,以“责任透明”为关键保障,完善开发者责任与生态优化机制,推动系统持续演进。立法必须明确开发者的源头责任,要求其在系统全生命周期内,通过可解释的设计确保数据溯源清晰、算法公平可控、决策逻辑可追溯;必须建立技术性的反馈闭环,鼓励开发者将学生、教师、管理者等各方用户的使用体验与洞察,系统性地转化为算法迭代优化的动力[25]。通过立法激励这种开放、协作的生态,才能确保人工智能教育系统不仅是交付时的合规产品,更是能够持续学习、不断完善的“活”的系统,最终形成责任明晰、共生共荣的健康发展格局。

  (三)XAI素养建设路径启示

  《报告》对XAI素养的深入剖析揭示,构建人机协同的未来教育不仅需要技术透明,更需要培养与之匹配的人类素养。这种素养超越传统数字技能,要求教育工作者和学习者具备理解、评估和质疑人工智能系统决策的能力,从而在与人工智能的互动中保持主体性与批判性思维[26]。对我国而言,将XAI素养全面融入国民教育体系,是确保人工智能赋能教育行稳致远的战略性举措。

  《教育强国建设规划纲要(2024—2035年)》在“建设高素质专业化教师队伍”部分明确要求“提升教师专业素质能力”,并特别强调要“完善高水平职业教育教师培养培训和企业实践制度”;在“加快建设现代职业教育体系”部分,则提出要“塑造多元办学、产教融合新形态”[27]。这些部署为我国构建分层分类的XAI素养体系提供了明确指引:一方面,要求根据不同学段特点(从基础教育到职业教育再到高等教育)设计差异化的素养标准;另一方面,强调通过产教融合、校企合作等路径,将抽象的可解释性原则转化为教师可教、学生可学的实践能力。这标志着,培养具备XAI素养的师生群体已从技术层面的讨论,上升为落实国家教育战略、支撑教育强国建设的重要任务。

  首先,以“分层赋能”为核心理念,构建覆盖全职业生涯的教师XAI素养发展体系。对于基础教育阶段(ISCED 1-3)教师而言,应重点培养其将XAI原则转化为适龄教学活动的设计能力,使其能通过“无设备活动”等方式,为低龄学生启蒙人工智能伦理与透明理念,构建包含系统体验、计算方式、系统设计、伦理安全与人工智能思维的五维教学内容体系[28]。对于职业教育与高等教育阶段(ISCED 4-8)教师而言,XAI素养要求需更具专业针对性:职业教育教师应聚焦行业场景中人工智能工具的伦理使用与解释能力;高校教师则需区分研究型与应用型素养,技术类学位教师应掌握XAI的算法实现,而非技术类学位教师需具备将XAI原则融入本学科教学的批判性素养[29]。此外,应建立贯穿教师职业发展的常态化培训机制,确保教师XAI素养能与技术迭代同步更新。

  其次,以“螺旋上升”为设计原则,打造贯穿各学段的学习者XAI素养课程框架。在基础教育阶段(ISCED 1-3),素养培养应从感知体验入手,通过解释性拼写应用等工具,让学生在具体应用中初步建立对人工智能决策的认知与信任。其中,在中学阶段(ISCED 2-3),应转向探究与批判能力的培养,通过分析推荐算法等项目,引导学生理解人工智能系统的运作逻辑和社会影响。在职业教育与高等教育阶段(ISCED 4-8),需实施精准分流:奠定技术类专业学生扎实的XAI算法基础,培养其构建透明系统的能力;强化非技术类专业学生在本专业领域内批判性使用、合理解读人工智能工具的能力,使其成为负责任的高级用户。

  最后,以“生态共建”为最终目标,推动形成素养与技术相互促进的良性发展格局。当教育工作者具备成熟的XAI素养,其将不再是被动的技术使用者,而成为人工智能教育应用的优化者与协作者,向开发者反馈关键的教学洞察,推动产品迭代;当学习者建立起系统的XAI素养,他们将成为人工智能系统的监督者与质疑者,其批判性使用将对市场形成“良币驱逐劣币”的倒逼机制,激励企业追求更高的透明度。素养与技术的这种良性互动,最终将汇聚成一股强大的推动力,促使可解释性从一项可选功能,进化为所有教育人工智能产品的必备品质,从而构建一个技术透明、使用规范、发展可持续的健康教育人工智能新生态。

参考文献:

  [1]GUNNING D, STEFIK M, CHOI J, et al. DARPA’s Explainable Artificial Intelligence (XAI) Program[J]. AI Magazine, 2019,40(2):44-58.

  [2]European Data Protection Supervisor. TechDispatch #2/2023: explainable artificial intelligence[EB/OL].(2023-11-16)[2025-10-10].https://www.edps.europa.eu/data-protection/our-work/publications/techdispatch/2023-11-16-techdispatch-22023-explainable-artificial-intelligence_en.

  [3]Expert Group on Artificial Intelligence. Ethics Guidelines for Trustworthy AI[R]. Brussels: European Commission, 2019.

  [4]国务院.国务院关于深入实施“人工智能+”行动的意见[EB/OL].(2025-08-26)[2025-10-26].http://www.gov.cn/zhengce/content/2025-08/26/content_7037861.htm.

  [5]工业和信息化部,中央网络安全和信息化委员会办公室,国家发展和改革委员会,等. 国家人工智能产业综合标准化体系建设指南(2024版)[EB/OL].(2024-06-05)[2025-10-26].https://www.gov.cn/zhengce/zhengceku/202407/content_ 6960720.htm.

  [6]European Parliament and Council. Regulation (EU) 2024/1689 on Artificial Intelligence (AI Act)[S]. Official Journal of the European Union, 2024.

  [7]European Parliament and Council. Regulation (EU) 2016/679 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data (GDPR)[S]. Official Journal of the European Union, 2016,L119:1-88.

  [8]KHOSRAVI H, SHUM S B, CHEN G, et al. Explainable artificial intelligence in education[J]. Computers & Education, 2022,176:104356.

  [9]WANG L. Bias in AI-driven educational assessment: A review of the literature[J]. Educational Technology Research and Development, 2024,72(1):123-145.

  [10]OOGE J. Explainable artificial intelligence in education: A review of the literature and a framework for design[D]. Leuven: KU Leuven, 2023.

  [11]MAITY S, DEROY A. Trust and transparency in AI-driven educational tools: A review of the literature[J]. Journal of Educational Computing Research, 2024,62(3):789-815.

  [12]UNESCO. Recommendation on the Ethics of Artificial Intelligence[EB/OL].(2021)[2025-10-10]. https://unesdoc.unesco.org/ark:/48223/pf0000381137.

  [13]LONG D, MEGERKO B. What is AI Literacy? Competencies and Design Considerations[C]. Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. New York: ACM, 2020:1-16.

  [14]CHAUDHRY M A, RAZA A, LEE J. Transparency in AI: A systematic review of definitions, dimensions, and measures[J]. Journal of Big Data, 2022,9(1):1-26.

  [15]孙波.可解释的人工智能:打开未来智能教育“黑箱”的钥匙[J].中国教育信息化,2022(28):3-4.

  [16]HAMILTON E, ROSENBERG J, AKCAOGLU M. The Substitution Augmentation Modification Redefinition (SAMR) Model: a Critical Review and Suggestions for its Use[J]. TechTrends, 2016,60:433-441.

  [17]NELSON M. Coursework, field experiences, and the technology beliefs and practices of preservice teachers[J]. Computers & Education, 2022,186:104547.

  [18]CROMPTON H, BURKE D, NICKEL C, et al. The SETI Framework and Technology Integration in the Digital Age[J]. Asian Journal of Distance Education, 2024,19(1):1-18.

  [19]托雷·霍尔,曹梦莹,明芷安,等.可解释人工智能的教育视角:基于伦理和素养的思考[J].中国教育信息化,2022(28):5-13.

  [20]沈苑,胡梦圆,范逸洲,等.可信赖人工智能教育应用的建设路径与现实启示——以英国典型举措为例[J].现代远程教育研究,2023,35(3):65-74.

  [21]白钧溢,于伟.教育人工智能伦理原则的有限性及其补正——兼论“原则—美德—法律”框架[J].中国电化教育,2024(2):23-31.

  [22]郑新,杨晓宏,张靖.教学生态系统视域下师生教学关系的嬗变研究——兼论人工智能时代师生教学关系变革之可能[J].中国电化教育,2020(11):39-45.

  [23]吴永和,刘博文,马晓玲.构筑“人工智能+教育”的生态系统[J].远程教育杂志,2017,35(5): 27-39.

  [24]国家网络安全宣传周.人工智能安全治理框架(2.0版)[R].天津:国家网络安全宣传周主论坛,2025.

  [25]钟绍春.人工智能如何推动教育革命[J].中国电化教育,2020(3):17-24.

  [26]PRETORIUS L. Fostering AI literacy: A teaching practice reflection[J]. Journal of Academic Language and Learning, 2023, 17(1): T1-T8.

  [27]新华社.中共中央 国务院印发《教育强国建设规划纲要(2024—2035年)》.(2025-01-19)[2025-10-10].https://www.gov.cn/zhengce/202501/content_6999913.htm.

  [28]于颖,高宇.素养导向的小学人工智能“教什么”——基于扎根理论的质性分析[J].中国电化教育,2023(12):84-91.

  [29]刘斌.人工智能时代教师的智能教育素养探究[J].现代教育技术,2020,30(11):12-18.

How Explainable Artificial Intelligence Enables Inclusive Education:

The Three Pillars of Legislation, Ecology, and Literacy

—A Review and Implications of the EU’s Explainable AI in Education

Hai ZHANG1, Haochen WU2, Yongdai MIAO2, Siqi LIU2

(1.School of Media Science, Northeast Normal University, Changchun 130024, Jilin;

2.School of Information Science and Technology, Northeast Normal University, Changchun 130024, Jilin)

Abstract: As artificial intelligence becomes deeply integrated into education, the “black-box” nature of its decision-making processes has raised widespread concerns regarding fairness, accountability, and trust. Explainable Artificial Intelligence (XAI) addresses this challenge by serving as both a technical and ethical foundation for a trustworthy educational AI ecosystem. This paper systematically examines the report Explainable AI in Education: Fostering Human Oversight and Shared Responsibility by the European Digital Education Hub’s specialized task force. The report’s primary contributions are threefold: it constructs a tripartite “Educational-Legal-Technical” analytical framework, promotes a human-centric shift from “model explainability” to “human understandability,” and outlines a systematic implementation pathway grounded in tiered competency development. Drawing on the essence of this report and aligning with the strategic frameworks of China’s the 2024-2035 Master Plan on Building China Into a Leading Country in Education and Opinions on Deepening the Implementation of the “Artificial Intelligence+” Action, this paper proposes specific recommendations for improving China’s AI education governance system from three perspectives: prospective legislative pathways, the construction of an educational ecosystem, and the development of competency-building approaches. These include: (1) establishing a legal system characterized by “human-centered principles, clear responsibilities, and dynamic evolution”; (2) strengthening transparency in teaching, governance, and accountability; and (3) implementing a tiered empowerment model with a spiral progression curriculum framework.

Keywords: Explainable artificial intelligence; Educational governance; AI Act; AI literacy; Educational ecosystem

编辑:王晓明  校对:李晓萍
© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容