课外教学展示:课前与课后

王树义

课外教学展示

  • 《信息系统开发与实施》

  • 人机协同的 AI 编程

  • 第六届全国高校教师教学创新大赛(人工智能赛道)

  • 核心结构:课前分析 -> 课中构建 -> 课后反馈

课前环节

  • 教师用学生即将学习的同一个工具备课

  • 教学方法 = 教学内容

一个选择

  • 要不要搭一个“教学智能体”来收集学情、自动推送资源?

  • 这门课教的是 AI 编程

  • 如果为了备课去搭一个额外平台,恰恰说明教学方法和教学内容是脱节的

  • 最自洽的做法:我用来备课的工具,就是学生即将学习的工具

数据采集:从简

  • 一份普通在线问卷

  • 六个维度:AI工具、频率、用途、编程语言、自评能力、项目经验

  • 问卷星或飞书表单均可

  • 重点不在“怎么收数据”,而在“怎么用数据”

Trae 分析学情

  • 提示词:帮我分析这份课前调研数据

  • 输出要求:1. AI工具使用情况和使用频率

  • 输出要求:2. 编程语言、自评能力、完整项目经验

  • 输出要求:3. 编程AI工具使用情况(特别是Trae/MarsCode)

  • 输出要求:4. 结合“47人中只有3人用过AI Agent”判断课堂切口

  • 一条指令,十几秒出结果

学情结果的呈现方式

维度 录制时展示 口播重点
AI 普及程度 42份问卷里 95.2% 至少每周使用 AI 说明不必再从“什么是AI”讲起
编程起点 92.9% 最熟悉 Python,但仅 21.4% 能独立做简单项目 点明痛点在“知识 -> 项目”迁移
Agent 起点 47人课堂调查里只有 3 人已用 AI Agent 强调从对话 AI 迁移到 Agent 协作

交叉分析:高频使用不等于高阶能力

  • 提示词:把“AI使用频率”和“编程能力自评”做交叉分析

  • 输出要求:1. 找出人数最多的组合

  • 输出要求:2. 判断“高频使用AI但项目能力仍弱”是否普遍

  • 输出要求:3. 给我一句适合课堂口播的结论

  • 最大组合:经常使用 AI × 了解基本语法(24人)

  • AI 的价值不只是统计,更是帮助教师看清“AI 普及”和“能力升级”之间的断点

数据驱动的四条调整

调整方向 教学动作 对应痛点
95.2% 已至少每周使用 AI 直接进入 AI 编程体验 不再重复“什么是AI”
92.9% 学过 Python,但仅 21.4% 能独立做简单项目 跳过语法复习,先做出结果 知识到实践的转化鸿沟
仅 16.7% 用过 Trae/MarsCode 增加 Trae 上手时间 编程 AI 使用不足
47人中仅3人已用 AI Agent 设计全员 Agent 实操 Agent 起点很低

AI 辅助学生分层

  • 提示词:按编程自评先分成三层,再结合 Agent 起点给出准备重点

  • A 层(进阶带动):能独立完成简单项目(9人)

  • B 层(主力突破):了解基本语法(32人)

  • C 层(重点托底):完全不会(1人)

层级 特征 录制要求
A 进阶带动 有项目基础,但不等于会用 Agent 可直接做高阶练习
B 主力突破 有基础但不稳定,是课堂主力群 重点拉齐 Trae 与 Agent 入门
C 重点托底 起点最低,需要托底支持 重点保证第一次成功体验

差异化学习指引

  • 用 Trae 为三个层级生成不同指引

  • A 层:进阶挑战,提前了解 Skill 或小工具的构建方法

  • B 层:工具入门,安装 Trae 并完成一个入门案例

  • C 层:鼓励安心,建立“我也能开始”的信心

  • 两分钟生成三份不同风格指引,不依赖额外系统

课前小结

  • 一个工具(Trae)完成了学情分析、策略调整、差异化准备

  • 这个工具,就是学生下节课要学的工具

课后环节

  • 多维评价 -> 构建即评价 -> 数据闭环 -> 伦理反思

课堂作品概览

  • 录制时插入当年课堂真实作品截图,按“优秀样例 -> 典型样例 -> 问题样例”顺序展示
练习 形式 观察要点
氛围编程 自然语言描述需求 -> AI 生成代码 是否建立起步信心
Spec 驱动 分析设计说明 -> Trae 生成原型 是否形成结构化表达

四维评价体系(2207 班实际使用)

维度 满分 评价内容 均分/得分率
系统运行 20分 系统能否运行、功能是否完整 18.2 / 91%
开发文档 20分 分析设计文档是否规范 19.0 / 95%
成功交付 20分 是否完成真实用户交付 18.8 / 94%
互评 10分 同伴评审参与度与质量 9.8 / 98%
  • 基础成绩 70 分,均分 65.7,得分率 93.9%

助教持续跟踪评价

  • 16 次实验 x 19 组,助教逐次打分并撰写详细评语

  • 评语关注点从“有没有用 AI”逐步深入到“AI 交互质量”

  • 早期:提醒补充 AI 交互证据

  • 中期:引导说明与 AI 协作的分析过程

  • 后期:强调要凸显人的思考和判断

  • 纠偏:防止“只贴 AI 截图、不解释决策”

  • 这说明评价焦点已经从“是否使用”转向“如何使用”

真实用户交付成效

  • 19 组全部完成真实用户交付,收集 21 份回执单
满意度 数量 说明
非常满意 4 份(57%) 体验和功能获得积极评价
满意 3 份(43%) 能解决核心需求
不满意 0 份
  • 数据仅引用有明确满意度结论的 7 份回执单

构建即评价

  • 评价不是终点,而是新的起点

  • 课后任务:把课堂学到的 AI 编程能力迁移到自建 Skill 或小工具

  • 可以做代码审查助手

  • 可以做测试或交付辅助工具

  • 也可以做帮助自己学习的应用单元

  • 学生构建出的东西本身,就是学习成果证据

2207 班项目图谱

系统类型 数量 占比 代表项目
校园服务类 8 42% 校园活动、失物招领、二手书流通
学习辅助类 4 21% 学术智能助手、背诵系统
生活服务类 4 21% 心理健康咨询、时间管理
社交互助类 3 16% 相互监督、问卷系统
  • 19 组选题全部来自真实用户需求访谈

差异化课后反馈

  • 用 Trae 基于评价数据快速生成个性化反馈

  • A 层:技术能力突出,挑战更复杂的 Skill 或小工具

  • B 层:核心功能已实现,聚焦用户体验和交付质量提升

  • C 层:复盘 AI 交互过程,巩固基本的人机协作方法

学习路径

  • A 层:氛围编程 -> Spec 驱动 -> Skill 或小工具 -> 项目级 AI 编程

  • B 层:氛围编程 -> 提示词优化 + Spec 入门 -> 小型项目

  • C 层:AI 辅助理解 -> 氛围编程独立完成 -> 同伴协作

  • 从“AI 帮我做”到“我指挥 AI 做”,再到“我和 AI 一起做复杂的事”

数据闭环:2207 班已验证基线

指标 数据 证据来源
项目完成率 100%(19/19组) 评分 Excel + 代码目录
系统可运行率 94.7%(18/19组) 期末评优逐组核验
真实用户交付率 100%(19/19组,收集 21 份回执单) 交付回执单
AI 辅助开发占比 100%(19/19组) 课程项目与评分备注
现代框架使用率 58%(11/19组) 代码项目分析

数据闭环:录课班级真实起点

维度 呈现要求
课前问卷回收率 89.4%(42/47)
至少每周使用 AI 95.2%(40/42)
能独立完成简单项目 21.4%(9/42)
已开始使用 AI Agent 6.4%(3/47)
本次课堂目标 100%(47/47 完成一次 Agent 实操)
  • 课后再补同维度追踪,形成“课前问卷 + 课堂覆盖 + 课后反馈”闭环

伦理认知的持续深化

  • 助教评语和学生反思共同指向一个结论

  • 会不会用 AI 不是终点

  • 会不会解释、判断和负责,才是课程真正要培养的能力

  • “人必须主导”不是口号,而是在实践中被学生亲身体验到的结论

教学全流程回顾

  • 课前:教师用 Trae 分析学情、调整策略

  • 课中:学生学习用 Trae 做 AI 编程

  • 课后:学生把课堂能力迁移到自建 Skill 或小工具

  • 从头到尾,只用了一个工具,就是课程教的工具本身

结语

  • 最好的教学创新不是技术堆砌

  • 而是让教学方法和教学内容完全统一

  • 学生学到的不只是“怎么用 AI 写代码”

  • 而是“怎么用 AI 解决属于自己的问题”