《信息系统开发与实施》
人机协同的 AI 编程
第六届全国高校教师教学创新大赛(人工智能赛道)
核心结构:课前分析 -> 课中构建 -> 课后反馈
教师用学生即将学习的同一个工具备课
教学方法 = 教学内容
要不要搭一个“教学智能体”来收集学情、自动推送资源?
这门课教的是 AI 编程
如果为了备课去搭一个额外平台,恰恰说明教学方法和教学内容是脱节的
最自洽的做法:我用来备课的工具,就是学生即将学习的工具
一份普通在线问卷
六个维度:AI工具、频率、用途、编程语言、自评能力、项目经验
问卷星或飞书表单均可
重点不在“怎么收数据”,而在“怎么用数据”
提示词:帮我分析这份课前调研数据
输出要求:1. AI工具使用情况和使用频率
输出要求:2. 编程语言、自评能力、完整项目经验
输出要求:3. 编程AI工具使用情况(特别是Trae/MarsCode)
输出要求:4. 结合“47人中只有3人用过AI Agent”判断课堂切口
一条指令,十几秒出结果
| 维度 | 录制时展示 | 口播重点 |
|---|---|---|
| AI 普及程度 | 42份问卷里 95.2% 至少每周使用 AI | 说明不必再从“什么是AI”讲起 |
| 编程起点 | 92.9% 最熟悉 Python,但仅 21.4% 能独立做简单项目 | 点明痛点在“知识 -> 项目”迁移 |
| Agent 起点 | 47人课堂调查里只有 3 人已用 AI Agent | 强调从对话 AI 迁移到 Agent 协作 |
提示词:把“AI使用频率”和“编程能力自评”做交叉分析
输出要求:1. 找出人数最多的组合
输出要求:2. 判断“高频使用AI但项目能力仍弱”是否普遍
输出要求:3. 给我一句适合课堂口播的结论
最大组合:经常使用 AI × 了解基本语法(24人)
AI 的价值不只是统计,更是帮助教师看清“AI 普及”和“能力升级”之间的断点
| 调整方向 | 教学动作 | 对应痛点 |
|---|---|---|
| 95.2% 已至少每周使用 AI | 直接进入 AI 编程体验 | 不再重复“什么是AI” |
| 92.9% 学过 Python,但仅 21.4% 能独立做简单项目 | 跳过语法复习,先做出结果 | 知识到实践的转化鸿沟 |
| 仅 16.7% 用过 Trae/MarsCode | 增加 Trae 上手时间 | 编程 AI 使用不足 |
| 47人中仅3人已用 AI Agent | 设计全员 Agent 实操 | Agent 起点很低 |
提示词:按编程自评先分成三层,再结合 Agent 起点给出准备重点
A 层(进阶带动):能独立完成简单项目(9人)
B 层(主力突破):了解基本语法(32人)
C 层(重点托底):完全不会(1人)
| 层级 | 特征 | 录制要求 |
|---|---|---|
| A 进阶带动 | 有项目基础,但不等于会用 Agent | 可直接做高阶练习 |
| B 主力突破 | 有基础但不稳定,是课堂主力群 | 重点拉齐 Trae 与 Agent 入门 |
| C 重点托底 | 起点最低,需要托底支持 | 重点保证第一次成功体验 |
用 Trae 为三个层级生成不同指引
A 层:进阶挑战,提前了解 Skill 或小工具的构建方法
B 层:工具入门,安装 Trae 并完成一个入门案例
C 层:鼓励安心,建立“我也能开始”的信心
两分钟生成三份不同风格指引,不依赖额外系统
一个工具(Trae)完成了学情分析、策略调整、差异化准备
这个工具,就是学生下节课要学的工具
| 练习 | 形式 | 观察要点 |
|---|---|---|
| 氛围编程 | 自然语言描述需求 -> AI 生成代码 | 是否建立起步信心 |
| Spec 驱动 | 分析设计说明 -> Trae 生成原型 | 是否形成结构化表达 |
| 维度 | 满分 | 评价内容 | 均分/得分率 |
|---|---|---|---|
| 系统运行 | 20分 | 系统能否运行、功能是否完整 | 18.2 / 91% |
| 开发文档 | 20分 | 分析设计文档是否规范 | 19.0 / 95% |
| 成功交付 | 20分 | 是否完成真实用户交付 | 18.8 / 94% |
| 互评 | 10分 | 同伴评审参与度与质量 | 9.8 / 98% |
16 次实验 x 19 组,助教逐次打分并撰写详细评语
评语关注点从“有没有用 AI”逐步深入到“AI 交互质量”
早期:提醒补充 AI 交互证据
中期:引导说明与 AI 协作的分析过程
后期:强调要凸显人的思考和判断
纠偏:防止“只贴 AI 截图、不解释决策”
这说明评价焦点已经从“是否使用”转向“如何使用”
| 满意度 | 数量 | 说明 |
|---|---|---|
| 非常满意 | 4 份(57%) | 体验和功能获得积极评价 |
| 满意 | 3 份(43%) | 能解决核心需求 |
| 不满意 | 0 份 | 无 |
评价不是终点,而是新的起点
课后任务:把课堂学到的 AI 编程能力迁移到自建 Skill 或小工具
可以做代码审查助手
可以做测试或交付辅助工具
也可以做帮助自己学习的应用单元
学生构建出的东西本身,就是学习成果证据
| 系统类型 | 数量 | 占比 | 代表项目 |
|---|---|---|---|
| 校园服务类 | 8 | 42% | 校园活动、失物招领、二手书流通 |
| 学习辅助类 | 4 | 21% | 学术智能助手、背诵系统 |
| 生活服务类 | 4 | 21% | 心理健康咨询、时间管理 |
| 社交互助类 | 3 | 16% | 相互监督、问卷系统 |
用 Trae 基于评价数据快速生成个性化反馈
A 层:技术能力突出,挑战更复杂的 Skill 或小工具
B 层:核心功能已实现,聚焦用户体验和交付质量提升
C 层:复盘 AI 交互过程,巩固基本的人机协作方法
A 层:氛围编程 -> Spec 驱动 -> Skill 或小工具 -> 项目级 AI 编程
B 层:氛围编程 -> 提示词优化 + Spec 入门 -> 小型项目
C 层:AI 辅助理解 -> 氛围编程独立完成 -> 同伴协作
从“AI 帮我做”到“我指挥 AI 做”,再到“我和 AI 一起做复杂的事”
| 指标 | 数据 | 证据来源 |
|---|---|---|
| 项目完成率 | 100%(19/19组) | 评分 Excel + 代码目录 |
| 系统可运行率 | 94.7%(18/19组) | 期末评优逐组核验 |
| 真实用户交付率 | 100%(19/19组,收集 21 份回执单) | 交付回执单 |
| AI 辅助开发占比 | 100%(19/19组) | 课程项目与评分备注 |
| 现代框架使用率 | 58%(11/19组) | 代码项目分析 |
| 维度 | 呈现要求 |
|---|---|
| 课前问卷回收率 | 89.4%(42/47) |
| 至少每周使用 AI | 95.2%(40/42) |
| 能独立完成简单项目 | 21.4%(9/42) |
| 已开始使用 AI Agent | 6.4%(3/47) |
| 本次课堂目标 | 100%(47/47 完成一次 Agent 实操) |
助教评语和学生反思共同指向一个结论
会不会用 AI 不是终点
会不会解释、判断和负责,才是课程真正要培养的能力
“人必须主导”不是口号,而是在实践中被学生亲身体验到的结论
课前:教师用 Trae 分析学情、调整策略
课中:学生学习用 Trae 做 AI 编程
课后:学生把课堂能力迁移到自建 Skill 或小工具
从头到尾,只用了一个工具,就是课程教的工具本身
最好的教学创新不是技术堆砌
而是让教学方法和教学内容完全统一
学生学到的不只是“怎么用 AI 写代码”
而是“怎么用 AI 解决属于自己的问题”