AI赋能数学/飞象老师做得课件真的能用吗?交互式课件的直观性,不能替代学生的思考!
我一直相信,好课件的标准是"学生爱动手"。直到我认真看完一个学生使用 AI 生成课件的全过程——他拼完了,动效很漂亮,最后说出结论的时候,眼睛里没有"发现"的光。去年下半年开始,AI 生成课件在备课群里迅速流行。很多老师(包括我)抱着"试试看"的心态会用飞象老师里面的课件进行上课。其中一节就是三年级"长方形与正方形"单元的拓展内容——《探究长方形周长最短拼法》。用16 张边长 1 分米的正方形纸拼长方形或正方形,怎样拼才能使拼成的图形周长最短?- 右侧是一张"拼法对比统计"表,自动记录每种拼法的长、宽、周长;
- 底部有一个"我的发现"按钮,凑齐所有拼法后激活,点击弹出结论。
我第一次看的时候觉得挺满意的:操作流畅、动画清晰、数据自动呈现、学生能自主探索。简直是一个完美的数字化探究活动。直到有一次,我在课堂上让学生用这个课件实际操作,我在旁边观察。有个学生拼了 1×16,又拼了 2×8,然后抬头问我:"老师,这两个周长哪个短?"我愣住了——他拼完了,数据就在旁边,但他没有自己比出来。拿到一个 AI 课件,怎么判断它是"真正让学生思考",还是"看起来让学生思考"? | |
|---|
| ① 操作前有认知判断吗? | 学生动手之前,是否必须先预测、估计、或者做出某个数学判断? |
| ② 错误有代价吗? | 学生犯错时,课件是否追问"为什么错",而不是直接让他重来? |
| ③ 认知负荷给对了吗? | 课件是降低了无关负荷,还是把本该学生做的思维也"代劳"了? |
没有。学生直接拖拽正方形去拼,不需要预测"这种拼法周长大概是多少",不需要估计"2×8 和 1×16 比,哪个周长更长"。上来就拼,拼完系统自动算。没有。这个课件几乎没有"错"的概念——学生拼成一个矩形,系统就记录;拼不成,界面没有任何提示,学生自己继续摆。"错误"在这里是零成本的试错,没有追问,没有诊断。给错了。课件把最核心的数学思维——自己比较两种拼法的周长,自己发现"为什么长和宽越接近,周长越短"——通过两个设计偷偷替学生做了:第一,统计表由系统自动填写。包括长、宽、完整的周长算式第二,系统自动高亮最优解。学生甚至不需要自己判断"哪一行周长最短",答案已经被标红了。说到这里,必须单独提一下课件里的"自动演示"功能。点击按钮,课件依次展示所有可能的拼法(1×16、2×8、4×4……),3 秒一个,动画自动播放,数据自动记录。学生全程观看,不需要任何操作。学生坐在屏幕前,和在 B 站刷一道数学题讲解没有本质区别。他完成了"看"这个动作,但没有完成"想"这个动作。表面上是"解放学生",实际上是把学生从学习过程中彻底请了出去。这个课件用 AI 生成,技术上完全可以做到更好。加一个预测弹窗、多一步手动记录、加一个判断追问——这些功能 AI 都能实现。只有老师知道,三年级孩子学这道题,真正的认知障碍是"直观上感觉不出来 2×8 和 4×4 周长差多少"。AI 不知道这个,它默认每个孩子都能直接看出"长和宽越接近,周长越短"。AI 课件的设计权,必须留在老师手里。AI 是执行者,老师是决策者。用 AI 生成初稿没问题,用 AI 优化交互没问题,但如果老师自己不清楚"学生应该在哪个节点动脑子",再好的 AI 也救不了一节没有认知设计的课。基于上述诊断,我对这个课件提出几个可操作的改进方向:"你准备把 16 个小正方形拼成几行几列?预测一下,这样拼的周长大约是多少分米?"学生先算,再拼,操作变成对预测的验证,而不是盲目的试错。【原设计】系统自动填写长、宽、周长公式,自动高亮最优解。"你拼的是 2×8。先数一数,这个长方形的长边占了几格?宽边呢?周长公式应该怎么写?"学生自己说出长和宽,自己写出周长公式,系统只做对错验证,不做记录。比较哪种周长更短,由学生自己圈出来。"4×4 和 2×8 相比,哪种周长更短?你是怎么知道的?"答对了,按钮激活,可以写"我的发现";答不上来,课件追问:"你分别算过它们的周长吗?两个算式里,哪一部分不一样?""这种拼法,长是 格,宽是 格,周长 = (+)×2 = 分米。"这不是在课件里塞更多的题目,而是在每一个操作节点上,强制学生先想再动。数学思维的建构,不是在"点击确认"里完成的,是在"为什么这么想"里完成的。课件可以做得很好看,系统可以自动记录所有数据,AI 可以帮我们省掉大量的重复劳动。但有一件事,只有老师能做,也只有老师必须做——这可能是 AI 时代,做一节好课,最不会被替代的那一步。