今天我做了一个测试。
用 DeepSeek、OpenMaic、九章龙虾、科大讯飞、飞象老师,分别做同一内容:初中地理「地球的运动」教学课件。
要求一视同仁,看谁做得最靠谱。
结果很意外。
5 款 AI 全部出现了科学错误或动画错误。没有一个课件能达到直接上课的标准。
但差距巨大,各有各的翻法,也各有各的亮点。
下面一个一个说。
飞象老师:流程最完整,但知识不准确
飞象老师的亮点在课件生成之前。
输入课题后,它会先弹出信息确认窗口,让你确认年级、学科、教材版本。
然后自动关联课标要求,生成一份教学大纲文档。你可以先审大纲、改大纲,确认后再生成课件。
这个流程很对。不是一上来就吐 PPT,而是先和你对齐教学目标。
但生成的课件就出问题了。
课件的设计思路非常好,有动画演示也有互动课堂练习等,但地球自转和公转的动画演示存在明显问题,有知识性错误。
科学准确性不过关,流程再好也白搭。
OpenMaic:互动性最强,适合学生自学
OpenMaic 是这次测试里动画和互动做得最好的。
课件内置了可点击选择的选择题,答对答错有评分,做到及时反馈。
还有一个独特的功能:语音讲解。每页课件都有旁白配音,学生可以自己点开听。
这个设计思路很好。如果学生在家预习「地球的运动」,边看互动课件边听讲解,比干看课本强不少。
但问题也出在内容上。昼夜交替、太阳直射点的移动没有体现出来,夏至冬至的直射点纬度前后不一样等。
互动体验到位了,科学准确度没跟上。
DeepSeek V4 Pro:思考最科学,输出跑偏了
我用的是 V4 Pro 的专家模式。
它的思考过程让我印象很深。从地球自转周期、公转轨道参数,到黄赤交角 23.5 度对四季的影响,推理链非常严谨,像一个真正懂地理的人在分析。
但生成的成品出问题了。
它给的是一段纯动画演示网页,展示地球绕太阳转。不是课件,没有分页,没有知识结构,没有互动,没有教学环节。
而且动画里出现了重大知识错误:地球公转方向反过来了。
思考满分,输出零分。
科大讯飞:没有动画,没有互动
科大讯飞生成的是传统的静态 PPT,还需要用户自己选择 PPT 模版,不够智能。
而且几乎就是纯文字排版,没有任何动画演示,甚至连图片都没有。地球自转、公转、昼夜交替这些核心知识点,全用静态图配文字说明。
作为对比,「地球的运动」这个知识点最需要动态演示,静态 PPT 根本讲不清楚。
九章龙虾:和讯飞一样的问题
九章龙虾的体验和科大讯飞基本一致。
同样是静态 PPT,同样没有动画,同样没有互动环节。整体排版比讯飞略好一点,配色没那么花,但也只是"一个能看的 PPT",远谈不上教学可用。作为一个“龙虾”,产出这样的作品,这是最让我失望的。
横向对比总结
一个残酷的结论
目前 AI 在处理「地球的运动」这类复杂空间知识点时,还不够科学准确。
不是"快到了",而是"还没到及格线"。5 款 AI,没有一款生成的课件能直接拿去上课。
这提醒我们一件事:AI 能帮老师省时间,但暂时不能替老师做判断。尤其是理科知识点里那些"对学生容易误导"的细节,AI 目前踩雷概率很高。
彩蛋:小学二年级,效果完全不一样
作为对比,我用飞象老师和 OpenMaic 试了小学二年级下册。
内容简单很多:思维导图、基础互动课件。效果拔群。
飞象老师生成的思维导图结构清晰,图文搭配合理。OpenMaic 的互动课件内容准确,小朋友点击反馈也很流畅。
说明一个道理:AI 做课件这件事,内容的复杂度决定了翻车概率。知识点越抽象、越需要空间想象、越需要精确的动画演示,AI 越容易出错。知识点越基础、越结构化、越偏"图文整理",AI 越能打。
总结
这一轮实测下来,我的感受是:
如果你的课件内容是基础知识整理(小学、初中低年级、文科类),AI 已经可以用。
但如果是「地球的运动」这种级别,需要精确的空间动画和严格的科学表述,目前的 AI 你还得盯着改。
你用过哪些 AI 做课件?翻过车吗?评论区聊聊。