东莞这场AI科普课,让学生从理解到动手玩转人工智能

南方+

4月17日,一场主题为人工智能的科普讲座在东莞科学馆里热闹开讲。活动由东莞市科学技术协会指导,东莞理工科技创新研究院主办,东莞科学馆、东莞市低涌中学协办。本次课程由魏亚东与魏小锐共同完成,前者负责把原理讲明白,后者负责让技术动起来,整堂课从理解到体验层层推进,学生全程参与感拉满。

讲座初始,魏亚东就抛出了一个让人眼前一亮的话题——《哪吒2》里的动作是怎么同步到虚拟角色里的?借助动作捕捉这个案例,学生很快意识到:原来电影里那些流畅、真实的动作,背后都是数据和算法在工作。人工智能,不只是课本里的概念,而是就在我们身边的技术。

魏亚东带领学子们对比人脑和神经网络:人是通过经验学习,AI则是通过大量数据训练。虽然“工作方式”不同,但思路却有相似之处。这样的对比,让原本抽象的概念一下子有了参照,理解起来也轻松不少。那AI到底是怎么看懂东西的?魏亚东用车牌识别和人脸识别做了拆解:先找到目标,再提取特征,最后通过算法进行判断。一步一步讲清楚之后,学生才发现,原来识别这件事,远没有想象中那么简单。

在应用拓展环节,课堂视野一下子被拉开。从AlphaGo战胜围棋世界冠军,到ChatGPT带来的智能对话体验,再到近年来备受关注的DeepSeek模型,学生逐渐看到人工智能的发展脉络。特别是DeepSeek在效率和成本上的优化,学子们意识到:技术不仅要强,还要“用得起、用得好”,这才是真正走向应用的关键。

如果说前半节课是“脑子在转”,那后半节课就是“全场在动”。

魏小锐带领同学们动手体验。人形机器人开始“营业”:仰卧起坐、鞠躬、射门,一套动作下来,学生直呼“太丝滑”;机器蜘蛛也不甘示弱,现场来了一波“打招呼互动”,科技感直接拉满。在“手势识别”环节,魏小锐一边讲解手势关键点的原理,一边让学生亲自上手体验。当手在空中比划,屏幕立刻做出反馈时,大家才真正感受到原来机器真的能看懂人的动作。

最后登场的,是虚拟人物动作同步展示。通过动作捕捉技术,虚拟角色可以实时跟随人的动作变化,就像哪吒“复刻”现场一样。前后呼应,让整堂课形成了一个完整的认知闭环。一节课下来,学生不仅“看见了AI”,更“理解了AI”:知道了神经网络是怎么工作的,明白了识别技术背后的逻辑,也亲手体验了人工智能是如何“动起来”的。

撰文:唐卓

编辑 李玲
+1
您已点过

订阅后可查看全文(剩余80%)

更多精彩内容请进入频道查看

还没看够?打开南方+看看吧
立即打开