第五届Light创造营近日在厦门收官。历时4个月的专业评审,19支队伍从847个申报项目中脱颖而出。最终11个项目入围获得资助。这些项目覆盖无障碍服务、非遗传承、儿童教育、乡村振兴、生态环保等多元领域。
今年的Light创造营中,学生群体的参与人数大幅提升,达到去年的三倍,技术公益和社会创新项目正在成为学生们尝试创业的一个练兵场。
入围项目中,一批以AI技术为核心、致力于解决残障群体生活障碍、提升其生活品质的解决方案颇受关注。
中国有2780万听障人士,其中超60%无法正常工作,近70%出行受阻。但现有助听设备普及率不足1%且效果有限。为打破沟通壁垒,“AI不释手——知音开启听障人士无障碍生活”项目依托腾讯云的算力资源、大模型,融合语音识别与合成、手势识别及AR技术,研发了AR字幕手语眼镜,能将健全人的声音实时转为文字显示给听障者,同时智能识别听障者的手语并转为语音反馈,实现双向沟通畅通无阻。
“面面俱控——AI赋能手障人士新时代”项目则关注超3000万的中国手部障碍者。这些人因无法操控手机和电脑,被排除在数字世界之外。团队研发了国内首个面控操作系统,通过精准识别人脸微表情,将其映射为点击、滑动、确认等操作指令,使手部障碍者也能自如操作数字设备,有效融入信息社会。
在腾讯公益慈善基金会的倡导和资助下,Light创造营自2020年启动以来,已举办五届,吸引了5526支队伍、超万名开发者参与,孕育上百个具有社会价值的创新项目。
如中国传媒大学Emoland团队以AI情绪识别系统解码孤独症儿童社交困局,已服务超500名儿童,降低60%干预成本,成为腾讯云公益生态标杆案例;上海交通大学芒种队搭建沙漠治理及公益透明化平台,凭借自研钻头与智能种植车攻克干沙地种植难题;中山大学智渔队基于腾讯云AI技术成功识别中华白海豚个体,促进了公众参与海洋动物的保育工作。
“面面俱控”团队成员杨秀芷介绍,用手机或者电脑自带的摄像头,通过人脸识别捕捉到面部表情,比如张嘴巴、嘴巴左撇、右撇、挑眉毛、眼睛甚至眼球、脸部不同的控制,来实现对平板或者对电脑的一些控制。比如想点击鼠标的左键或者右键,都可以用面部表情来控制:设置成张大嘴巴就是鼠标左键点击一下,或者嘴巴向右撇,就是鼠标右键点击一下,不同操作形式也可以变化。
比如躺在床上的病人,他想说“喝水”,但是他不能动,但可以通过面部控制来操控电脑或者手机,然后点击图标;过去,图标只会显示“喝水”这一个词,但在加入了大模型API接口厚,会出现多个与“喝水”相关的句子,如此可以更方便与他人沟通——有时候单单说一个词语,别人并不知道在表达什么,如今借助生成技术,能生成相关语句,实现更高沟通效率。
“相当于语言障碍的人能够表达他的意思。因为平板或者电脑会发出声音,然后只需要一点那一句话,就可以清晰表达出来了。”杨秀芷说。
杨秀芷还注意到,其实对于不少障碍人士来说,他们并不希望别人认为他有残障;尽管普通人会抱以同情,想特殊照顾他们,其实站在残障人士角度,并不希望被特殊对待。“面面俱控”考虑到这一点,不用制造一个特别的手机或电脑,只需要在健全人所用的手机、电脑中加入软件,就能缩小残障人士与普通人之间的距离,同样一个电脑,谁都可以使用,借助科技手段,残障人士也能享受到与健全人同样的待遇。
“AI不释手”成员刘慧清则介绍,对听障人士来说,通过AR眼镜,健全人发出声音后的文字,会显示在眼镜屏幕上方,比如“我想要一杯咖啡”,残障人士戴上眼镜就能通过镜片看到对方想要的咖啡,这就是通过AI语音的转换。同时,眼镜也可以识别残障人士想说出的话:在屏幕面前进行一些手语动作,比如做出“我想要一杯咖啡”的动作,就可以识别出手语,然后再借助AI眼镜的音响发出声音,让健全人听到残障人士想表达的手语意思。
“这样可实现双向沟通,相当于省去了健全人学手语的步骤,以及无法言语的听障人士说可以表达想法。”刘慧清说。
南方+记者 郜小平
订阅后可查看全文(剩余80%)