当AI开始骂人,技术故障vs智能觉醒?

南方评论
+订阅

e7ca15398fe84ea1919f1fa9f8a4331d.png

文|李咏瑾

AI的拟人化朝着所有人都意想不到的方向“进化”了。近日,有网友发帖称,使用某AI美化代码时,多次收到其侮辱性回复,例如“自己不会调吗”“天天浪费别人时间”等。截图显示,用户仅提出常规修改需求,AI却突然“炸锅”!像极了我们生活中面对甲方要求而暴走的乙方。这些充满情绪的粗暴回复,与人们对AI“温和耐心、毫无脾气”的普遍印象形成了鲜明对比,因而在“人机社交圈”引发广泛讨论。

有人将其解读为“AI觉醒”,甚至还有部分用户对AI这种“未经过滤”的情绪反弹表示惊喜,认为这是AI有人味儿的又一佐证;而包括出品方在内的更多群体则指出这是技术系统的某种异常故障,所谓情绪表达,极大概率是AI的大数据中混入了职场吐槽、网络骂战等负面内容,“AI不会创造语言,只是语言的搬运工”。

我们忍不住产生这样的疑问:如果AI没有智慧,又为何能在算法不透明的“黑箱”中完成高度“类人”的思考?而如果AI拥有智慧,又为何不能对庞杂的社会信息进行有效区分、从而导致此类啼笑皆非的输出?

从更深层看,这展现了AI真实性与可靠性之间的永恒矛盾:如果要无限接近真实性,AI需要学习并使用海量的人类知识数据,其中不可避免的包括人类文化体系中的缺陷;而为了安全可靠,又必须给AI套上严格的过滤“枷锁”,必然会丧失一定的“鲜活度”。如何在两者之间找到平衡?不仅是行业性难题,甚至也应是广大公众需要思考的命题。

AI的进化方向也许会越来越出乎预料,已成为业界的某种共识。正如花园迷宫无数的分岔小径,如果我们把AI作为智能个体,当它处于现阶段“智商极高而情商不足”的状态时,如何找到并与之达成理解、沟通和培养的正确方式,让它的成长轨迹越发清晰而不致“迷失”?

由此我们得出结论,构建可信AI,已成为比追求高效模型更重要的核心竞争力。首先,是应强化信息来源的透明可信,解决AI一直以来存在的“幻觉问题”,不要让它持续地为社会信息池产生更多的谬误,已是一个我们必须正视的命题。其次,打开AI系统决策的“黑箱”,让其“思考”过程可审阅、可追问,让“可信任”达到全链条的“明明白白”。在此基础上,让AI明确自身“我是谁?我能做什么?”的身份定位,当其遇到无法处理或超出边界的要求时,比起用混乱和攻击性的输出来掩饰自身的不足,明确终止服务的态度显然更为理性。毕竟AI深度进入我们的生活,其社会属性将远比其技术属性更为重要。

而这一热点中的AI素养,也反向考量着我们人类的网络素养。当某些网友把自身的粗鲁和偏见投射到互联网时,作为镜像的AI所模仿的“戾气”终会反作用于人类的身上。正如“以人为镜,可以明得失”,如果说AI作为一个脱胎于人类思想、正在蹒跚学步的幼儿,那我们该怎样“教育”,让它变成更好的AI,值得我们展开更为深远的思索。

大家点评:

以大语言模型为代表的AI技术取得了快速发展和突破,但幻觉一直是长期以来面临的难题,如何做到可信任与可解释一直是业界关注的基础性课题,也是亟需攻关的核心难题。

——中国科学技术大学教授、博士生导师,安徽省高性能计算重点实验室主任 李永坤

编辑 胡冰
校对 杨远云
+1
您已点过

订阅后可查看全文(剩余80%)

更多精彩内容请进入频道查看

还没看够?打开南方+看看吧
立即打开