万能的AI,能看病、炒股甚至算命吗? | 南方深读

广东科技头条
+订阅

你是否觉得AI无所不能?查文献、写总结,咨询买房、炒股,甚至是看病、算命……

当DeepSeek(深度求索)走红之后,它的缺陷也很快暴露——

“万能的”AI不是完美的,尤其是具备思考推理逻辑的大模型。看起来无所不知的人工智能,其实可能“不靠谱”。

“出门问问”大模型团队前工程副总裁李维提出了三点建议:保持警惕、交叉验证、引导模型,尤其是面对数字和事实时,更要谨慎。

会说谎

从“有事问百度”,到“有事问DeepSeek”,这一转变,勾画出人与AI的日常互动模式,也给人们“网络冲浪”带来体验感的升级。

但在互动中,AI可能也会“挖坑”。

“AI查阅文献是如此地不靠谱。”近日,广州高校的一位教授通过DeepSeek查询文献信息,核实后却发现它所提供的作者是假的、年份是错的。

这并非个例。

当要求提供一个法院判决案例时,DeepSeek便会根据此前给出的材料,合理想象案例内容。为了增加信任度,它还会给出案卷号,但却“查无此案”。再次追问后,它就立即认错。

2月17日,用户在DeepSeek手机客户端上提问。图源新华社

2月17日,用户在DeepSeek手机客户端上提问。图源新华社

这几天,有一则耸人听闻又漏洞百出的消息广为传播:“截至2024年末,80后死亡率突破5.2%,相当于每20个80后中就有1人已经去世。”专家研判得出结论是,这消息很有可能是AI大模型在问题回答过程中出现错误。

撇开专业的问题不谈,在回答生活问题上,AI总能得心应手吧?其实也不然。

有人拿AI的意见来炒股。当输入某一只股票代码,询问支撑位和压力位时,它给出的答案与真实情况会有差异。以DeepSeek为例,它的数据库截至2023年10月,跟不上变化莫测的股票市场,数据有一定滞后性。

其实不难理解,AI更多的是对互联网上现有的信息进行推理和二次创作,一旦源头的资源和数据有误,它生成的内容自然会有差错。从目前的使用体验来说,AI暂时不具备甄别网络信息真伪的能力。

让用户觉得有趣的是,有时AI就像个小孩,当你质疑时,它能够迅速低头认错,并感谢人类的指正。态度如此“乖巧”的人工智能,有时反倒不好过多苛责。

让人没想到的是,AI还被用来算命和预测运势,并以此促成决策。

李洪(化名)在决定离职前,就咨询过DeepSeek是否应该离职。他坦言,在查询之前,自己的内心其实已经有了答案。人工智能预测他今年可能遇到比较大的转变,得到这个回复后,他离职的意愿从七成提高到了九成。

与其说他是相信AI的神秘力量,不如说是在面对不确定的未来时,人可以通过与AI对话去确认内心里原本存在的确定性。

不“背锅”

说了AI的能力“天花板”,再来看看它的“底线”。

如果你问DeepSeek,它不能在哪些领域提供建议或决策,它给出的回答包括医疗健康、法律事务、金融投资、学术诚信、个人隐私等。

在社交媒体上,人们找AI诊断、开方的操作已屡见不鲜,但在专业人士看来,即使是经过专业的学习训练、已在医院开展普遍应用的“AI医生”,在医疗行为中也只能承担辅助功能。

有人用手机拍了一张病理检测报告发给“AI医生”提问:“从这张报告的检测结果来看,我有没有患淋巴瘤?”它的反应很快,仅仅几秒钟过后,就给出了回复:“是的,从这个报告的结果来看,您有很大的可能患有淋巴瘤。”

但经线下医生专业判断,这只是普通的炎症。

“AI医生”的误诊会给人们带来不必要的焦虑,也可能耽误真正的病情,但责任不在AI,而在错误使用它的人。

“其实DeepSeek回复的内容质量可以挺高,但这对指令有一定要求。”广州医科大学附属第二医院副院长杨辉认为,当医生向DeepSeek提问时,已经尽可能转换为专业、系统性的问题,但得到的答案依然不靠谱。对于没有医学知识背景的患者,显然更难获得准确且有益的回复。

“人体是一个精密复杂的生命系统,AI的判断却往往简单粗暴。”杨辉说,以慢性阻塞性肺疾病(COPD)患者为例:这类患者在发病早期可能表现为食欲减退等消化道症状,并非典型的咳嗽、气促等呼吸道症状。若此时市民通过“胃口差”等关键词咨询“AI医生”,就会造成误诊,耽误最佳治疗时机,导致病情恶化。

杨辉说,目前的“AI医生”在给出西药的用药建议时,可能会开出一些存在于教科书上但已被市场淘汰的药物,而真实的医生就不会存在这样的困扰。

其实,“AI医生”并不能替代医生的工作,只能作为助手承担日常性、规律性的工作任务,如辅助判断肺结节的分型、分类等。

AI其实也有“自知之明”。涉及生命安全、财富、伦理与道德以及学术研究等方面的问答,它选择“不背锅”,都会建议咨询专业人士并在必要时寻求专业帮助。

事实上,AI并不会承担法律责任,它没有独立的法律人格或意识,听信它的建议,产生一切后果都需要用户“自负”。

有“幻觉”

更“聪明”的生成式人工智能面世后,关于它的争论几乎没有停止。

数据是生成式人工智能的“食粮”。把现有的数据喂给生成式人工智能,它可以自行挖掘数据之间的关联,从而产生新的内容。

具备了逻辑思考和推理能力的AI大模型,其实就像一个“接话茬儿高手”,你给它上半句,它就根据自己“吃下去”的海量知识,预测下半句该说什么。

这种推理逻辑一般也不会太离谱。它一般只会把张三和李四混淆,不可能混淆张三和石头这种有本质区别的对象。但差错会以更隐蔽的状态存在。

人们为此创造了一个新词“AI幻觉”,来指代大语言模型编造它认为是真实存在的甚至看起来合理或可信的信息。

“AI幻觉”是如何产生的?这与其被训练的方式有关。

训练大模型就好像是训练警犬,当它以某种方式完成人发出的指令,并得到“奖励”后,接下来就会更倾向于以这种方式来完成同类型的指令。

李维曾分析,DeepSeek面世后,大家先是惊叹于其强大的文本创造力,但慢慢也会发现许多“不靠谱”之处,比如内容偏离基本事实。这可能是因为在训练阶段,它更被鼓励创作一篇文采飞扬的文字,而非进行事实核查。

2月13日,香港中文大学(深圳)成立人工智能学院。现场的一个花絮耐人寻味:该校校长、中国工程院院士徐扬生说,自己使用AI写了一篇讲稿,但最后没采用。他笑着解释:“人的思想是最重要的,AI能代替一部分工作,但却代替不到最精华的东西,它无法了解你心里想说的话。”

说到底,AI再强大,也只是一个工具,关键在于人类怎么使用它。

防坑指南:

DeepSeek开启了AI普惠应用的新纪元,让更多普通人与国产人工智能大模型零距离接触。不久前,百度宣布,随着文心大模型的迭代升级和成本下降,自2025年4月1日零时起,文心一言将全面免费开放。

开放是AI大模型未来的发展趋势。这也意味着AI将更广泛地渗透到各行各业,影响人们的日常生活和工作模式。除了更谨慎使用它,普通人在使用时要注意什么?

李维给大家提出了三点建议——

保持警惕:大模型说的话,特别是涉及到事实的,别全信,最容易产生幻觉的地方是人名、地名、时间、地点等实体或数据,一定要特别小心。

交叉验证:重要的细节,可上网查查原始资料或询问身边专家,看看说法是不是一致。

引导模型:你可以在提问的时候,加入一些限定条件,比如“请务必忠于原文”“请核对事实”等等,尽可能引导模型减少幻觉。

总之,越是事实、越是细节的地方,越需要谨慎。

采写:南方+记者 黄锦辉 刘汉能

统筹:吴少敏 李秀婷 黄锦辉

更多阅读:

千行百业为何纷纷接入Deepseek?|南方深读

AI人才的选择,正在发生微妙变化 | 南方深读


开栏语:

从政务到商务,从企业到产业,千行百业纷纷接入DeepSeek。这场由国产AI大模型领衔的技术革命,带来哪些启示?将如何重塑生产力和生产关系?即日起,南方日报、南方+推出“AI启示录”系列报道,从产业、人才、应用等多角度观察AI带来的深刻变革。敬请关注。

编辑 张梦圆
校对 杨远云
+1
您已点过

订阅后可查看全文(剩余80%)

更多精彩内容请进入频道查看

还没看够?打开南方+看看吧
立即打开