AI能“读心”?当个人网络安全遭遇人工智能新挑战

南方评论
+订阅

文 | 李咏瑾

你敢信,自己精心挑选上传的照片,不只是美好瞬间,还可能是一把打开你和周边亲朋好友隐私大门的钥匙——而这一切仅仅是你打开某个AI应用,上传一张合影想美化处理一下,而在网络的另一头,你的相关数据信息已清清楚楚暴露于不法分子眼前:AI人脸识别功能瞬间分析出你的身份信息、社交圈层乃至经济状况,甚至还包括你和照片中其他人物之间的关联……在人工智能时代背景下,一旦不慎,人们很多惯性的手机日常操作将潜藏着越来越大的网络安全风险。在日前举行的2025年世界互联网大会乌镇峰会上,如何应对个人数据全新挑战,成为引发广泛讨论的焦点话题。

随着人工智能在各行业的深度应用,其类似蝴蝶效应般延展的安全风险已呈现出前所未有的复合化特征。今天的AI数据挖掘能力快至毫秒、细至像素、呼吸空气一般涵盖人类周遭所有要素,已远超普通用户想象——不止泄露身份证等关键信息才存在风险,在AI眼中,没有无关紧要的细节:即使是一张无意中分享的自拍照,衣服上的logo、背景中的地标、甚至是你背后植物的种类,都可能成为AI数据拼图中的关键一环——这些零散的信息经过AI的整合分析,能够形成完整的用户个人画像,而随着你每天新的信息要素不断产生,累积而成的“人物画像”甚至是立体的、活动的,类似于AI大数据环境中基于你个人的“全息投影”。而在数字世界,任何信息的分享都会在网络上留下永久痕迹,即使很快删除,也可能已被AI系统采集和分析。这些信息一旦落入不法分子手中,在AI加持下量身订做的骗局更可谓防不胜防。

我们发现,今天的技术发展速度,远超普通用户安全意识的提升速度。人工智能确实潜藏着巨大的价值,而人们逐渐意识到,它既像是进一步启迪人类智识的普罗米修斯之火,亦像是种种希望与风险并蓄的潘多拉魔盒,当我们在享受其充沛的技术红利的同时,必须清醒意识到其种种潜在风险,并在进退之间找到一个安全的平衡。在AI大模型“读心察意”的时代,隐私的观念和边界呈现出潮汐般的动态趋势,随时处于重新的分析和定义中。传统意义上的隐私保护概念以及相应的措施已不足以应对当前的技术环境,当一张普通的合影或是跑步打卡照就能泄露你的社交习惯和人际关系时,我们必须在热切分享前先放慢一拍、问问自己:这些信息一旦被公开,可能带来什么后果?

超越并且把控人工智能的“人的智能”,或许不仅在于技术为我所用,更在于知道何时应该按下暂停或保持沉默。随着AI感知能力的不断升级,以及AI应用程度的不断加深,我们的隐私意识也需要同步升级:使用安全合规的人工智能软件,并在日常的社交分享中更加严谨地保护个人信息,应当成为我们新的网络安全常识。同时,相关部门以及人工智能平台也需要建立更加严格的个人信息管理制度和隐私保护制度,从AI工具使用规范到社交平台安全防护,构建全方位的网络安全保护体系,特别是保障鉴别能力较弱的老年人群和未成年人群体的网络合法权益,这一体系的构建就显得尤为重要。

其实,当我们每一次或理性或激情地投入当下的技术热潮时,不妨将时间线拉长至五到十年、或是更长的岁月以后,再回望我们当下的选择与困惑,你会发现人类的选择总会像以往若干次那样,整体趋于中间的均值,而这份审慎,或者正是人类文明发展至今最为卓越的底气与勇气。

编辑 古嘉莹
校对 杨远云
+1
您已点过

订阅后可查看全文(剩余80%)

更多精彩内容请进入频道查看

还没看够?打开南方+看看吧
立即打开