微信AI搜索姓名就能“开盒”?
近期,有网络用户指出,通过微信的人工智能搜索功能查询个人姓名,可以查看到一个包含个人信息的汇总资料,其中包含了过往参与的活动和所获奖项等详细信息。这些信息中有一部分附带了参考资料链接,主要来源于微信公众号的文章,当文章中提及到姓名时,姓名会以蓝色超链接的形式呈现,用户只需一点击,便可轻松查看个人的相关经历。
腾讯今日向媒体透露,AI搜索仅融合公众号和互联网的公开资讯,并未触及用户隐私资料。鉴于用户近期反馈,微信搜索将不断改进使用感受,并依照法律对用户个人信息进行妥善处理与保护,确保个人信息安全,绝无泄露现象。
今年二月,微信推出了“AI搜索”功能,并且与DeepSeek-R1合作的“深度思考”服务进行了对接。据上海市数据科学重点实验室的主任肖仰华所述,目前启用的搜索功能所依托的大模型,其获取信息的方法与传统的搜索引擎相仿,主要依靠网络爬虫工具,在遵守相关协议的前提下进行信息抓取。然而,如果平台超出权限范围进行抓取或使用,确实存在侵犯用户隐私的潜在风险。
法律专家:公开信息也可能被越界使用
记者试图用自己名字进行搜索,却意外发现AI生成的资料,尽管并未包含身份证号码、手机号码等私密信息,然而这些信息一旦被整合,便能够勾勒出一个详尽的“数字轮廓”。如此基于公开资料拼接而成的内容,是否已经触及了隐私侵犯的边界?
上海政法学院的张继红教授指出,评估AI融合的信息是否侵犯了个人隐私,核心在于检查信息来源是否正当、处理流程是否符合规定。即便是属于公开范畴的信息,亦需严格依照《个人信息保护法》所规定的“合理利用”原则行事。对公开信息的再处理同样受到法律限制,例如:若将公开信息进行整合并作出推理,涉及手机号码、住址等个人隐私信息,便可能触及“敏感个人信息处理”的相关规定;而且,若此类信息被用于商业推广、信用评估等活动,也可能构成侵权行为。张继红指出,AI工具的研制者和管理者在操作过程中,若未遵循相关法规,未获得用户同意,未进行数据脱敏或匿名化处理,将有可能遭遇民事、行政乃至刑事的法律风险。
AI整合个人信息可能带来哪些风险?
整合后的个人“数字画像”实际上是对公开资料的再加工,它在减少信息获取便利性的同时,也增加了不少潜在风险。上海市数据科学重点实验室的负责人肖仰华指出,现行的AI大型模型与传统搜索引擎存在差异,它们在整理资料时,会进行一定程度的推断,例如,根据奖学金公布、公务员考试、考研等数据来推测用户的年龄、职业背景等,这样的做法可能会提高个人信息泄露的几率。
肖仰华强调,为了防止类似问题的再次发生,我们必须强化AI的“安全对齐”训练,即教会AI识别哪些问题是适宜回答的,哪些则不宜作答。同时,AI在训练阶段所接触到的信息并不会被“遗忘”,这有可能使负面信息持续存在。一旦遭遇同名现象,更可能引发信息混淆,进而导致输出的内容不准确,甚至产生虚假信息。
公众如何应对?三招降低被“开盒”风险
降低非必需信息公开程度:应尽量避免在网络上公开自己的工作单位、居住地、身份证号码、肖像以及语音等关键个人信息。
发布内容时需明确表示拒绝,主动声明内容不得被平台用于AI训练或商业目的,此声明将成为日后维护自身权益的重要凭证。
若信息被错误地搜集,可根据《个人信息保护法》的规定,要求相关平台进行删除处理。此外,还需留意并关闭平台内“参与AI模型训练”的预设选项,妥善管理个人数据的运用权限。