谷歌AI聊天机器人曝露用户真实电话:多人报告被陌生人联系骚扰

近期,多名用户反馈其个人联系方式被谷歌生成式AI泄露,且目前尚无便捷方式可预防此类情况发生,引发公众对AI隐私保护的广泛担忧。相关案例显示,谷歌Gemini等AI聊天机器人常错误提供个人电话号码,导致用户遭受骚扰或无关联系。 据悉,一名红迪网用户近日求助称,近一个月来其手机被大量陌生人来电淹没,来电者多为寻找律师、产品设计师等职业人士,经查证均是被谷歌生成式AI误导。类似案例并不少见,今年3月,以色列一名软件开发者收到陌生WhatsApp消息,对方称通过Gemini获取了其号码,误以为他是某支付应用客服;4月,华盛顿大学一名博士生在Gemini中搜索同事信息时,意外获取了对方的私人手机号。 隐私保护公司DeleteMe的数据显示,过去七个月,与生成式AI相关的隐私咨询量激增400%,其中20%的咨询明确指向谷歌Gemini。这些咨询主要分为两类:一是用户查询自身信息时,AI返回准确的住址、电话等隐私数据;二是AI生成错误但看似合理的他人联系方式,导致无关人员被骚扰。 专家分析,此类隐私泄露大概率源于AI训练数据中包含大量个人可识别信息(PII),这些数据多来自网络抓取,包括数据经纪商提供的信息。尽管AI公司会设置隐私防护机制,但实际效果有限,华盛顿大学博士生的测试显示,Gemini、ChatGPT等均能绕过防护,泄露个人隐私。 目前,相关隐私保护仍面临诸多困境。现有法规难以覆盖已被抓取用于AI训练的公开信息,用户也无法便捷核实自身信息是否存在于AI训练集中,即便提交隐私移除请求,也常面临响应迟缓、流程繁琐等问题。业内人士呼吁,AI公司需加强训练数据的隐私筛查,建立更高效的隐私移除机制,切实保障用户信息安全。