你为了隐私从GPT搬去Claude,现在它让你交护照

张开发
2026/4/16 21:58:04 15 分钟阅读

分享文章

你为了隐私从GPT搬去Claude,现在它让你交护照
今年二月在美国发生的那一波汹涌的迁移大概是AI公司历史上最富戏剧性的“用脚投票”。OpenAI和五角大楼签了合同把模型部署到国防部的机密网络里Anthropic则因为坚持不让自家模型用于这些领域而被美国所有联邦机构“拉黑”紧接着被国防部按“国安风险”处理——一个通常只用于极少数外国公司的标签被贴到了一家旧金山AI创业公司头上。代价是惨重的但故事的另一面是那几天ChatGPT在美国的卸载量据说飙了快三倍Claude冲上美区App Store榜首免费用户比一月涨了60%注册量破纪录。那些在意个人数据隐私的人终于找到了一个愿意替他们挡子弹的公司。“隐私用户”的新家就这么建起来了。然而到了这周Anthropic悄悄上线了一份帮助文档标题叫“Claude的身份验证”——部分用户在使用某些“功能”、或者触发“日常平台完整性检查”时会被要求交出一张真实的、未损坏的护照、驾照或身份证原件再配一张实时自拍。照片扫描件都不行手机电子证件更不行学生证当然也不行。验证方是Persona一家在金融KYC领域混的硅谷公司。这则消息在海外社交平台上炸了。有人直接说这不是法规要求不是监管命令是Anthropic自己要做的。ChatGPT不要求Gemini也不要求只有Claude要求。二月份刚靠“我们不做监控”的人设圈来几百万用户四月份就让这群人掏出护照。看这节奏。这不是“合规”两个字能解释的官方措辞足够谨慎。Anthropic说验证数据只用来确认身份不会用于其他用途不会拿去训练模型数据传输和存储都加密不和第三方共享用于营销。照片和证件不进Anthropic的服务器而是进Persona的系统——Anthropic说自己只是“数据控制方”负责设定规则但实际持有那堆护照扫描件的是别人。这些话都没错。但它们回避了一个更基本的问题为什么是现在为什么是你们为什么是这种方式Anthropic给的触发条件是三个模糊的筐访问“某些能力”时、“日常平台完整性检查”时、“安全与合规措施”时。哪些能力哪种用户行为会触发帮助文档没写公司也没有回应外界的追问。已经有用户反映订阅Max套餐的注册流程里就会撞上这道墙。这个设计很微妙。表面上它是“部分用户、部分场景”听起来克制但只要触发条件不透明它在用户侧的心理体感就是“随时可能被要求”。一个“隐私优先”的产品此刻在告诉你我们默认你是可疑的我们会在某些我们不说清楚的时刻让你证明自己并非可疑人物。承诺很仔细基础设施很粗糙Anthropic在措辞上是相当仔细。但这些承诺要落地靠的是Persona。至于Persona最近两年的剧本是这样写的2025年10月Discord通过第三方客服供应商泄露了大约7万张用户为了年龄验证上传的政府证件再往前有媒体调查发现LinkedIn用户走Persona验证的个人信息可能被分发到多达17家公司。换句话说Persona在这行算是“严肃玩家”但把护照交给一个中间商这件事本身在过去几年里一次次证明了它的脆弱性。“加密传输”和“加密保存”这两个词写在合同里和数据实际不被泄露之间是有一段不小的距离的。这段距离通常要等泄露发生时才能被公众准确丈量。Anthropic今年以来给人的印象一直是“在乎安全和隐私的那一家”。这个人设的核心资产是用户的信任——而信任这个东西是单向资产一旦被一次性交易掉比如一张被泄露的护照扫描件配一张自拍就再也长不回来。真正被关上的门除此之外这条政策还有一层影响是关于覆盖范围。Anthropic并不在全球所有市场提供正式服务在例如中国这样的“非服务地区”注册的账号会被平台封禁——这本来就是既定政策。此前部分用户还能通过付款方式、第三方接入等途径使用Claude。但一张实体证件加一张实时自拍这道关是绕不过去的。护照是真的脸是真的国籍和签发地信息对不上就是对不上。这实际上意味着Claude在“非服务地区”的可达性被压缩到了接近零。那些愿意付费、对Claude使用最深的一部分海外开发者和研究者会被顺带清理出去。Anthropic不会公开承认这是目的之一它会说这是“合规与安全措施”。但从结果看这道身份验证的门槛挡住的正是那些最在乎产品、也最愿意为产品付费的边缘用户而真正想用AI做坏事的、有实际伪造能力的主体这道关拦不住多少。这是身份验证系统的老问题了——你能拦住的往往是你最不想拦的那群人。一个更大的命题二月份那场用户迁移很多人当时读出的故事是“市场奖励了坚持原则的公司”。Anthropic拒绝让Claude用于监控然后它的用户用真金白银投了票。这是一个教科书级别的叙事——价值观和商业成功在理想情况下是可以同频的。但两个月后再看这个故事开始显得复杂。拒绝五角大楼的是Anthropic要求用户交护照自拍的也是Anthropic。这说明一家公司对政府说“不”的能力和它对用户说“是”的能力不是一回事。Anthropic可以在一笔两亿美元的合同前站住立场这值得尊重但它同时也可以在一个周二的下午悄悄改一页帮助文档把几百万刚迁移过来的用户推向一个他们原本以为不会遇到的门槛。前者需要公司层面的勇气后者只需要一个产品决策。更值得警惕的其实是海外评论者已经指出的一个趋势——这次Anthropic是“自愿的”但AI实名制相关的监管正在全球各地加速形成。“AI使用绑定身份”这类规则一旦在更多司法管辖区落地今天的“自愿KYC”就会变成明天的“行业标准”再变成后天的“你别无选择”。Anthropic现在做的是在监管还没到之前自己先把这条路踩出来。它试图验证一件事让用户交护照这件事是可以做的天塌不下来。这可能是整件事里最让人不舒服的部分。不是因为它做错了什么——在法规层面它什么都没错——而是因为它让一条原本需要监管才能推过去的线变成了一个产品页面的小改动。二月份那群因为监控担忧跑过来的用户他们原本想投的是“一个不把我当作嫌疑人的AI”。现在他们要重新想的问题是在AI这件事上我真的有地方可去吗。END本文来自至顶AI实验室一个专注于对AI计算机、工作站及各类AI相关硬件设备开展基于真实使用场景评测的研究机构。‍

更多文章