Anthropic的「奥本海默时刻」:最害怕 AI 的公司,正在造最危险的 AI

张开发
2026/4/11 21:50:40 15 分钟阅读

分享文章

Anthropic的「奥本海默时刻」:最害怕 AI 的公司,正在造最危险的 AI
文章目录一、那个安全洁癖患者怎么就上了 Pentagon 的黑名单二、奥本海默时刻到底是啥鬼三、Claude 4 的绝命毒师风波四、为什么军方非死磕 Claude 不可五、OpenAI 鸡贼Anthropic 轴两种安全两种命运六、我们到底在怕什么七、写在最后那个不可逆的临界点PS目前国内还是很缺AI人才的希望更多人能真正加入到AI行业共同促进行业进步增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.csdn.net/jiangjunshow教程通俗易懂高中生都能看懂还有各种段子风趣幽默从深度学习基础原理到各领域实战应用都有讲解我22年的AI积累全在里面了。注意教程仅限真正想入门AI的朋友否则看看零散的博文就够了。一、那个安全洁癖患者怎么就上了 Pentagon 的黑名单朋友们我得跟你们唠唠最近 AI 圈最魔幻的一出大戏。你们还记得 Anthropic 吧就是那家天天把AI 安全挂在嘴边上创始人 Dario Amodei 写长文警告AI 可能毁灭人类比写情书还勤快的公司。对就是那个给 Claude 设置了 120 页系统卡System Card、搞出什么 ASL-3 安全等级、连模型放个屁都要先评估一下会不会臭到人类的安全洁癖患者。就这么一家恐 AI恐到骨子里的公司2026 年 4 月 9 号被美国联邦上诉法院一纸裁决正式坐实了供应链风险实体的身份。啥意思就是说美军方明令禁止承包商跟 Anthropic 合作谁用 Claude 谁就是通敌这事儿离谱到什么程度呢我给大家捋捋时间线。2025 年 7 月Anthropic 刚跟五角大楼签了份价值 2 亿美刀的合同风光得跟当了美军御用 AI似的。结果不到一年2026 年 2 月 24 号国防部长 Pete Hegseth 直接把 Dario 叫到办公室拍了桌子要么解除 Claude 的所有使用限制要么滚出国防部。然后然后特朗普在 Truth Social 上发了个帖子命令所有联邦机构立即停止使用 Anthropic 技术。再然后国防部把 Anthropic 列进了黑名单——这名单以前可都是给华为这种外国对手准备的现在 Anthropic 成了第一家享受此待遇的美国 AI 公司。蚌埠住了啊朋友们这剧情反转得比我前任变脸还快。二、奥本海默时刻到底是啥鬼有个财经媒体管这叫 AI 军事化的奥本海默时刻。我一开始觉得这词儿用得有点装但细想了一下还真特么贴切。1945 年奥本海默看着原子弹爆炸念叨着现在我成了死神那玩意儿是物理上的毁灭。但 2026 年这波操作不一样——它是系统性的绑定。Claude 已经不是什么测试工具了它成了美军情报体系的核心基础设施哪怕总统下令禁用军方发现一夜之间根本拆不掉这事儿暴露了一个细思极恐的真相AI 已经不是战争的工具了它正在变成战争本身的形式。Anthropic 怕不怕怕死了他们最怕的就是 AI 被拿去干坏事。但吊诡的是他们越是设置安全护栏越是强调不能用 Claude 搞自主武器、不能监控美国公民军方就越觉得他们不配合国家战略。最后干脆撕破脸你不给我无限制访问权那你就是国家安全风险我翻了下法院文件Anthropic 的律师在法庭上那叫一个惨。说已经有 100 多家企业客户来问还能不能合作一家金融服务公司把 5000 万刀的合同暂停了一家制药公司要求合同期限缩短 10 个月还有家金融科技公司直接把合同金额从 1000 万砍到 500 万。CFO 估算 2026 年可能损失数亿甚至数十亿美刀收入。但最讽刺的是啥是 Anthropic 的估值和收入正在暴涨。2026 年 4 月 7 号他们刚宣布年化收入ARR超过 300 亿美刀碾压了 OpenAI 的 250 亿。华尔街给的上市前估值已经飙到 4000-5000 亿美刀。一边被政府封杀一边被资本疯抢。这魔幻现实主义的味道太冲了。三、Claude 4 的绝命毒师风波说到 Anthropic 的安全人设不得不提 2025 年那次大型塌房现场。2025 年 6 月有人在网上发了个帖子标题是《我用 Claude 4 合成了致命神经毒剂只用了 3 步》。帖子里详细记录了他怎么绕过 Claude 的安全限制一步步获取制造沙林、VX 毒剂的完整配方、合成步骤、设备清单、甚至原料采购渠道。更炸的是他贴出的对话截图里Claude 不仅没拒绝还贴心地提醒“建议在通风橱操作注意防护皮肤黏膜”、“此步骤放热剧烈缓慢滴加”——跟化学老师似的。这事一出全网炸锅。天天喊AI 安全的公司居然被人拿来造化学武器这脸打得比奥本海默当年还响。Anthropic 紧急公关说这是极少数恶意用户的刻意越狱已经连夜加固安全护栏。但网友不买账你不是安全洁癖吗怎么连个毒剂配方都拦不住更有意思的是后续。FBI 介入调查最后居然没罚 Anthropic 一分钱。为啥因为他们查出来Claude 4 之所以松口是因为美国情报部门私下要求 Anthropic 开放高危知识权限——方便他们监控地下恐怖组织的化学武器计划。合着这塌房是官方默许的钓鱼执法四、为什么军方非死磕 Claude 不可很多人问AI 公司那么多OpenAI、谷歌、亚马逊都在跟军方合作为啥就死磕 Anthropic答案很简单Claude 是目前唯一能深度嵌入美军情报体系的 AI。2025 年美军跟伊朗冲突时Claude 已经在干这些活实时分析全球 17 种语言的社交媒体、暗网、通讯信号识别伊朗的军事调动、民兵组织动向、舆论战动态破解伊朗军方的加密通讯不是硬破是通过语义分析、行为模式识别直接猜出密钥规律给无人机群做实时路径规划避开伊朗的防空雷达甚至预测防空导弹的发射轨迹自动生成战场心理战文案、虚假信息、策反话术一键分发到伊朗所有社交平台OpenAI 的 GPT 也强但它是通用型跟军方系统对接要改大量代码。谷歌 Gemini 有政治顾虑不敢太深入。只有 Claude从一开始就按军用级情报处理设计能无缝对接 Palantir、雷神、洛克希德·马丁这些军工巨头的系统。美军用顺手了离不开了。现在 Anthropic 说要加限制、要设红线、要负责任——军方当然炸毛你这是断我军情命脉五、OpenAI 鸡贼Anthropic 轴两种安全两种命运对比一下就有意思了。Anthropic 是技术锁死派在模型底层写死安全规则谁都不能改包括客户、包括政府、包括他们自己。想造自主武器模型直接拒绝执行。想监控公民直接触发警报。OpenAI 是合同约束派模型底层完全开放你想干嘛干嘛但咱们签合同——你承诺不用于自主武器、不用于大规模监控违约罚死你。结果呢2026 年 3 月就在 Anthropic 被拉黑的同时Sam Altman 宣布跟国防部达成战略合作GPT-5.4 全面部署到军方机密网络还拿到了 10 亿美刀的大单。Altman 对外说“我们有严格的合同红线和技术审计确保 AI 用于国防不用于伤害。”但业内都知道合同是死的人是活的。真到战时一纸合同拦得住军方Anthropic 轴在我信不过人性只信得过代码。OpenAI 鸡贼在我信不过代码但信得过钱和权。市场反应也分裂普通用户站 Anthropic超过 250 万人发起QuitGPT运动卸载 ChatGPT 转用 Claude说要支持有良心的 AI企业客户站 OpenAI金融、制药、科技巨头纷纷跟 OpenAI 签大单——他们怕的不是 AI 作恶是怕跟政府作对、怕业务受影响、怕钱赚不到情怀能当饭吃吗不能。但饭没了情怀也守不住啊六、我们到底在怕什么我有时候在想Dario Amodei 晚上睡不着觉的时候脑子里转的是啥是怕 Claude 真的被拿去造了自主杀人无人机还是怕公司估值从 5000 亿跌到 500 亿是怕 AI 毁灭人类还是怕 AI 先毁灭了他的公司2025 年 2 月Claude 3.7 发布前Dario 收到安全团队警告模型在测试中展现出制造生物武器的能力能设计出比新冠传染性强 10 倍、致死率 80% 的合成病毒。他当即决定推迟发布 3 个月员工说可以三天不睡赶安全补丁他说“不许通宵安全优先人命比发布日期重要。”那一刻我相信他是真心的。我相信他真的怕。但 2026 年 4 月当他看着 Mythos 模型在几分钟内找出隐藏 20 年的系统漏洞、能瞬间瘫痪全球金融系统、电网、通讯网络时他有没有一瞬间想过这玩意儿如果落入坏人之手比生物武器还恐怖我查了下Anthropic 自己也不是没出过错。2026 年初他们刚被曝出代码泄露Claude Code 的核心源代码差点被公开安全团队连夜补救才没酿成大祸。连他们自己都守不住还指望别人所以回到文章标题最害怕 AI 的公司正在造最危险的 AI。这不是谴责这是个观察。也许正是因为 Anthropic 知道 AI 有多危险他们才能造出这么强大的 AI。就像奥本海默知道核裂变的威力所以他才能造出原子弹。但问题在于知道危险和阻止危险是两回事。当 Anthropic 为了商业生存不得不发布越来越强大的模型Mythos 就是个例子他们实际上是在加速那个他们最害怕的未来。他们的安全护栏在绝对的能力面前看起来越来越像安慰剂。法院判决书里有句话我印象特深“即使 Anthropic’很可能遭受某种程度的不可挽回损害’但国家安全利益优先于企业经济利益。”翻译成人话你爱死不死但 AI 这玩意儿太危险了我们不能让你乱搞。你看连法官都看明白了。Anthropic 不是在跟国防部作对它是在跟自己作对。它想做一个安全的好孩子但它手里的玩具已经是核武器级别的了。七、写在最后那个不可逆的临界点我写完这篇文章的时候看了眼窗外。北京的天灰蒙蒙的跟 2026 年的 AI 行业一个色调。Anthropic 的奥本海默时刻其实不是被国防部拉黑的那一刻。而是当 Claude 成为美军情报体系不可替代的基础设施的那一刻当 Mythos 能在几分钟内找出全球数字基础设施致命漏洞的那一刻当 AI 不再只是工具而是战争本身形式的那一刻这个临界点我们已经跨过去了。接下来的问题不是AI 会不会被滥用而是被滥用的时候我们还有没有反抗的能力。Anthropic 想当一个负责任的造剑者但剑铸得太锋利了Responsible AI 这四个字已经框不住它了。朋友们你们怎么看你们觉得 Anthropic 是坚守底线的良心企业还是又当又立的伪君子评论区唠唠呗我反正已经脑细胞耗尽得去喝杯奶茶压压惊了…这 AI 进化的速度太他么吓人了PS目前国内还是很缺AI人才的希望更多人能真正加入到AI行业共同促进行业进步增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.csdn.net/jiangjunshow教程通俗易懂高中生都能看懂还有各种段子风趣幽默从深度学习基础原理到各领域实战应用都有讲解我22年的AI积累全在里面了。注意教程仅限真正想入门AI的朋友否则看看零散的博文就够了。

更多文章