AI开发竞争激烈,美国安全研究员接连离职,谁来为无序开发踩刹车?

张开发
2026/4/19 17:37:09 15 分钟阅读

分享文章

AI开发竞争激烈,美国安全研究员接连离职,谁来为无序开发踩刹车?
AI安全研究员离职潮理念与开发的冲突美国AI开发领域正经历一场震动负责安全性的研究人员接连离开一线。Anthropic的安全研究员Mrinank Sharma今年2月辞职他在英国牛津大学获得机器学习博士学位怀着为AI安全性做贡献的想法前往美国旧金山在Anthropic从事模型内部透明性机制研究等工作。然而他离职时公开信中称“在职期间曾面临将自身价值观落实为行动的困难”。2026年4月Anthropic试验性公开新型AI模型“Claude Mythos”其高性能可能被恶意利用导致灾难性结果Mrinank Sharma是否预言了其危险性引发关注。OpenAI的Zoë Hitzig也于2026年2月因ChatGPT引入广告而辞职。她在美国《纽约时报》发文称基于用户内心话的广告是操控用户的行为OpenAI为提高收益向免费和低价套餐用户展示广告抛弃了在AI引发问题上抢占先机的理念。企业开发与伦理的矛盾竞争下的妥协研究AI安全性的开发人员相继离职反映出企业在销售额和企业价值膨胀的同时对待安全和企业伦理的态度开始动摇。Anthropic的CEO达里奥·阿莫迪Dario Amodei虽意识到AI快速创新可能带来严重风险如就业流失、贫富差距扩大等但企业在开发竞争面前也不得不做出妥协。Anthropic原本要求不将自身AI用于军事用途却因竞争对手OpenAI获得国防部合同也表示将继续与政府协商。各方呼吁监管谁能为AI开发踩刹车OpenAI和Anthropic都意识到无序开发竞争的风险分别提出政策建议强调监管的必要性。OpenAI提出包括税制改革、每周四天工作制等设想呼吁制定国家层面的安全标准Anthropic强调开发过程的透明性以及对超智能模型潜在风险的控制。随着AI的快速发展各方对其监管的呼声日益高涨。美国总统特朗普表示政府应拥有强制停止AI技术的“终止开关”美国国会的危机感也在扩散民主党议员在听证会上追问相关政策。然而在美国内部分裂加深、中美对立加剧的情况下能否找到最佳解决方案仍不确定而持续快速进化的AI留给人类的“思考时间”并不长。编辑观点AI安全研究员的离职凸显了企业开发与伦理的矛盾。在竞争激烈的AI领域企业需平衡开发与安全伦理各方应共同努力制定有效监管措施以确保AI的健康发展。

更多文章