← 首页
安全

谷歌扩大五角大楼AI使用权,Anthropic拒绝后接手

在Anthropic拒绝允许美国国防部将其AI用于国内大规模监控和自主武器后,谷歌与五角大楼签署新合同,扩大其AI技术的军事应用。此举引发科技伦理争议,凸显AI行业在军事合作中的分歧。谷歌的决策不仅关乎商业利益,更牵动全球AI治理格局,科技巨头在国家安全与道德责任间的平衡成为焦点。

据TechCrunch报道,在美国人工智能初创公司Anthropic明确拒绝美国国防部(DoD)将其AI技术用于国内大规模监控和自主武器系统后,谷歌已与五角大楼签署了一项新合同,进一步扩大其AI技术在军事领域的应用。这一事件不仅揭示了科技巨头在军事合作上的立场分化,也引发了关于AI伦理与国家安全之间平衡的广泛讨论。

Anthropic的拒绝:道德红线

Anthropic,作为一家以AI安全研究闻名的公司,一直将道德准则置于商业利益之上。其联合创始人曾公开表示,AI技术不应被用于可能侵犯人权或引发不可控冲突的场景。因此,当美国国防部提出使用其AI模型进行大规模监控和武器系统开发时,Anthropic毅然拒绝。这一决定在科技界赢得赞誉,但也暴露了AI公司在面对政府需求时的脆弱性——拒绝可能意味着失去重要合同和影响力。

“Anthropic的立场是明确的:AI的发展必须以人为本,任何可能加剧军备竞赛或侵犯隐私的应用都应被禁止。”——一位匿名AI伦理研究员评论道。

谷歌的接手:商业与安全的权衡

与Anthropic的谨慎不同,谷歌迅速填补了空缺。新合同允许五角大楼更广泛地使用谷歌的AI工具,包括数据分析、图像识别和决策支持系统。谷歌此前因参与五角大楼的Project Maven项目(利用AI分析无人机视频)而引发员工抗议,导致其一度收缩军事合作。然而,此次签约表明,谷歌在国家安全和商业利益之间做出了新的选择。分析人士指出,随着中美AI竞争加剧,美国科技公司面临来自政府的更大压力,拒绝合作可能被视为不爱国。

行业背景:AI军事化的浪潮

近年来,全球AI军事化趋势加速。美国国防部已成立AI中心(JAIC),并与多家科技公司合作开发自主武器和监控系统。与此同时,中国也在大力推进AI军事应用,如智能无人机群和网络战系统。这种竞赛引发了一系列伦理问题:AI武器能否遵守国际人道法?大规模监控是否会侵蚀公民自由?谷歌的决策无疑为这场辩论增添了新的变量。

编者按:科技巨头的道德困境

谷歌与五角大楼的合作并非孤例。从亚马逊向执法部门出售面部识别软件,到微软为美国陆军提供Hololens头盔,科技公司正深陷军事应用的泥潭。一方面,它们需要政府合同以维持增长;另一方面,员工和公众的抗议不断提醒它们道德责任。Anthropic的拒绝树立了一个标杆,但谷歌的接手则表明,在商业现实面前,道德准则往往被妥协。未来,AI治理需要更明确的国际规则,否则科技公司将永远在伦理与利益间摇摆。

本文编译自TechCrunch