谷歌政策大转弯?取消人工智能军事禁令或引发致命危机

商业周刊
02-11

谷歌的“不作恶”时代已经彻底终结了。

2018年,谷歌母公司Alphabet Inc.的领导层用语气更温和的“做正确的事”取代了这条座右铭,现在又放弃了该公司在军方使用人工智能方面最重要的伦理立场之一。

近日,谷歌删除了不将人工智能技术用于武器研发或监控应用的承诺,这是该公司2018年起遵守至今的承诺。谷歌目前的“负责任的人工智能技术”原则不再包含这一承诺,该公司人工智能主管德米斯·哈萨比斯(Demis Hassabis)发表了一篇博客文章,解释了这一变化,将其描述为不可避免的进步,而不是任何形式的妥协。

“(人工智能)正在变得像手机一样普及,”哈萨比斯说,这项技术“迅速成长了起来”。

然而,认为道德伦理准则必须随着市场“成长”的观点是错误的。的确,正如哈萨比斯所说的那样,我们生活在一个日益复杂的地缘政治环境中,但放弃战争伦理准则可能会带来失控的后果。

如果将人工智能引入战场,你就可能让自动化系统以机器速度相互响应,而没有时间进行外交干预。战争可能会变得更加致命,因为冲突会在人类来得及干预之前升级。而“干净利落”的自动化作战理念可能会迫使更多的军方领导人采取行动,尽管人工智能系统会犯很多错误,也可能造成平民伤亡。

自动化决策才是真正的问题。与以往提高军事效率或增强技术实力的做法不同,人工智能系统可能从根本上改变由谁(或什么)做出剥夺人类生命的决定。

同样令人不安的是,在所有人当中,恰恰是哈萨比斯署名支持谷歌这份措辞严谨的声明。早在2018年,谷歌公司就制定了自己的人工智能原则,超过2400名人工智能领域的专家共同签署了宣言,承诺不从事自主武器的研究,而当时哈萨比斯的态度与现在完全不同。

不到十年后的今天,这一承诺已经没有多大意义了。威廉·菲茨杰拉德(William Fitzgerald)是谷歌政策团队的前成员,也是政策和传播公司Worker Agency的联合创始人。他说,谷歌多年来一直面临着巨大的压力,要求该公司参与军事合同。

他回忆称,2017年,前美国国防部副部长帕特里克·沙纳汉(Patrick Shanahan)访问了谷歌云计算业务位于加利福尼亚州森尼韦尔的总部,当时该部门的员工正在搭建与五角大楼合作开展绝密军事项目所需的基础设施,签订合同的希望很大。

菲茨杰拉德帮助阻止了这一切。他参与组织了反对“Maven项目”的公司抗议活动,这个项目是谷歌与美国国防部达成的一项协议,旨在开发用于分析无人机画面的人工智能技术,谷歌员工担心该项目会导致自动化瞄准。大约有4000名员工签署了一份请愿书,声明“谷歌不应该涉及战争事务”,约有十几名员工辞职以示抗议。谷歌最终做出让步,不再续签合同。

回想起来,菲茨杰拉德认为这只是一段小插曲。“这是硅谷发展轨迹中的一个反常现象。”他说。

比如,从那以后,OpenAI与国防承包商安杜里尔工业公司(Anduril Industries Inc.)合作,向美国军方推销其产品。(就在去年,OpenAI还禁止任何人将其模型用于“武器开发”)。2024年11月,自称遵循“安全第一”原则的人工智能实验室Anthropic与帕兰提尔技术公司(Palantir Technologies Inc.)合作,将其人工智能服务Claude出售给国防承包商。

多年来,谷歌本身难以对自身的工作制定有效的监督机制。2019年,该公司解散了一个有争议的人工智能伦理委员会,一年后又解雇了两位最知名的人工智能伦理主管。该公司已经远远偏离了最初的目标,以至于再也看不到这些目标。硅谷的同行企业也是如此,本来不应该允许他们自行监管。

不过,如果运气好的话,谷歌的政策转向将在下周给政府领导人带来更大压力,促使他们为军事人工智能的发展制定具有法律约束力的法规,以免竞争态势和政治压力使这些法规的制定变得更加困难。

这些法规可以很简单,规定所有人工智能军事系统都必须由人类来监督。禁止任何完全自主的武器,这些武器可能在未经人类批准的情况下选择攻击目标,并确保此类人工智能系统可以接受审计。

生命未来研究所(Future of Life Institute)提出了一项合理的政策建议,这个智库得到过埃隆•马斯克的资助,目前由麻省理工学院物理学家马克斯·泰格马克(Max Tegmark)领导。该研究所呼吁建立一个分级管理系统,让各国当局像对待核设施一样对待军事人工智能系统,要求提供明确无误的证据来证明系统的安全系数。

在巴黎召开会议的各国政府还应考虑建立一个国际机构来执行这些安全标准,类似于国际原子能机构对核技术的监督。他们应该能够对违反这些标准的企业(和国家)实施制裁。

谷歌的政策反转发出了警告。即使是最强大的企业价值观,也可能在超级火爆的市场和根本不容拒绝的政府压力下土崩瓦解。企业自我监管的“不作恶”时代已经宣告结束,但我们仍然有机会制定具有约束力的规则,以避免人工智能带来最糟糕的风险,而自动化战争无疑是其中之一。编辑/陈佳靖

海量资讯、精准解读,尽在新浪财经APP

免责声明:投资有风险,本文并非投资建议,以上内容不应被视为任何金融产品的购买或出售要约、建议或邀请,作者或其他用户的任何相关讨论、评论或帖子也不应被视为此类内容。本文仅供一般参考,不考虑您的个人投资目标、财务状况或需求。TTM对信息的准确性和完整性不承担任何责任或保证,投资者应自行研究并在投资前寻求专业建议。

热议股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10