在周三发布的一份政策文件中,前谷歌首席执行官埃里克・施密特、Scale AI 公司首席执行官亚历山大・王以及人工智能安全中心主任丹・亨德里克斯表示,美国不应以 “曼哈顿计划” 式的方式大力推动开发具有 “超人” 智能的人工智能系统,即通用人工智能(AGI)。
这篇题为《超级智能战略》的文件断言,美国若积极争取独家掌控超级智能人工智能系统,可能会招致同行的强烈报复,报复形式很可能是网络攻击,这可能会破坏国际关系的稳定。
文件的共同作者写道:“(通用人工智能的)‘曼哈顿计划’ 假定竞争对手会默许一种持久的不平衡状态或是全球性毁灭,而不会采取行动去阻止它。一开始旨在研发超级武器并实现全球控制的行动,有可能引发敌对的反制措施,并加剧紧张局势,从而破坏这一战略声称要维护的稳定。”
这份文件由美国人工智能行业三位极具影响力的人物共同撰写。就在几个月前,美国国会一个委员会提议开展一项 “曼哈顿计划” 式的行动,为通用人工智能的开发提供资金,其模式效仿的是美国在 20 世纪 40 年代的原子弹计划。美国能源部长克里斯・赖特最近与 OpenAI 联合创始人格雷格・布罗克曼一同站在一个超级计算机站点前时表示,美国正处于人工智能领域 “新曼哈顿计划的开端”。
《超级智能战略》这份文件对近几个月来一些美国政策制定者和行业领袖所倡导的观点提出了挑战,该观点认为由政府支持的通用人工智能研发项目是与他国竞争的最佳方式。
在施密特、王和亨德里克斯看来,美国在通用人工智能领域处于一种类似于相互确保摧毁的对峙状态。就像全球大国不会寻求对核武器的垄断(因为这可能会引发对手的先发制人打击)一样,施密特及其共同作者认为,美国在竞相主导极其强大的人工智能系统时应持谨慎态度。
虽然将人工智能系统比作核武器听起来有些极端,但世界各国已将人工智能视为一项重要的军事优势。美国五角大楼已经表示,人工智能正在帮助加快军方的 “杀伤链” 速度。
施密特等人提出了一个他们称之为 “相互确保人工智能失灵”(MAIM)的概念,即各国政府可以主动禁用具有威胁性的人工智能项目,而不是等待对手将通用人工智能武器化。
施密特、王和亨德里克斯提议,美国应将重点从 “在追求超级智能的竞赛中获胜” 转移到开发能阻止其他国家创建超级智能人工智能的方法上。这些共同作者认为,政府应该 “扩充其网络攻击手段,以禁用其他国家控制的具有威胁性的人工智能项目”,同时限制对手获取先进的人工智能芯片和开源模型。
这些共同作者指出了在人工智能政策领域存在的一种二分法。一方面是 “悲观论者”,他们认为人工智能发展带来的灾难性后果已不可避免,并主张各国放缓人工智能的发展进程。另一方面是 “鸵鸟派”,他们认为各国应加速人工智能的发展,并基本上只是寄希望于一切都会顺利解决。
该文件提出了第三条道路:一种以防御策略为优先的、有节制的通用人工智能开发方式。
这一策略出自施密特之口尤其引人关注,因为他此前曾直言美国需要在开发先进人工智能系统方面积极。
特朗普政府似乎坚决要推进美国的人工智能发展。然而,正如这些共同作者所指出的,美国在通用人工智能方面的决策并非孤立存在。
当全世界都在关注美国挑战人工智能极限的举动时,施密特及其共同作者认为,采取防御性策略可能更为明智。
责任编辑:丁文武
Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.