谷歌大幅修改了其人工智能原则,取消了之前对使用该技术开发武器和监视工具的限制。这一更新标志着该公司立场的重大转变。
2018年,谷歌制定了一套人工智能原则,以回应外界对其参与军事活动的批评,例如美国国防部的一个项目,该项目涉及使用人工智能处理数据和识别作战行动目标。
最初的指导方针明确规定,谷歌不会设计或部署人工智能用于导致或直接导致人员受伤的武器或技术,或用于违反国际公认规范的监视。
然而,谷歌最新版的人工智能原则已经抹去了这些要点。相反,谷歌 DeepMind 首席执行官 Demis Hassabis 和技术和社会高级主管 James Manyika 发布了一份新清单,列出了这家科技巨头在使用 AI 方面的“核心原则”。
其中包括注重创新和协作,以及“民主国家应在人工智能发展中发挥领导作用,以自由、平等和尊重人权等核心价值观为指导”的声明。
曾担任谷歌道德人工智能团队联合负责人的玛格丽特·米切尔(Margaret Mitchell)告诉彭博社,删除“伤害”条款可能意味着该公司现在将致力于“直接部署可以杀人的技术”。
据《华盛顿邮报》报道,自加沙战争初期以来,谷歌就与以色列军方合作,与亚马逊竞争提供人工智能服务。
该报上个月援引公司内部文件报道称,2023年10月哈马斯袭击以色列后不久,谷歌的云部门就努力向以色列国防军授予 AI 工具的使用权,尽管该公司公开宣称将参与限制在政府文职部门。
谷歌改变政策的背景是,人们继续担心 AI 对人类造成的危险。人工智能先驱人物、2024年诺贝尔物理学奖获得者杰弗里·辛顿(Geoffrey Hinton)去年年底警告称,AI 可能会在未来30年内导致人类灭绝,他认为这种可能性高达20%。
辛顿警告称,人工智能系统最终可能会超越人类智能,摆脱人类控制,并可能对人类造成灾难性的伤害。他敦促政府为人工智能安全以及该技术的道德使用投入大量资源,并制定积极措施。