背景
2023年6月01日 15:42

AI的灭绝风险:行业领袖发出警告并呼吁全球行动

超过350名人工智能(AI)领域的行业高管、专家和教授近日发布公开信,警告AI可能带来的灭绝风险。这一消息引发了广泛的关注和讨论,进一步加深了对于AI技术发展和应用的思考。


5月30日,一份由350位人工智能领域的科学家与企业高管等一同签署的《人工智能风险声明》发布了,声明的内容只有一句话:“降低人工智能导致人类灭绝的风险,应该与流行病及核战争等其他社会规模的风险一起,成为全球优先事项。”这份声明通过人工智能安全中心(Center for AI Safety CAIS)发布。CAIS是一家位于旧金山的非营利组织,他们表示,发布声明是为了鼓励AI专家、记者、政策制定者和公众更多地讨论与AI相关的紧迫风险。

声明的签署者中,包含了OpenAI(开发ChatGPT的公司)首席执行官山姆·奥特曼(Sam Altman)和DeepMind(开发AlphaGo、AlphaFold的公司)首席执行官戴米斯·哈萨比斯(Demis Hassabis),也包括被称为AI教父的杰夫瑞·辛顿(Geoffrey Hinton),以及与他同为“AI三巨头”之一且同获图灵奖的约书亚·本吉奥(Yoshua Benjio)。随着AI技术的发展,领域内的专业人士逐渐开始担忧这项技术对人类社会的潜在威胁。当杰夫瑞·辛顿被问到“你认为可以想象的最坏的情况是什么”,他回答:“完全可以想象,人类只是智能进化的一个过渡阶段。”

一、持续的AI潜在风险担忧
自聊天机器人ChatGPT推出以来,对AI技术潜在风险的担忧一直在增加。最近一次的公开信引起了广泛关注和热议,加深了对AI技术的思考和探讨。早在今年3月,一封呼吁暂停高级AI开发的公开信就在全球范围内引起了轰动。这些行业高管和专家认为,高级AI可能对社会和人类构成深远的风险。

二、AI的潜在风险问题
公开信中指出,人工智能的发展可能带来与人类竞争的智能,从而给社会和人类带来深刻的风险。他们认为,AI系统的发展需要进行规划和管理,并呼吁加强监管和管理,以避免类似的问题出现。近年来,AI系统在通用任务方面的能力不断提高,这引发了一系列关键问题。公开信提出了一些问题,包括AI是否应该充斥我们的信息渠道并传播宣传和谎言,是否应该将所有工作自动化,以及是否应该发展可能最终超过人类思维的非人类思维。这些问题需要我们深入思考和回答。

三、呼吁加强AI治理和监管
公开信中还呼吁立即暂停至少6个月的时间,不要训练比当前更强大的AI系统。他们建议在这个暂停时间里,AI实验室和独立专家共同制定和实施一套先进的AI设计和开发安全协议,并由独立的外部专家进行严格审核和监督。这些协议应确保系统的安全性,并遵守合理怀疑范围之外的规定。此外,公开信还强调了加强AI治理体系的重要性,包括建立专门负责AI监管的机构、监督和跟踪高能力AI系统和大型计算能力池、建立溯源和水印系统来区分真实与合成内容以及加强审计和认证生态系统,并确保AI造成的损害能够得到适当的追责。此外,公开信还呼吁政策制定者与AI开发者合作,加速AI治理体系的发展,以应对AI引起的巨大经济和政治变革,特别是对民主制度的影响。

随着人工智能技术的不断发展,我们必须认真思考并回答AI带来的潜在风险。行业领袖发出了警告,并呼吁全球加强监管和治理,确保AI的发展符合人类的利益,最大程度地减少潜在的负面影响。通过谨慎而透明的方式,我们可以引导AI的发展,并为人类创造一个更加美好和繁荣的未来。