logo

三位OpenAI掌舵人亲自撰文:我们应该如何治理超级智能?

社会民生 护法使者三 2023-05-23 14:37:27 70

  腾讯科技讯,5 月 23 日消息,人工智能技术的发展速度非常快,可能带来巨大的潜在危险。为此,人工智能研究公司 OpenAI 的领导层认为,世界需要一个类似于管理核能的国际机构,以监管人工智能领域的发展。

  OpenAI 创始人萨姆·奥特曼(Sam Altman)、总裁格雷格·布罗克曼(Greg Brockman)以及首席科学家伊利亚·苏斯克沃(Ilya Sutskeve)在公司博客上发文解释说,人工智能领域的创新步伐太快,我们不能指望现有的监管机构能充分控制这项技术。

  绝大多数人都清楚,以 OpenAI 爆火的聊天机器人 ChatGPT 为代表,所谓的生成式人工智能代表着一种无价的资产,但其同时也带来了独特的威胁。在这篇博文中,OpenAI 没有谈及具体细节,也没有给出太多承诺,但其承认人工智能无法自我监管。

  文章中写道:“我们需要在领先的研发中进行某种程度的协调,以确保超级智能的发展以一种既能维护安全又能帮助这些系统与社会顺利整合的方式进行。我们可能最终需要像国际原子能机构(IAEA)这样的实体来监管超级智能的研究,任何超过特定能力(或资源,如计算)阈值的工作都需要服从于国际权威机构的规则,该机构可以检查系统,要求审核,测试是否符合安全标准,对部署和安全级别进行限制等等。”

  国际原子能机构是联合国在核能问题上进行国际合作的官方机构。当然,与其他此类组织一样,该机构也可能缺乏影响力。建立在这种模式上的人工智能管理机构可能无法介入并对不良行为者进行控制,但它可以建立和跟踪国际标准和协议,这至少是一个起点。

  OpenAI 的文章指出,跟踪用于人工智能研究的计算能力和能源使用情况,是能够而且可能应该报告和跟踪的相对较少的客观指标之一。虽然很难确定人工智能应该或不应该用于哪些方面,但可以说,与其他行业一样,专门用于人工智能的资源应该受到监控和审计。该公司还建议,规模较小的公司可以豁免,以免扼杀创新的萌芽。

  知名人工智能研究员、评论家蒂姆尼特·格布鲁(Timnit Gebru)接受采访时也说过类似的话:“除非有外部压力要求公司做些不同的事情,否则公司不会进行自我监管。我们需要加强监管,需要比赚钱获取利润更好的动机。”

  OpenAI 显然已经接受了这种观点,作为生成式人工智能领域的领导者,该公司也在呼吁在治理方面采取真正的行动。

  虽然 OpenAI 的提议相当于“也许我们应该做点什么”,但它至少成为该行业内的一个话题,表明了这家世界上最大人工智能品牌和提供商对做这件事的支持。公众监督是迫切需要的,但“我们还不知道如何设计这样的机制。”

  尽管 OpenAI 的领导层表示,他们支持“踩刹车”,但目前还没有这样做的计划,一方面是因为他们不想放弃“改善我们社会”(更不用说赚钱)的巨大潜力,另一方面是因为存在不良行为者直接“踩油门”的风险。

  以下为 OpenAI 博客文章全文:

  现在是开始思考超级智能治理的好时机,因为未来的人工智能系统甚至比通用人工智能(AGI)都要强大得多。

  鉴于我们现在所看到的情况,可以想象,在未来十年内,人工智能系统将在大多数领域超过专家的技能水平,并执行与当今最大公司那样多的生产活动。

  就潜在的优势和劣势而言,超级智能将比人类过去不得不与之抗衡的其他技术更强大。我们可能拥有更加繁荣的未来,但我们必须控制风险才能实现这一目标。考虑到存在风险的可能性,我们不能只是被动反应。核能就是具有这种特性的技术,合成生物学则是另一个例子。

  我们也必须减轻当今人工智能技术的风险,但超级智能将需要特殊的对待和协调。

  起点

  对于我们来说,有许多理念能够帮助我们更好地把握这一发展方向。在这里,我们列出了我们对其中三个问题的初步想法:

  首先,我们需要在领先的开发努力之间进行某种程度的协调,以确保超级智能的发展以一种既能维护安全又能帮助这些系统与社会顺利整合的方式进行。有很多方法可以实现这一点:世界各地的主要政府可以建立一个项目,让许多当前的努力成为其中的一部分,或者我们可以取得共识,前沿人工智能能力被限制在每年以特定的速度增长。当然,个别公司应该被要求以极高的、负责任的标准行事。

  其次,我们可能最终需要像国际原子能机构(IAEA)这样的实体来监管超级智能的研究,任何超过特定能力(或资源,如计算)阈值的工作都需要服从于国际权威机构的规则,该机构可以检查系统,要求审核,测试是否符合安全标准,对部署和安全级别进行限制等等。

  不过,追踪计算和能源使用情况可能会有很大帮助,这给我们带来一些希望,这个想法实际上是可以实现的。第一步,公司可以自愿同意开始实施监管机构将来可能提出的要求;第二步,个别国家可以遵守。重要的是,这样一个机构应该把重点放在降低生存风险上,而不是应该留给各个国家的问题上,比如限制人工智能应该被允许说什么。

  最后,我们需要使超级智能保持安全的技术能力。这是一个开放的研究问题,我们和其他人都投入了大量的精力。

  例外

  我们认为,允许公司和开源项目开发低于重要能力阈值的模型至关重要,这里不需要我们描述的那种监管,包括像许可证或审计这样的繁重机制。

  今天的系统将在世界上创造巨大的价值,虽然它们确实存在风险,但这些风险的水平与其他互联网技术和社会可能采取的方法相称。

  相比之下,我们所关注的系统将拥有比目前所创造任何技术都强大的能力,我们应该保持谨慎,不要把类似的标准应用到远远低于这个标准的技术上,从而淡化对它们的关注。

  公众意见及潜力

  但是,对最强大系统的治理,以及有关其部署的决策,必须有强有力的公众监督。我们认为,世界各地的人们应该民主地决定人工智能系统的界限和默认值。我们还不知道如何设计这样一个机制,但我们计划对其开发进行试验。我们仍然认为,在这些宽泛的范围内,个人用户应该对他们使用的人工智能的行为有很大的控制权。

  考虑到这些风险和困难,我们有必要考虑一下为什么要开发这项技术。

  在 OpenAI,我们有两个基本理由。首先,我们相信它会带来一个比我们今天所能想象的更好世界,我们已经在教育、创造性工作和个人生产力等领域看到了早期例证。世界面临着许多问题,我们需要更多的帮助来解决它们。这项技术可以改善我们的社会,每个人使用这些新工具的创造能力肯定会让我们感到震惊。经济增长和生活质量的提高将是惊人的。

  其次,我们认为,阻止超级智能的创造,从直觉上看是危险的,也是困难的。因为好处是如此巨大,建造它的成本每年都在下降,建造它的参与者的数量正在迅速增加,这是我们所走技术道路的固有组成部分,阻止它需要像全球监督制度这样的东西,即使这样也不能保证有效。所以我们必须把它做好。(金鹿)

 
 
来自: 腾讯新闻

声明:本站为个人程序内部测试网站,所有的文章均为测试,不对外运营,如文章内容不小心侵犯到您的权益,请发邮箱投诉 wplhsf@163.com 收到后立马删除!

本文链接: https://www.523it.com/faluzixun/78889.html
资源总数
171225+
今日更新
58
会员总数
36
今日注册
0