Research for Beneficial Artificial Intelligence Chinese
Contents
研究有益的人工智能
Click here to see this page in other languages: English
研究目标:人工智能研究的目标应该是建立符合共同利益的人工智能,而不是无秩序的智能。
阿西洛马原则的第一条就是关于研究的,这并非巧合。
乍看之下,研究目标这一原则似乎不像其他的一些原则那样引人注目或是激动人心,因为那些原则大多直接阐述了我们将如何与人工智能互动以及超级人工智能于我们可能的影响。但恰恰是这第一条原则生发出了余下的各条原则。
简而言之,没有人工智能研究,没有研究人员的具体目标,人工智能就无法发展。然而,如果只参与研究并致力于实现通用人工智能的目标,而不考虑该研究所带来的可能的长远影响,那么这样的研究将会对社会造成危害。
侏罗纪公园有这样一个场景,杰夫·高布伦(Jeff Goldblum)扮演的角色感叹,创造恐龙的科学家“太过专注于他们是否能够创造恐龙,而从未停下来思考过他们是否应当这样做”。一直到前不久,人工智能研究者们都还仅是在琢磨着他们能够完成什么,而未从长远角度来考量,他们有充分的理由:科学家们不过是试图让他们的人工智能项目运转而已,他们所取得的成果实在是太过有限以至于无法构成任何威胁。
但在过去的几年里,科学家们已经在人工智能领域取得了很大进展。人们已经感觉到人工智能对社会的影响,并且,正如我们所看到的,一些偏见和歧视问题已然开始出现,这一切并不全是美好。
态度转变
不幸的是,在人工智能研究领域,仍然存在这样一种文化,即人们盲目领受研发者无需对产品的使用负责这一概念。斯图尔特·拉塞尔(Stuart Russell)将这种态度与土木工程师的态度进行了比较,土木工程师永远不会被允许说这样的话,“我不过是设计桥梁罢了,自会有人操心它是否会坍塌。” 哈佛大学心理学家约书亚·格林(Joshua Greene)同意这一观点。他解释说:
“我认为这是对共同利益原则[#23]的一种支持——即认为中立是不合适的。我们不能说‘我只是制作工具,而由其他人决定工具是用作好的用途,还是坏的用途’。如果你正参与制造这些非常强大的工具,你有责任尽你所能确保这些工具是符合共同利益的。对于人工智能来说,每个参与进来的人都有责任推动它向积极的方向发展。因为如果总是将问题都丢给旁人,虽然阻力最小,但这也就是把权力交给已经非常强大的人,让他们变得更加强大,从而使他们受益。”
何为“有益”?
与我交谈过的其他人工智能专家也同意这个原则的总体思路,但对其措辞并不持完全一致的意见。例如,帕特里克·林(Patrick Lin) 对“有益”一词的使用及其含义感到担忧,而约翰·黑文斯(John Havens) 却十分欣赏这个词,恰恰因为它可以促使我们思考“有益”在此语境下的潜在意义。
加利福尼亚理工州立大学的哲学家帕特里克·林解释说:“我大体上同意这个研究目标。考虑到人工智能可能被误用或滥用,拥有明确且积极的目标是十分重要的。我想可能会引起人们担忧的是“有益”这个词究竟是什么意思。如果我们想要致力于研究有益的智能,我们需要定义我们的术语。我们需要定义“有益”的含义是什么,但是对于我来说,这些都不够清楚。对不同的人来说,这意味着不同的东西,你也很难让所有人都受益。”
与此同时,电气电子工程师学会(IEEE)人工智能与自治系统伦理考虑全球倡议委员会执行主任黑文斯对这个词引发了讨论一事,表示十分欣慰。
黑文斯说:“我喜欢‘有益’这个词。我认为有时候人们固有地认为,智力在某种意义上永远是积极的。意思是,因为一些东西可以是智能的,或者是自主的,并且可以促进技术进步,所以便是一件“好事”。而修饰语“有益”用得很好,因为你必须定义:你所说的有益是什么意思?然后,希望它变得更具体,即对谁有益?最后,你会优先考虑什么?所以我喜欢‘有益’这个词。”
人工智能研究人员、罗伯特戈登大学教授苏珊·科罗(Susan Craw)也同意这一原则,但对措辞的顺序提出质疑。
“是的,我同意这一点,”Craw说,但又补充道,“我觉得说其‘无目标’有点奇怪。反之也许更好,也就是说,最好创造有益的研究,因为这是一件更明确的说法。”
长期研究
路易斯维尔大学人工智能研究员罗曼·扬波尔斯基(Roman Yampolskiy)把讨论的重点转移回了生命未来研究所(FLI)最关心的问题:
“就架构和目标而言,潜在智能主体的范围是无限的。仅仅尝试设计有能力的智能是远远不够的,重要的是,我们要确定明确的目标,即符合人类目标的智能。在潜在目标这片汪洋大海中,这是一个非常狭窄的目标,所以大多数智能主体不会成为与我们价值观相符的优化程式,从而创造出恶意的或者至少是冷漠的人工智能(这同样非常危险)。只有把未来的超智能与我们真正的目标结合起来,我们才能从我们的学术继承人那里获得重大利益,避免对人们的生存造成灾难。”
考虑到这一点,我们很高兴地宣布我们启动了新一轮的补助!如果你还没有看过《需求 建议书》(RFP),你可以在这里找到。这个RFP的重点是技术研究或其他有利于开发人工智能的项目,这些项目有益于社会,并且在某种程度上是有保障的:我们的人工智能系统必须做我们希望它们做的事情。
如果你是一名对人工智能领域感兴趣的研究人员,我们鼓励你查看RFP并考虑申请。
这篇文章是关于23个 阿西洛马人工智能原则系列文章的一部分。这些原则提供了一个框架,来帮助人工智能使尽可能多的人受益。但是,正如人工智能专家托比·沃尔什(Toby Walsh)在谈到原则时说的,“当然,这只是一个开始…正在进行中的工作。“这些原则代表着一场对话的开始,现在我们需要进一步对每一项原则进行更广泛的讨论。您可以在此阅读有关前面原则的讨论。
如果您是对AI领域感兴趣的研究人员,我们建议您查看RFP并考虑申请。
本文是关于23个阿西洛马原则的系列文章之一。阿西洛马原则提供了一个框架,以帮助人工智能让尽可能多的人受益。但是,正如AI专家托比·沃尔什所说的那样,“当然,这只是一个开始。 ……工作还在进行中。“原则代表了对话的开始,现在我们需要针对每个原则进行广泛讨论。您可以在此处阅读有关先前原则的讨论。
About the Future of Life Institute
The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.