Skip to content

Can AI Remain Safe as Companies Race to Develop It? Chinese

Published:
September 24, 2017
Author:
Revathi Kumar

Contents

公司竞相发展AI时能否保证安全?


Click here to see this page in other languages: English  Russian 

避免竞争:人工智能系统开发团队之间应该积极合作,以避免安全标准上的有机可乘。

人工智能可以给予人类社会以巨大的便利:更加快捷精确的医疗诊断,可持续性的能源资源管理,以及更多。但是在今天的经济情况下,首先实现技术突破的人就 是赢家,首先开发AI技术的团队将获得金钱、声望和市场。鉴于这么高额的利益,AI建设者就有足够的动力去争夺第一。

任何公司在竞争成为首家成功研发出产品的过程中,对安全标准的遵守意识可能会逐渐松懈。所以对于研究和开发人员来说,愈发重要的一点是,正如AI的好处一样,从无意的偏见和歧视到潜在的意外灾难,它也带来了很多风险。如果努力开发某些产品或功能的团队,最初不花时间对其计划和设计的各个方面进行适当的审查和评估,这些风险将会加剧。

然而,尽管AI竞赛的风险巨大,但如果不参与竞争,企业就无法生存。

正如Elon Musk最近提到的:“你的公司只能参加竞争去建立AI,否则将失去竞争力。如果竞争对手争前恐后进入AI市场而你却无动于衷,那么定会被无情碾压。”

有可能合作吗?


有迹象表明,AI竞赛可能已经在进行了,有些人担心合作难以实现。

AI教授苏珊克劳Susan Craw说:“合作很难,特别是当公司为产品而竞争时,执行合作机制会相当困难,除非人们接受《阿西洛马人工智能原则》。对我而言,安全标准至关重要,所以积极合作以避免在这一领域投机取巧,更为重要。但这在很大程度上取决于你和谁合作。”

专注于高级AI的哲学家苏珊施奈德Susan Schneider补充说:“合作非常重要。问题是与保密利害攸关的那些国家或公司……如果超级智能AI是这场比赛的结果,它可能给人类造成生存危机。

然而,困难并不意味着不可能,AI哲学家Patrick Lin的观点给人们带来一丝希望。

Patrick Lin说: “我将把避免竞争纳入研究文化……竞争是好的,但军备竞赛是不可取的,但如何让人们合作而避免军备竞赛呢?答案是必须首先发展文化。”引用Patrick Lin在上一篇关于研究文化原则的评论。他认为,AI社区之所以缺乏凝聚力是因为研究人员来自这么多不同的领域。

发展有凝聚力的文化并不是一件容易的事情,但这并不是一个难以克服的挑战。

谁最重要?


也许,建立一个鼓励合作性竞争环境最重要的一步是理解为什么相关机构会冒风险降低安全标准。

这恰恰是哈佛心理学家约书亚·格林Joshua Greene在构思《原则》的时所思考的。

格林说:“在安全方面投机取巧本质上是‘我的私人利益高于公共利益。’ 这是一种很自私的行为。以牺牲安全为代价去竞争的唯一原因是你觉得你没有从这场竞争中分配到该得到的利益。如果你愿意为了提高私人利益的可能性,那么对人们的普遍伤害概率就会增加。

安全的益处


IEEE执行董事约翰·哈文斯John Havens表示,他十分赞同《原则》。他想用这个机会来“重新创造”人们对安全的定义,以及如何处理安全标准。

哈文斯解释说:“我们必须帮助人们重新思考安全标准是什么意思……通过回顾安全,你就是在问自己:我的AI系统是什么?它如何与供应链中的终端用户或利益相关者进行互动,以及它如何与之接触?供应链中哪里涉及到人力?是系统与人的互动,还是系统与系统之间的互动?

“安全的本质是人的价值观,而不仅仅是人身安全。这包括:个人信息是否安全?他们将如何与此进行互动?所以不走捷径的原因是因为这样你也在抑制创新。这阻止了新产品和服务出现的可能性。

但是对于那些认真对待这些标准的公司,他补充说:“在你花时间去回顾这些标准的时候,你也会发现所有这些美好的方式,会建立更多相关的信任。

你怎么看?


有迹象表明,像AI的Partnership这样的企业已经认识到并希望管控AI竞赛的危险。但是现在,Partnership的主要成员为西方组织。许多其他国家的企业,尤其是中国的公司正在追赶甚至是超越欧美公司。我们要如何鼓励全球各地的组织和研究团队一起合作并建立安全标准?我们将如何帮助团队监督他们的工作并确保安全程序始终恰当合适? AI研究团队需要其他团队洞悉和反馈,以确保他们不会忽视潜在的风险。但是如何确保这种合作不会损害到公司的商业保密协议?你认为避免竞赛原则是什么?

这篇文章是23《阿西洛马人工智能原则》系列的一部分。 《原则》提供了一个框架,来帮助人工智能尽可能多得让更广的人民受益。但是,正如AI专家Doby Walsh对《原则》的说法,“当然,这只是一个开始……是正在进行中的工作。”《原则》是开始谈话的标志,现在我们需要对各个原则进行广泛的讨论。您可以在这里阅读有关以前原理的讨论。


分享此条目

文明的最大益处来自于智慧,所以我们如何才能在人工智能的基础上增强这些益处,而不是在就业市场上被替代,也可能是被完全淘汰?

This content was first published at futureoflife.blackfin.biz on September 24, 2017.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram