Skip to content

When Should Machines Make Decisions? Chinese

Published:
January 11, 2019
Author:
Revathi Kumar

Contents

机械何时可以做决定呢?


Click here to see this page in other languages:  English   Russian 

人类控制:人类应当决定如何及是否将做决定的权力转交于人工智能,从而完成人类的目标

什么时候让机械代表人类做决定才合适呢?绝大多数人让谷歌地图选择到达目的地的最佳路程。很多人也很乐意在休息或者工作的时候有一个自主驾驶的车可以带我们去想去的地方。但是你准备好让你的车选择目的地了吗?你的车或许会意识到你的最终目标是用餐或者购物或者是出差,但是大多数时间我们都有想去的商店或者餐厅,所以我们可能不会想让车决定去哪里。

对于更具挑战性的决定呢?我们应该让武器选择杀死谁吗?如果是的话,它们如何抉择呢?当人工智能变得比人类更聪明的时候,我们又该如何回答这些问题呢?如果一个人工智能比我们更了解我们自己和我们是世界,是不是让它做决定更合适呢?

诸如此类的问题很难解决。实际上,两个我采访过的人工智能专家的回答大概都是, “对啊,是很难啊,” 和 “对,这个问题确实很微妙”

而且我采访过的每一个人都说是否由人类控制这个问题是设计人工智能的时候最难处理的问题之一。

罗伯特高登大学阿伯丁的研究教授, 苏珊·克劳(Susan Craw),说道:“我觉得这个十分重要。如果处理不好的话就会造成系统做人类不想它们做的事,或者是人类不赞同机器人的处事方式。“

人类控制到底意味着什么?


约书亚·格林 (Joshua Greene),一个哈佛的心理学家,一针见血地指出了问题所在。

”这是一个有趣的问题因为我们还不知道如何才算是违反了这一个规则,” 格林继续解释道:“ 在人类不给予权力的情况下,人工智能能做什么类型的决定呢?人工智能是人类创造的。这个原则在实际上更多是取决于我们有意识地在让机械做出什么特定的决定。一种解释是:我们不介意机械做出决定,但不论它们做出怎样的抉择,我们要的是我们已经决定好做出抉择的是它们。”

“举个例子,一个两腿走路的导航机器人,控制者不会想操控它的每一个动作每一个角度。人类不会想控制每一只脚在哪里落下。但是那个控制者一定会说: ‘我无所谓机器做决定,不跟更高级的决定矛盾就行。”

路易斯维尔大学的人工智能研究员罗马·亚波尔斯基 (Roman Yampolskiy)提出我们比想象中给予了人工智能更多的权力。

亚波尔斯基说道:“我们在很多地方早已将控制权交到了人工智能的手中,人工智能控制了85%以上的股市交易,控制了发电厂的操作流程,核反应堆,电子格,交通灯协调以及一部分的军事核武器。操纵这些程序具有相当的复杂性并需要一定的速度,而人类并不能有意义地控制这些复杂的程序。我们对这些需要在超快的速度内进行的事物实在无能为力,并无法比拟例如在交易运算上算使用的程序和军事无人驾驶战斗机所使用的程序等。我们也不能记住上千变量和理解复杂的数学模型。我们对机械的依赖只会增加,只要他们一直做对的选择(在只要我们足够聪明,有足够数据和时间才会做的那种选择),我们会觉得它们做决定无可厚非。只有在人类与机械有不同的选择时人类才会选择干预。 当然,到底哪些问题是会有分歧的,还是一个不可解决的价值观一致性问题。”

格林也详细解释了这个想法:“令人担忧的是当人工智能做出比“我下一步该如何走”更深远并更具后果的选择;当你有一个可以灵活表现的机器时,你如何和适合度地给它一些权利,而并不是将所有权利交付于它呢?当你有个下属而且你需要他帮你做事的时候,你会说,‘自己找出解决方法’。你并不会另外指定:’注意途中别一不小心杀了谁啊。别违反法律哦,别把公司的钱都花在一些无关紧要的事情上。‘设计人工智能时,有些设定虽然很宽并不被明确指出,但是却十分重要。

“ 我很喜欢这个原则的本质。它是一个对广义责任的清晰化,也就是说一个决定不是人做的就是机器做的。但是这个原则在人工智能变得更灵活开放之后执行将会十分艰难。“

信任和责任


就一个系统的学习能力和方式而言,人工智能常被用来和孩子对比。跟对一个孩子一样,在它证明自己能被信任和安全操作之前,我们不放心给它们太多权力。人工智能系统或许在地图,经济交易和发电上已经取得了我们的信任。但是在关于安全和健康的更复杂的方面人工智能系统能否能保持人们对它的信任还是很有风险的。

电气电子工程师学会(IEEE)人工智能与自治系统伦理考虑全球倡议委员会执行主任约翰·海文斯(John Havens)解释道:“在通用人工智能展现出人类不参与时它们可以运作的更好之前,人类还是需要操纵这些机器。”

海文斯指出: “但是,研究也表明现在是最危险的时候,人类被告知 ‘你可以坐着让系统处理问题就好,它99%的时候都是没有问题的’-这是最危险事了。” 他所说的是鉴于近日的研究表明如果系统很少出现问题,人们会停止关注系统运作,就像最近的无人驾驶车。研究也表明当有问题的时候人们很难再一次集中注意来解决问题。

“我认为人类应当先将任务委派给机器,” 海文斯 总结道。

在已经提到做决定的问题的基础上,加利福尼亚理工州立大学的哲学家帕特里克·林(Patrick Lin)指出如果出了差错的话责任划分并不清晰。

林Lin说道:“我并不是主张人工智能每一步都要有人类操纵,我的意思是,是否有人类操控取决于决定本身的内容,但我也认为这会衍生出新的问题… 。这与人类操纵与人类的责任有关。如果人类不操控的话,我们对于谁应该责任并不清楚…事情的始末是很重要的,于人类该做出多少控制取决于决定的类型。”

康乃狄格大学的哲学家,苏珊·施耐德(Susan Schneider)也担心我们在达到超越人类智能级别人工智能 之后这些问题会加剧。

“即使是现在有时候自我学习系统做出的决定的原因也是一个谜。” 她后面又说道:“如果我们把做选择的权力交给一个比我们更聪明的系统,我不知道我们能不能相信它,因为传统的验证方法在这方面似乎不管用。”

你怎么想呢?


人类应该时时刻刻操纵机器吗?这可能吗?什么时候机器掌权是可以的,什么时候人类又该在需要的时候恢复控制?肯定有机器比人类更有能力安全处理问题的时候,但是这是唯一重要的事情吗?你什么时候愿意让一个机器帮你做决定,什么时候又宁可自己做主呢?

此文章是23个阿西罗马人工智能原则系列中的一个。这些原则为人工智能达到利益尽量多的人提供了框架。但是,就像人工智能专家 托比·沃尔什(Toby Walsh)说的,“当然,这才是个开始罢了,工作还在进行当中。“ 这些原则是对话的开始,现在我们需要对每个原则进行更广泛的讨论。点击这里取得对之前原则的讨论。

This content was first published at futureoflife.blackfin.biz on January 11, 2019.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram