当前位置:首页 > 网文选读 > 文摘阅读 > 正文内容

机器人法则

网络6年前 (2019-10-24)文摘阅读1005


作者:熊辉 摘自:《科学画报》2018年第23期

  当机器可以思考时

  2018年3月,在美国亚利桑那州的坦佩市,一辆自动驾驶汽车将推着自行车过马路的伊莲·赫茨伯格撞倒。当时,该自动驾驶汽车以每小时70千米的速度行驶,并且是在其车载电脑发现赫茨伯格6秒之后才将她撞倒。6秒的时间足够汽车停下来或转弯,但它什么都没有做,而是直接撞向了她。赫茨伯格在被送往医院后死亡,这是第一个被自动驾驶汽车撞死的行人。

  美国国家运输安全委员会通过对这一事件的初步调查发现,为确保更顺畅的驾驶,这辆自动驾驶汽车的紧急制动器被设计为在自动驾驶时禁用,而且也没有提醒操作人员注意危险的设计。

  75年前,美国著名科幻小说家艾萨克·阿西莫夫就提出了机器人三大定律,其中的机器人第一定律为:机器人不能伤害人类,或者坐视人类受到伤害。今天,我们已经处在一个机器人几乎随处可见的世界里,但是对于我们应该如何与机器人共同生活的深层次问题,仍然没有完美的答案。

  在过去的几年中,尽管出现了很多关于智能机器人的报告和政策建议,但到目前为止,阿西莫夫的定律仍然是一种幻想。

  欧盟机器人法律报告的起草者麦迪·德尔沃将目前的情况与汽车首次出现在道路上的情况进行了比较。她说:“第一批驾驶员在开车上路时没有规则可遵守,他们按照自己的想法合理或谨慎地驾驶。但随着技术的普及,社会就需要规则了。”

  麻烦的是,规范机器人对人类事务的干预比制定道路交通法规更复杂。例如,保护乘客和行人免受自动驾驶汽车伤害的立法,无法阻止数据抓取算法对选民投票的影响。用于诊断和治疗的医疗机器人与战场上的机器人需要不同的规定。机器人行为守则

  关于机器人的立法还有另一个障碍,法律过于笼统,不会过多考虑背景。对阿西莫夫来说,背景可能构成规则的一部分。他的许多故事探讨了机器人试图在不同场景中应用法律的意外后果。在他1942年出版的小说《环舞》中,当机器人试图同时满足第二定律(遵守人类给予它的命令)和第三定律(保护自己不受伤害)时,机器人陷入了困境。阿西莫夫的定律非常适合小说,但不适合实践。

  将这种法律解释为行动常识几乎是不可能完成的任务,有学者曾尝试这样去做,但最终因为太难而放弃。

  最终,辩论归结为道德问题而不是技术问题。英国上议院人工智能委员会的史蒂文·克罗夫特说:“人工智能带来的新力量需要一种新的道德规范。为了人类的繁荣,社会应该塑造规则,而不是让规则塑造社会,这一点至关重要。不能允许私营公司制定规程来决定每个人的利益。”

  正如克罗夫特所强调的那样,不同的地方有不同的文化,不同的文化也有不同的规则。例如,相比其他许多国家,日本对伴侣机器人的接受度要高很多,欧洲国家对隐私和数据收集的态度与美国不同。

  尽管如此,肯定有一些所有人都同意的指导方针。无论如何,机器人有能力对人类造成伤害——不管在手术室、战场上还是在路上。因此,人类的监控至关重要。

  人们经常用“电车难题”思想实验来表明,允许人工智能自行决定所带来的危险。如果自动驾驶汽车必须选择在发生事故的情况下杀死谁,这对车上的乘客和路上的行人来说肯定是致命的。但美国华盛顿大学的瑞安·卡洛认为这个思想实验很荒谬,让机器人除了杀人别无选择本就是一个奇怪的假设,更值得思考的是技术带来的新的可能性。

  卡洛设想了一种情景:想象一辆混合动力的自动驾驶汽车,可以通过汽油发动机为其电池充电。这款车的设计目标之一,是使其燃油效率最大化。在跑了几天之后,汽车发现使用充满电的电池时效率最高。它就会每天晚上在车库运行其发动机,这样早上就能使用充满电的电池了,但这样做可能会导致家中的人因一氧化碳中毒而死亡。

  这明显违反了不能伤害人类的法律,而且很难被预见。在这种情况下,我们如何判断错在哪里以及应该责怪谁?有人认为机器人的责任应该由制造商承担,他们将商品投放到市场,理应承担责任。

  问题在于,对于谁承担责任,法律通常要求被告预见其行为的结果。但是,对拥有学习能力的人工智能来说,这可能并不合理——就像卡洛设想的电池充电场景一样。为了避免出现这种不可预测的行为,有人建议自动驾驶汽车不应该有自学能力,但这明显与人们对自动驾驶汽车的期望不符。

  我们可以要求的是,机器人的行为实现自洽。确保负责任地使用算法可能意味着我们需要新的人工智能混合算法,让机器学习软件与人类更容易理解的技术相结合。这是一个令人兴奋的新研究领域。当机器人越来越像人

  美国加利福尼亚州帕洛阿尔托未来研究所的理事安妮·伊马菲登说,如果我们希望人工智能以最小的伤害提供最大的利益,那么关键不仅仅是让人们理解机器人,而且要制造更好的机器人。她的答案是确保机器人不会具备我们对事物先入为主的执着。这样我们就可以避免一些悄悄进入人工智能的偏见,并扭曲自动化的决策制定。

  如果我们能够克服这些挑战,那么,能拯救生命、行为自洽并公平对待我们的机器人将受到大多数人的欢迎。但是,随着我们能够创造越来越像人类的机器人,我们必须考虑让我们感到舒服的人机互动方式。

  语音识别技术让我们能够或多或少地与我们的设备交谈。谷歌公司通过人工智能合成的声音,足以使另一端的人认为他们正在与一个人交谈。机器人专家正在制作具有栩栩如生的肉体和头发的人形机器人。与此同时,又产生了一个更大的担忧。人类很容易形成情感依恋。但是无论机器人看起来多么逼真,我们都应该清楚自己是与机器,还是与人进行交流。

  在日益自动化的世界中,人们很容易忘记机器是由人类编程、拥有和操作的。设计和使用它们是为了一些更高、更人性化的目标:安全性、舒适性、效率、利润。设计机器人遵循的法律是一個有趣的思想实验,但最终会分散注意力。真正的机器人法律应该对相关的人进行检查,而不是对机器。

  作为人类,我们需要依赖深厚的传统智慧来解决这些基本问题,不能单靠技术来回答。然而,至少有一点我们都会认可:人类应该始终能够关闭机器。机器人五大法则

  任何普遍的机器人法则都可能包括以下内容。

  法则1:机器人不得伤害人类或让人类受到伤害——除非它受到另一个人的监督。

  法则2:机器人必须能够解释自己的行为。

  法则3:机器人应该抵制任何先入为主的冲动。

  法则4:机器人不得冒充人类。

  法则5:机器人应始终有一个关闭按钮。

  (齐宜摘自《科学画报》2018年第23期,喻梁图)

为了您更好的访问本站,请使用手机或平板自带的浏览器可获得更佳的浏览体验。

相关文章

阴差阳错的战斗趣闻

作者:军 闻    来源:《新周报》   打不开的弹药箱  二战中期在中非,意大利军队500多人奉命防守一个野战机场。他们拥有坚固的混凝土永备工事,充足的...

沧波共白头

作者:灰娃    来源:《我额头青枝绿叶——灰娃自述》   1985年冬,张仃先生的女儿乔乔来找我,告诉我她母亲病逝后,父亲生活有困难,而她马上要返回日本...

德国官员的工资对账单

作者:娜娜·格里芩    来源:《海外文摘》2010年第6期   在德国,令一批又一批政治家黯然落马、结束政治生涯的不是滥用职权、收受贿赂、权色交易等耸人...

花语

作者:吕游    来源:《青年博览》   1.小麦花开放大约5分钟,是世界上寿命最短的花,但它结出来的果实,却养育了世界上千千万万的人,千百年来谁也离不开...

顾准的绝望之望

作者:易中天    来源:《书生傻气》   1974年11月11日,顾准被确诊为癌症晚期,癌肿大如鸡卵,卡在心脏与气管之间,并已扩散,实际上已无法医治。这...

吴冠中:有话直说

作者:文静    来源:《学习博览》2010年第1期   唯愿作品能抵得上牛肉  我长期写生水田。有一次从水田中观望四周田埂线的组织,很入画。我脱掉鞋站在...

冰心一片在玉壶

作者:吴景山    来源:《兰州大学报》2010年5月15日   时下,中国高等教育的问题成了社会各界热议的话题。而这些话题的焦点之一就是中国何时能产生一...

理想的光亮

作者:陈旻    来源:《大公报》2010年7月6日   上车,点火。车发动着之后,塞在车载音响里那张我爱听的《藏歌》盘片,随机流出了《拉萨的酒吧》。一阵...

猴捕

x作者:黄瑞云    来源:《黄瑞云寓言集》   猴子海岸有一座大山,面海一侧悬崖陡壁,背海一边万壑千峰,上面树木仓郁,山果玲琅,是猴子生活的绝好环境。 ...

忘掉她,像忘记一朵花

作者:林一苇    来源:《广州日报》2010年7月21日   严格说来,在爱斯基摩人生活的区域是没有花的。除非你把雪花也当作花。但是,爱斯基摩人分明是一...

发表评论

访客

◎欢迎参与讨论,请在这里发表您的看法和观点。