当前位置:首页 > 网文选读 > 文摘阅读

机器人法则

网络7年前 (2019-10-24)文摘阅读1042


作者:熊辉 摘自:《科学画报》2018年第23期

  当机器可以思考时

  2018年3月,在美国亚利桑那州的坦佩市,一辆自动驾驶汽车将推着自行车过马路的伊莲·赫茨伯格撞倒。当时,该自动驾驶汽车以每小时70千米的速度行驶,并且是在其车载电脑发现赫茨伯格6秒之后才将她撞倒。6秒的时间足够汽车停下来或转弯,但它什么都没有做,而是直接撞向了她。赫茨伯格在被送往医院后死亡,这是第一个被自动驾驶汽车撞死的行人。

  美国国家运输安全委员会通过对这一事件的初步调查发现,为确保更顺畅的驾驶,这辆自动驾驶汽车的紧急制动器被设计为在自动驾驶时禁用,而且也没有提醒操作人员注意危险的设计。

  75年前,美国著名科幻小说家艾萨克·阿西莫夫就提出了机器人三大定律,其中的机器人第一定律为:机器人不能伤害人类,或者坐视人类受到伤害。今天,我们已经处在一个机器人几乎随处可见的世界里,但是对于我们应该如何与机器人共同生活的深层次问题,仍然没有完美的答案。

  在过去的几年中,尽管出现了很多关于智能机器人的报告和政策建议,但到目前为止,阿西莫夫的定律仍然是一种幻想。

  欧盟机器人法律报告的起草者麦迪·德尔沃将目前的情况与汽车首次出现在道路上的情况进行了比较。她说:“第一批驾驶员在开车上路时没有规则可遵守,他们按照自己的想法合理或谨慎地驾驶。但随着技术的普及,社会就需要规则了。”

  麻烦的是,规范机器人对人类事务的干预比制定道路交通法规更复杂。例如,保护乘客和行人免受自动驾驶汽车伤害的立法,无法阻止数据抓取算法对选民投票的影响。用于诊断和治疗的医疗机器人与战场上的机器人需要不同的规定。机器人行为守则

  关于机器人的立法还有另一个障碍,法律过于笼统,不会过多考虑背景。对阿西莫夫来说,背景可能构成规则的一部分。他的许多故事探讨了机器人试图在不同场景中应用法律的意外后果。在他1942年出版的小说《环舞》中,当机器人试图同时满足第二定律(遵守人类给予它的命令)和第三定律(保护自己不受伤害)时,机器人陷入了困境。阿西莫夫的定律非常适合小说,但不适合实践。

  将这种法律解释为行动常识几乎是不可能完成的任务,有学者曾尝试这样去做,但最终因为太难而放弃。

  最终,辩论归结为道德问题而不是技术问题。英国上议院人工智能委员会的史蒂文·克罗夫特说:“人工智能带来的新力量需要一种新的道德规范。为了人类的繁荣,社会应该塑造规则,而不是让规则塑造社会,这一点至关重要。不能允许私营公司制定规程来决定每个人的利益。”

  正如克罗夫特所强调的那样,不同的地方有不同的文化,不同的文化也有不同的规则。例如,相比其他许多国家,日本对伴侣机器人的接受度要高很多,欧洲国家对隐私和数据收集的态度与美国不同。

  尽管如此,肯定有一些所有人都同意的指导方针。无论如何,机器人有能力对人类造成伤害——不管在手术室、战场上还是在路上。因此,人类的监控至关重要。

  人们经常用“电车难题”思想实验来表明,允许人工智能自行决定所带来的危险。如果自动驾驶汽车必须选择在发生事故的情况下杀死谁,这对车上的乘客和路上的行人来说肯定是致命的。但美国华盛顿大学的瑞安·卡洛认为这个思想实验很荒谬,让机器人除了杀人别无选择本就是一个奇怪的假设,更值得思考的是技术带来的新的可能性。

  卡洛设想了一种情景:想象一辆混合动力的自动驾驶汽车,可以通过汽油发动机为其电池充电。这款车的设计目标之一,是使其燃油效率最大化。在跑了几天之后,汽车发现使用充满电的电池时效率最高。它就会每天晚上在车库运行其发动机,这样早上就能使用充满电的电池了,但这样做可能会导致家中的人因一氧化碳中毒而死亡。

  这明显违反了不能伤害人类的法律,而且很难被预见。在这种情况下,我们如何判断错在哪里以及应该责怪谁?有人认为机器人的责任应该由制造商承担,他们将商品投放到市场,理应承担责任。

  问题在于,对于谁承担责任,法律通常要求被告预见其行为的结果。但是,对拥有学习能力的人工智能来说,这可能并不合理——就像卡洛设想的电池充电场景一样。为了避免出现这种不可预测的行为,有人建议自动驾驶汽车不应该有自学能力,但这明显与人们对自动驾驶汽车的期望不符。

  我们可以要求的是,机器人的行为实现自洽。确保负责任地使用算法可能意味着我们需要新的人工智能混合算法,让机器学习软件与人类更容易理解的技术相结合。这是一个令人兴奋的新研究领域。当机器人越来越像人

  美国加利福尼亚州帕洛阿尔托未来研究所的理事安妮·伊马菲登说,如果我们希望人工智能以最小的伤害提供最大的利益,那么关键不仅仅是让人们理解机器人,而且要制造更好的机器人。她的答案是确保机器人不会具备我们对事物先入为主的执着。这样我们就可以避免一些悄悄进入人工智能的偏见,并扭曲自动化的决策制定。

  如果我们能够克服这些挑战,那么,能拯救生命、行为自洽并公平对待我们的机器人将受到大多数人的欢迎。但是,随着我们能够创造越来越像人类的机器人,我们必须考虑让我们感到舒服的人机互动方式。

  语音识别技术让我们能够或多或少地与我们的设备交谈。谷歌公司通过人工智能合成的声音,足以使另一端的人认为他们正在与一个人交谈。机器人专家正在制作具有栩栩如生的肉体和头发的人形机器人。与此同时,又产生了一个更大的担忧。人类很容易形成情感依恋。但是无论机器人看起来多么逼真,我们都应该清楚自己是与机器,还是与人进行交流。

  在日益自动化的世界中,人们很容易忘记机器是由人类编程、拥有和操作的。设计和使用它们是为了一些更高、更人性化的目标:安全性、舒适性、效率、利润。设计机器人遵循的法律是一個有趣的思想实验,但最终会分散注意力。真正的机器人法律应该对相关的人进行检查,而不是对机器。

  作为人类,我们需要依赖深厚的传统智慧来解决这些基本问题,不能单靠技术来回答。然而,至少有一点我们都会认可:人类应该始终能够关闭机器。机器人五大法则

  任何普遍的机器人法则都可能包括以下内容。

  法则1:机器人不得伤害人类或让人类受到伤害——除非它受到另一个人的监督。

  法则2:机器人必须能够解释自己的行为。

  法则3:机器人应该抵制任何先入为主的冲动。

  法则4:机器人不得冒充人类。

  法则5:机器人应始终有一个关闭按钮。

  (齐宜摘自《科学画报》2018年第23期,喻梁图)

各种精美短文、往刊读者文摘、故事会、意林等……请访问文摘阅读板块,

分享给朋友:

相关文章

短章两则

作者:戴 旭、王莱    来源: 旁观者作者:戴旭 1894年一位叫宗方小太郎的驻华间谍认为这是“只见形而下未见其形而上”,通过对清朝全面的剖析,他认为…

母亲教儿的人生大课

作者:吴炎    来源:《家庭》2010年2月下半月 儿子研究生即将毕业时,立志读博。就在这时,母亲却下了最后通牒——不许再念下去,事实上,绝非母亲短…

爽快的文洁若

作者:陈洁    来源:《中华读书报》2010年2月3日 世界上爽快的人很多,但像文洁若这么干脆的老太太,我见得不多。她说话清脆利落,发音短平快,如快…

一位母亲的危机处理

作者:孙道荣    来源:孙道荣的博客 2010年1月24日,星期天,杭州一个名叫山水人家的小区。宁静的小区道路两旁,停满了私家车。谁也没有想到,平时…

母爱做伴

作者:大友 秦丽    来源:《山海经·人生纪实》 何延芬的疼痛源于15年前的一个清晨。 1995年1月16日清晨6时许,一脸倦容的何延芬骑着自行车…

你变了

作者:John J·Ryan    晓 月译    来源:《英语世界》2010年第5期 唐·韦斯特看到她在挥手致意,于是穿过车站朝…

你一定要坚强

作者:小李无刀    来源:《新青年.珍惜》2010年第6期 生活中我们总会遇到各种各样的挫折。面对挫折,我们的选择将决定自己的命运。 在菲律滨西部…

逃课与读书

作者:蒙木    来源:《寻找北大》 1992年,大概9月份这个样子,在五四体育中心二楼的一个小房子里,人不多,仅仅属于中文系的一个小范围座谈。时任系…

老实人和天真汉

作者:李敬泽    来源:《新华日报》 讲经典、讲历史,大家爱听,是为了古为今用,用古人的智慧教自己做个聪明人,教自己成功。历史常常被视为弱肉强食的自…

用数学解决“幽灵堵车

作者:万捷    来源:《大科技·百科新说》 每个月,你有多少小时浪费在堵车中,答案是:难以计算。最让人沮丧的是那些表面上看似没有任何起因的堵塞:没有…

发表评论

访客

◎欢迎参与讨论,请在这里发表您的看法和观点。