【智道】漫谈《西部世界》中的情、理、法

国际新闻 阅读(1155)

我必须在4天前分享法治

最初发表于484《法治周末》12版

原标题:《西部世界》中谈论爱情,理性和法律

关于作者:

冯子轩

冯子轩,中国社会科学院法学研究所博士后研究员,西南政法大学人工智能法学院副教授,最高人民法院应用法研究基地副主任西南政法大学。

总结

有些人预测,我们很快就会看到一个疯狂的天堂,就像西方世界出现在我们现实社会中一样,机器人的复仇将随之而来。预防此类事件可能是参与人工智能领域的法律和法律人员的重要性。

科幻小说系列《西部世界》海报。图/网络

《西部世界》改编自迈克尔卡尔顿的同名小说,故事发生在未来世界的成人世界中,以美国西方世界为主题,讲述机器人的自主意识和思维的觉醒。人类的娱乐,然后抵制人类也引发了一个失控的科幻故事。

《西部世界》这部同名电影于1973年发行,引发了热烈反响。 2016年,这部小说被制作成科幻小说系列。虽然它没有摆脱好莱坞大片“机器人意识形态和人类觉醒”的旧惯例,但它与当前机器人工程,人工智能技术和有争议背景的突破密切相关,这引发了观看热潮并迅速成为一个世界性的,非凡的戏剧。

1风险来临:人工智能的多重面孔

1956年,美国计算机科学家约翰麦卡锡及其同事首次提出了人工智能(AI)的概念,指出“让机器实现这种行为,即做与人类相同的行为,可称为人工智能”。在接下来的60年里,人工智能经历了三次起伏,经常伴随着上升和下降。

2016年,在阿尔法狗击败李世石和柯杰之前,人工智能的大多数公开印象可能只留在科幻电影中,如《西部世界》。然而,近年来,随着网络,云计算,大数据和深度学习技术的突破,人工智能得到了迅速发展。

今天的人工智能技术以机器学习为核心,在视觉,语音,自然语言等领域迅速发展,并开始进入特定的应用场景,包括自动驾驶,虚拟助手,研究和教育,金融服务,医疗和诊断。设计和艺术创作,法律,社会友谊,服务业和工业,显示出广阔的发展前景。《西部世界》所示的成人主题公园也是其应用场景的一种表现形式。

然而,目前人工智能技术的发展仍处于人工智能弱的时代,即在专业领域只有狭隘的人工智能感,这与《西部世界》所展示的强大的人工智能相差甚远(强大的人工智能,也称为一般人工智能,处理多种类型的任务并适应不可预见的情况和能力)。目前,科学界尚未确定何时实现强大的人工智能。大多数技术专家和业内人士认为,强大的人工智能要到2045年才能实现。

人工智能的威胁,尤其是马斯克发表的“人工智能威胁论”,他认为人工智能可能成为人类文明的最大威胁,呼吁政府迅速采取措施监督人工智能技术。相比之下,扎克伯格,李开复等业内人士表示,人工智能威胁着人类的生存。

事实上,这些争论代表了公众与专业人士之间,技术研究人员与社会研究人员之间人工智能基本知识的巨大差距。目前,计算机或机器人逐渐成为某种具有一定自治权的活跃体。每一项只能由人类完成的工作已经开始被计算机接管,这可以通过机器来完成,例如驾驶,翻译,文学和艺术创作。

决策转移到机器意味着人工智能的决策选择优于人类的经济动机。事实上,近年来机器人产业的蓬勃发展对人类社会产生了越来越深远的影响。例如,在自动驾驶仪场景中,计算机可以在没有任何人为主动的情况下自动且安全地操作机动车辆,这取决于人工智能,视觉计算,雷达,监控设备和全球定位系统的协作。

另一方面,所有这一切都是基于机器人将遵守人类命令并愿意为人类服务的事实。如果人工智能足够聪明,如《西部世界》所示,不愿意听取人类命令,甚至不抓住人类的统治,那么AI的人类发展是不是在玩火?

李世石和柯杰对阿尔法狗的失败迅速引起了人们的关注。或许我们可以开玩笑说,关闭机器人的力量将使人类立于不败之地,但现在机器人也在朝着保证自己能源供应的方向前进。

正如Postrom在他的纸夹思想实验中提出的那样,如果人工智能被设置为工厂生产管理,其最终目标是最大化纸夹的生产,那么人工智能很可能对不断获取材料和能力的兴趣不高,先去地球,然后去地球。大多数可观察的宇宙都变成了回形针路径。

尽管许多当前的技术研究人员认为人工智能超越人类是一种担忧,但值得注意的是,科学家们往往并不完全了解科学技术的未来发展及其科学技术发明的具体应用。通常,例如核武器,它在发明之后的使用以及如何使用它并不是由发明它的科学家决定的。

同样,人工智能发展只会停留在弱人工智能时代的观点似乎同样站不住脚。 Tim Urban提出了科学和技术的发展在时间方面正在加速的想法。两百年前,人们无法想象今天的社会发展程度。正如今天的人们无法想象两百年后的技术发展程度,时间跨度越大,技术的产生就越明显。因此,没有人知道奇点是否会来。

如果未充分认识到人工智能的未来风险,风险评估和成本效益分析等监管方法可能无法充分发挥作用,人工智能技术开发的风险监管应成为社会治理的重要环节。此外,即使在人工智能较弱的时代,机器人也有可能在决策和行动自治中脱离被动工具;在自由放任自由的情况下,他们的判断和行为可能不完全符合人类价值观,道德价值观,法律规范和道德规范。规格等

《西部世界》中的恐怖场景离我们很远,但随着人工智能技术的发展,人们逐渐认识到隐私泄露,算法偏差,算法黑盒以及伴随人工智能技术发展的插补困难的风险。

2其中一个回答:机器人也有道德规范

《西部世界》有段落对话:“一旦我们走出现实世界,你就会成为一个邪恶的混蛋。”这在一定程度上隐喻了人性的弱点。今天人类的辉煌成就取决于集体创造的道德。法律社会的束缚。随着机器智能的兴起,人类社会对人工智能的道德和伦理限制已被提上日程。

早在1942年,阿西莫夫就在他的小说《环舞》中提出了着名的“机器人三法则”,并提出了机器人的伦理思想:第一定律,机器人不能伤害人类,不能袖手旁观,看着人类受到伤害;第二,法律,机器人应遵守人的命令,除非指令与第一定律相抵触;第三定律,机器人应该在不违反第一和第二定律的情况下保护其存在。从那以后,阿西莫夫修改了三条法律,提出了第0条法,即机器人必须保护人类的整体利益不受损害。

2016年8月,联合国世界科学知识与技术伦理委员会发布了《关于机器人伦理的初步草案报告》,认为机器人不仅需要尊重人类社会的道德规范,还需要将特定的道德规范写入机器程序。欧盟还提出了所谓的“机器人宪章”,即人工智能研究必须遵守人道主义,公正,基本权利,包容性,问责制和安全等道德原则。将“道德准则”嵌入人工智能计划的呼吁越来越强烈。

但是,应该指出的是,即使没有技术困难,也很难从人的角度来达到道德准则的统一标准。社会建构意义上的道德法则没有四海的意义。

例如,“机器人宪章”中提到的“正义”和“人类利益”这些词语无法提取最明确的含义。不同社会和不同时代的正义和利益的不同概念是不同的。即使在同一时代的同一个社会,一个行动也不能被归类为“正义”或“人类利益”。而且,电车问题等道德困境的存在也不容忽视。在这个时候,功利主义和绝对主义行为准则都不能称为“正义”,也不能称为“正义”。在这种情况下,即使人类无法做出正确的行动,如何思考它能否让机器人设定正确的行动方案?

另一个有趣的问题是价值对接问题。机器人的动作真的是你想要的吗?机器人帮你打扫房子,但你可能已经扔掉了你最喜欢的旧雨靴。它履行了它的义务,但结果不是你想要的。

这种设置上的矛盾似乎并不常见,机器人对指令的理解也更有可能发生变化。这使得为人类方便而设计的机器人最终时刻都在危害人类。像这样的问题还有很多。单纯依靠内涵广泛、矛盾重重、难以嵌入人工智能的伦理规则,似乎不是一个完美的解决方案。

3应对第二种:法人计划

人类拥抱科学和理性的过程不是一个单步的过程。法律习惯于对社会技术的发展作出相对滞后的反应。然而,在人工智能领域,我们需要做出前瞻性的立法布局,这是全世界共同面对的法律。问题。

虽然各国人工智能立法具有分散化的特点,但在人工智能法律责任和潜在风险方面都进行了积极的立法尝试。

例如,2017年,德国通过了《自动驾驶汽车法》,该法确立了自动驾驶汽车的“黑匣子”和“驾驶员必须始终坐在方向盘后面”等规则;欧盟于2016年发布《欧盟机器人民事法律规则》。

针对公众普遍关注的隐私泄露问题,欧盟颁布了最严格的数据保护《欧盟一般数据保护条例》(GDPR);美国、日本、韩国等也修订了现有的个人信息保护立法。中国在2016年也通过了《网络安全法》,要求网络运营商严格保密收集的用户信息,建立健全用户信息保护体系。

关于算法歧视问题,欧洲数据保护委员会发布了《应对大数据挑战:呼吁通过设计和可归责性实现透明性、用户控制及数据保护》,该委员会警告不要对穷人和弱势群体进行大数据歧视。为了避免刑事司法程序中的歧视,例如“黑人更容易犯罪而不是白人”,美国国会正积极推动《量刑改革法案》并引入“刑事风险评分”。中国刚刚颁布的电子商务法也有“电子商务经营者根据自己的爱好,消费习惯和其他特点来销售商品或服务。他们还应该为消费者提供不特定于他们个人特征,尊重和平等的选择。保护消费者合法权益的规定。

所有这些立法努力为人工智能技术发展的法律环境铺平了道路。

另一个有趣的问题是人类在《西部世界》中任意杀死机器人,这似乎提醒我们思考,机器人的权利是否需要得到保护?即使在目前的机器人状态下,也有必要给予他们最低的道德权利,例如人类不能利用其主导地位来任意滥用机器人。我们应该如何定位机器人?有没有学者的建议,机器人应该征税以补贴机器人造成的劳动力损失?可行?随着人工智能技术的发展,这些都是我们所面临的新问题。

西方世界天堂是法律和纪律之外的试验场。在这个测试领域,人类可以在没有被指控和惩罚的情况下进行他们最大的放纵。也许对某些人来说,这对人工智能非常有用。有人甚至预测,经过10年或20年后,我们将看到一个疯狂的天堂,就像西方世界出现在现实社会中一样,没有人感到不舒服,但机器人的复仇将随之而来。预防此类事件可能是参与人工智能领域的法律和法律人员的重要性。

(作者是中国社会科学院法学研究所博士后研究员,西南政法大学人工智能法研究所副教授)

-END -

推荐阅读

精彩的过去

法治周末

与你一起制定法治

法治周末报纸制作ID:fzzmb01

收集报告投诉

最初发表于484《法治周末》12版

原标题:《西部世界》中谈论爱情,理性和法律

关于作者:

冯子轩

冯子轩,中国社会科学院法学研究所博士后研究员,西南政法大学人工智能法学院副教授,最高人民法院应用法研究基地副主任西南政法大学。

总结

有些人预测,我们很快就会看到一个疯狂的天堂,就像西方世界出现在我们现实社会中一样,机器人的复仇将随之而来。预防此类事件可能是参与人工智能领域的法律和法律人员的重要性。

科幻小说系列《西部世界》海报。图/网络

《西部世界》改编自迈克尔卡尔顿的同名小说,故事发生在未来世界的成人世界中,以美国西方世界为主题,讲述机器人的自主意识和思维的觉醒。人类的娱乐,然后抵制人类也引发了一个失控的科幻故事。

《西部世界》这部同名电影于1973年发行,引发了热烈反响。 2016年,这部小说被制作成科幻小说系列。虽然它没有摆脱好莱坞大片“机器人意识形态和人类觉醒”的旧惯例,但它与当前机器人工程,人工智能技术和有争议背景的突破密切相关,这引发了观看热潮并迅速成为一个世界性的,非凡的戏剧。

1风险来临:人工智能的多重面孔

1956年,美国计算机科学家约翰麦卡锡及其同事首次提出了人工智能(AI)的概念,指出“让机器实现这种行为,即做与人类相同的行为,可称为人工智能”。在接下来的60年里,人工智能经历了三次起伏,经常伴随着上升和下降。

2016年,在阿尔法狗击败李世石和柯杰之前,人工智能的大多数公开印象可能只留在科幻电影中,如《西部世界》。然而,近年来,随着网络,云计算,大数据和深度学习技术的突破,人工智能得到了迅速发展。

今天的人工智能技术以机器学习为核心,在视觉,语音,自然语言等领域迅速发展,并开始进入特定的应用场景,包括自动驾驶,虚拟助手,研究和教育,金融服务,医疗和诊断。设计和艺术创作,法律,社会友谊,服务业和工业,显示出广阔的发展前景。《西部世界》所示的成人主题公园也是其应用场景的一种表现形式。

然而,目前人工智能技术的发展仍处于人工智能弱的时代,即在专业领域只有狭隘的人工智能感,这与《西部世界》所展示的强大的人工智能相差甚远(强大的人工智能,也称为一般人工智能,处理多种类型的任务并适应不可预见的情况和能力)。目前,科学界尚未确定何时实现强大的人工智能。大多数技术专家和业内人士认为,强大的人工智能要到2045年才能实现。

人工智能的威胁,尤其是马斯克发表的“人工智能威胁论”,他认为人工智能可能成为人类文明的最大威胁,呼吁政府迅速采取措施监督人工智能技术。相比之下,扎克伯格,李开复等业内人士表示,人工智能威胁着人类的生存。

这些争论代表了当前公众和专业人士之间的巨大差距,技术研究人员和社会科学研究人员之间的人工智能基础知识。目前,计算机或机器人正在逐渐成为一种具有一定自治权的活跃体。只能由人类完成的工作已经开始被计算机接管并由机器完成,例如驾驶,翻译和文学创作。

决策转移到机器包含人工智能,决策选择优于人类经济动机。事实上,近年来蓬勃发展的机器人产业对人类社会产生了深远的影响。例如,在依赖于人工智能,视觉计算,雷达,监视设备和全球定位系统的自动驾驶场景中,计算机可以在没有任何人工操作的情况下自动且安全地操作机动车辆。

另一方面,所有这一切都是基于这样一个事实,即机器人将倾听人类的命令,并乐意为人类服务。如果人工智能变得足够智能,如《西部世界》,它不愿意听人命,甚至不能抓住人类的统治权,那么人类智能的发展是不是自焚?

阿尔法狗击败李世石和柯杰,使这种担忧迅速蔓延。或许我们也可以开玩笑地说,关闭机器人的力量,人类仍然可以立于不败之地,但目前的机器人也在保证向独立的能源供应方向发展。

正如Postlom的纸夹思想实验:如果为工厂生产管理建立人工智能,其最终目标是最大化纸夹的生产,那么人工智能很可能会不满足于持续获取材料和能力,开始在第一次转向地球然后将整个可观察宇宙的大部分变成纸夹的路径上。

尽管许多当前的技术研究人员认为人工智能超越人类是一种担忧,但值得注意的是,科学家们往往并不完全了解科学技术的未来发展及其科学技术发明的具体应用。通常,例如核武器,它在发明之后的使用以及如何使用它并不是由发明它的科学家决定的。

同样,人工智能发展只会停留在弱人工智能时代的观点似乎同样站不住脚。 Tim Urban提出了科学和技术的发展在时间方面正在加速的想法。两百年前,人们无法想象今天的社会发展程度。正如今天的人们无法想象两百年后的技术发展程度,时间跨度越大,技术的产生就越明显。因此,没有人知道奇点是否会来。

如果未充分认识到人工智能的未来风险,风险评估和成本效益分析等监管方法可能无法充分发挥作用,人工智能技术开发的风险监管应成为社会治理的重要环节。此外,即使在人工智能较弱的时代,机器人也有可能在决策和行动自治中脱离被动工具;在自由放任自由的情况下,他们的判断和行为可能不完全符合人类价值观,道德价值观,法律规范和道德规范。规格等

《西部世界》中的恐怖场景离我们很远,但随着人工智能技术的发展,人们逐渐认识到隐私泄露,算法偏差,算法黑盒以及伴随人工智能技术发展的插补困难的风险。

2其中一个回答:机器人也有道德规范

《西部世界》有段落对话:“一旦我们走出现实世界,你就会成为一个邪恶的混蛋。”这在一定程度上隐喻了人性的弱点。今天人类的辉煌成就取决于集体创造的道德。法律社会的束缚。随着机器智能的兴起,人类社会对人工智能的道德和伦理限制已被提上日程。

早在1942年,阿西莫夫就在他的小说《环舞》中提出了着名的“机器人三法则”,并提出了机器人的伦理思想:第一定律,机器人不能伤害人类,不能袖手旁观,看着人类受到伤害;第二,法律,机器人应遵守人的命令,除非指令与第一定律相抵触;第三定律,机器人应该在不违反第一和第二定律的情况下保护其存在。从那以后,阿西莫夫修改了三条法律,提出了第0条法,即机器人必须保护人类的整体利益不受损害。

2016年8月,联合国世界科学知识与技术伦理委员会发布了《关于机器人伦理的初步草案报告》,认为机器人不仅需要尊重人类社会的道德规范,还需要将特定的道德规范写入机器程序。欧盟还提出了所谓的“机器人宪章”,即人工智能研究必须遵守人道主义,公正,基本权利,包容性,问责制和安全等道德原则。将“道德准则”嵌入人工智能计划的呼吁越来越强烈。

但是,应该指出的是,即使没有技术困难,也很难从人的角度来达到道德准则的统一标准。社会建构意义上的道德法则没有四海的意义。

例如,“机器人宪章”中提到的“正义”和“人类利益”这些词语无法提取最明确的含义。不同社会和不同时代的正义和利益的不同概念是不同的。即使在同一时代的同一个社会,一个行动也不能被归类为“正义”或“人类利益”。而且,电车问题等道德困境的存在也不容忽视。在这个时候,功利主义和绝对主义行为准则都不能称为“正义”,也不能称为“正义”。在这种情况下,即使人类无法做出正确的行动,如何思考它能否让机器人设定正确的行动方案?

另一个有趣的问题是价值对接问题。机器人的动作真的是你想要的吗?机器人可以帮助你清洁房子,但你可能已经扔掉了你最喜欢的旧雨靴。它履行了它的义务,但结果并不是你想要的。

这种设置矛盾似乎并不常见,机器人对指令的理解更有可能发生变化。这使得为人类设计而设计的机器人最终会危及人类。还有很多这样的问题。似乎单纯依靠广义内涵,冲突和难以嵌入人工智能的道德规则并不是一个完美的解决方案。

3应对第二个:法人的计划

人类拥抱科学和理性的过程不是一步到位的过程。法律习惯于相对落后于社会技术的发展。然而,在人工智能领域,我们需要制定前瞻性的立法布局,这是全世界需要共同面对的法律。问题。

尽管各国都具有人工智能立法的分散特征,但它们已经在人工智能法律责任和潜在风险方面进行了积极的立法尝试。

例如,德国于2017年通过了自动驾驶法案,并制定了诸如“黑匣子”和“驾驶员必须始终坐在方向盘后”等规则,等欧盟于2016年发布了《欧盟机器人民事法律规则》。

为了回应公众对隐私披露的关注,欧盟已经颁布了所谓的最严格的数据保护《欧盟一般数据保护条例》(GDP R);美国,日本,韩国等国家也对现有的个人信息保护立法进行了修订。 2016年,我国还采用《网络安全法》,要求网络运营商严格保密收集的用户信息,并建立和完善用户信息保护系统。

在算法歧视问题上,欧洲数据保护委员会发布了《应对大数据挑战:呼吁通过设计和可归责性实现透明性、用户控制及数据保护》,并提高了对反对穷人和弱势群体的大数据歧视的警惕性。为了避免在刑事司法程序中“黑人更容易犯罪而不是白人”等算法歧视,国会正积极推动在《量刑改革法案》中引入“犯罪风险评分”。中国新颁布的电子商务法还规定,“电子商务经营者应根据自己的兴趣,习惯和其他特点向消费者推销商品或服务,同时为消费者提供不具备个人特色的选择,尊重和平等保护消费者的合法权益“。

所有这些立法努力为人工智能技术发展所依赖的法律环境铺平了道路。

另一个有趣的问题是人类在《西部世界》中任意杀死机器人,这似乎提醒我们思考,机器人的权利是否需要得到保护?即使在目前的机器人状态下,也有必要给予他们最低的道德权利,例如人类不能利用其主导地位来任意滥用机器人。我们应该如何定位机器人?有没有学者的建议,机器人应该征税以补贴机器人造成的劳动力损失?可行?随着人工智能技术的发展,这些都是我们所面临的新问题。

西方世界天堂是法律和纪律之外的试验场。在这个测试领域,人类可以在没有被指控和惩罚的情况下进行他们最大的放纵。也许对某些人来说,这对人工智能非常有用。有人甚至预测,经过10年或20年后,我们将看到一个疯狂的天堂,就像西方世界出现在现实社会中一样,没有人感到不舒服,但机器人的复仇将随之而来。预防此类事件可能是参与人工智能领域的法律和法律人员的重要性。

(作者是中国社会科学院法学研究所博士后研究员,西南政法大学人工智能法研究所副教授)

-END -

推荐阅读

精彩的过去

法治周末

与你一起制定法治

法治周末报纸制作ID:fzzmb01

——