论机器人权利
2016/3/11 哲学园

     论机器人权利杜严勇

     作者简介:杜严勇,上海交通大学科学史与科学文化研究院

     人大复印:《科学技术哲学》2016 年 01 期原发期刊:《哲学动态》2015 年第 20158 期 第 83-89 页关键词:机器人/ 权利/ 限度/摘要:在机器人技术飞速发展的时代背景中,机器人与人类的关系日益密切,由此也引发了一系列伦理问题。机器人权利是机器人伦理研究的重要问题之一,近年来引起了许多学者和社会大众的关注。从倡导动物权利的思想以及培养人类良好道德修养等角度来看,赋予机器人某些权利是合理的。机器人应该拥有得到尊重对待的道德权利,但拥有哪些法律权利尚需要进一步深入研究。在赋予机器人某些权利的同时,我们更应该对机器人的权利进行限制。在机器人技术日新月异的时代背景中,机器人引发的种种伦理问题也紧迫地摆在我们面前。近十多年来,机器人伦理研究得到越来越多的西方学者的关注,而其中“机器人权利”是争议较大的问题之一。本文将重点关注,机器人是否应该拥有权利?它们(或者“他们”)可以拥有哪些权利?

     一机器人权利:真实,还是虚幻?

     机器人是机器还是人?机器人与人的本质区别是什么?这些问题从不同的角度与立场来看,自然会得出不同的结论。法国哲学家拉·梅特里(La Mettrie)明确地说:“人的身体是一架钟表,不过这是一架巨大的、极其精细、极其巧妙的钟表……”①根据这种观点,把机器人看作人完全是合理的推论,既然如此,机器人要求权利也是合情合理的。当然,这种机械论的观点远不足以令人信服。虽然至今仍有许多学者认为机器人是“机器”而不是“人”,但随着人工智能、计算机与机器人学等科学技术的快速发展,机器人拥有越来越强大的智能,机器人与人类的差别正在逐渐缩小,却是不争的事实。比如,有的科学家正在研究拥有生物大脑(biological brain)的机器人。②拥有生物大脑的机器人将会有着越来越多的,甚至可以与人脑媲美的神经元数量,也可以拥有学习能力与机器人意识。③毋庸讳言,拥有生物大脑的机器人更加像人。而且,对于机器人技术的快速发展趋势,大多数人持肯定态度。美国未来学家雷·库兹韦尔(Ray Kurzweil)甚至预言,拥有自我意识的非生物体(机器人)将于2029年出现,并于21世纪30年代成为常态,它们将具备各种微妙的、与人类似的情感。④他还预言,2045年是极具深刻性和分裂性的转变时间,“非生物智能在这一年将会10亿倍于今天所有人类的智慧”⑤。

     事实上,在机器人技术飞速发展的同时,各种各样的机器人已经走进了人们的生活。机器人可以满足人类的许多需要,除了打扫卫生、照顾老人和孩子之外,机器人甚至还可以在一定程度上满足人类的情感需要。比如,美国麻省理工学院的机器人专家布雷西亚(Cynthia Breazeal)等人从事于开发“社交机器人”(sociable robot),这种机器人可以与人交流,以个人的方式与人相处,与它互动就像跟人类互动一样。⑥包括日本、美国在内的一些发达国家开发出来的机器人玩具很受小朋友的喜欢,甚至与它们产生了与人一样的情感;针对成人开发的情侣机器人也开始出现在市场上。毫无疑问,未来人类与机器人之间的关系将会越来越密切。

     关于人与机器人的关系问题属于机器人伦理的研究范畴,其中关于机器人权利的论述似乎比许多其他机器人伦理问题更早地引起学者们的关注。有趣的是,在较早的一些文献当中,学者们大多对机器人的权利问题持偏向于肯定的态度。早在1964年,当时在麻省理工学院任教的美国哲学家普特南(Hilary Putnam)就认为,机器人与人可以遵循同样的心理学法则;把机器人看作机器还是人造生命,主要取决于人们的决定而不是科学发现;等到机器人技术足够成熟,机器人会提出对权利的要求。⑦1985年,一位美国律师认为,机器人将来会拥有法律权利,由此也会引发很多相关的法律问题。⑧1988年,美国未来学家麦克纳利(Phil McNally)和亚图拉(Sohail Inayatullah)撰文认为,机器人在未来的20年~50年内极可能会拥有权利,甚至法学家可能会坚持应当在法律上把机器人看作人。⑨2000年,麻省理工学院人工智能实验室主任布鲁克斯(Rodney Brooks)撰文认为,随着机器人技术的发展,机器人最终会享受到一些人类的权利。⑩不过,这些讨论主要局限于学术研究的领域,还没有引起社会的普遍关注。但是,近年来,在机器人技术快速发展以及与人类关系日益密切的时代背景中,关于机器人权利问题的讨论受到越来越多的关注,学者和公众纷纷参与其中。比如,2006年,英国政府发表一份报告预言未来的一场重大转变,称机器人将来会自我复制、自我提高,甚至会要求权利。受这份报告影响,2008年1月,英国皇家医学会(Royal Society of Medicine)专门召开研讨会,讨论“机器人与权利”的问题。(11)又如,2011年,《工程与技术杂志》(Engineering and Technology Magazine)就机器人是否应该拥有权利展开讨论,控制论专家沃里克(Kevin Warwick)教授认为,拥有人脑细胞的智能机器人应该被赋予权利,而BBC的主持人米切尔(Gareth Mitchell)持反对意见。该杂志网站还就“拥有人脑细胞的机器人是否应该被赋予权利”进行调查,结果显示有17%的人持肯定态度,83%的人反对。(12)我们还可以通过搜索引擎在西方大众媒体上找到大量关于机器人是否应该拥有权利的讨论,而且这些讨论大都是近几年才出现的。

     确实,给机器人赋予某些权利,乍听起来感觉有点令人难以接受。但是,人类历史上经常有某些种族或人群被排除在某些权利之外,在相关群体争取到他们的某些权利之前,人们同样觉得给他们相应的权利是不应该的。正如美国南加州大学法学教授斯通(Christopher Stone)所指出的那样,在每一场试图把权利赋予某些新的“实体”(entity)的运动中,相关的提议不可避免地让人感觉是奇怪的,或者是可怕的,抑或是可笑的。部分原因在于,在无权利的事物获得其权利之前,我们仅仅把它们视为供“我们”使用的东西,而那时只有“我们”才拥有权利。(13)机器人权利问题以往主要存在于科幻小说当中,现在已逐渐进入到学术研究与大众讨论的话题当中,若干年之后我们极可能会发现它就在我们的日常生活之中。

     二机器人权利研究如何可能

     在笔者看来,至少有以下四方面的原因可以构成机器人权利研究的可能性与合理性。

     第一,来自动物权利研究的启示。关于动物权利的研究已有相当多的论著问世,其中美国北卡罗来纳州大学哲学教授汤姆·雷根(Tom Regan)的著作影响颇大,他也是动物权利哲学的积极倡导者。雷根认为,动物(主要是哺乳动物)与我们拥有一样的行为、一样的身体、一样的系统和一样的起源,它们应该和我们一样,都是生命主体(subject-of-a-life)。所有的生命主体在道德上都是一样的,都是平等的。(14)在《动物权利研究》一书中,雷根更为全面地论证了动物权利的方方面面,认为动物具有意识,具有固有价值,我们对动物负有直接义务,动物与人一样拥有根本的道德权利,等等。(15)动物权利的另一位著名倡导者辛格(Peter Singer)认为,动物可以感受痛苦与快乐,我们应该在平等原则的基础上承认动物的权利。他指出:“平等原则的实质是,我们对他者的关怀和利益考虑,不应当取决于他们是什么人,或者他们可能具有什么能力。”(16)“不论这个生命的天性如何,只要大致可以作比较,平等的原则要求把他的痛苦与任何其他生命的相似的痛苦平等地加以考虑。”(17)当然,平等的原则并不要求相同的对待或完全相同的权利,而是要求平等的考虑。如果动物拥有权利具有一定的合理性,那么根据同样的道理可以推出机器人也可以拥有某些权利。与动物相比,机器人最大的不同是,动物是天然的生命,而机器人是人类制造出来的。但是,根据目前机器人技术的现状与发展趋势,机器人在某些方面可以比人类更聪明,机器人将来也会比动物更像人类。既然如此,机器人拥有某些权利也就具有一定的合理性。

     第二,包括科技伦理在内的人文社会科学研究应该具有一定的超越性与前瞻性,而不只是针对科学技术与社会的现状进行反思。就技术伦理研究来说,如果总是基于技术及其效应的充分显现,以技术“事实”为基础而生成的技术伦理,总是滞后于技术及其效应,从而导致技术伦理对技术“匡正”的有效性大打折扣。(18)当文化落后于社会物质条件的发展速度,就会产生所谓的“文化滞后现象”。为了在一定程度上避免“文化滞后现象”导致的负面效应,我们需要对可能出现的机器人技术及其社会影响作出某些前瞻性的考察,这也是“机器人权利”研究的理论依据之一。事实上,科技伦理的目标之一就是对可能发生的科技活动及其效应给出建议或规范,这就内在地要求科技伦理研究必须具有一定的前瞻性与预测性。比如对克隆人的研究,我们不能等到克隆人在社会上大量出现之后才来研究克隆人的伦理问题,而是在克隆人可能产生之前,就进行针对克隆技术与克隆人的伦理问题研究。关于克隆人技术应用的社会风险、道德风险与克隆人的权利等问题的考察对于机器人技术的伦理研究也具有很大的参考价值。

     第三,培养人类良好道德修养的必然要求。康德认为,动物没有自我意识,我们对动物没有直接责任。但是,康德同时也指出,“如果他不想扼杀人的感情的话,他就必须学会对动物友善,因为对动物残忍的人在处理他的人际关系时也会对他人残忍。我们可以通过一个人对待动物的方式来判断他的心肠是好是坏”(19)。与康德类似,许多哲学家都批评对待动物的残忍方式,认为人类应该善待动物,这将有助于培养出人类良好的人性与道德品质。现有的研究成果表明:“一个人在年轻的时候残酷对待动物的方式常常与他成年以后对待人的暴力行为模式有联系。”(20)这些思想完全可以应用到机器人身上。人是感情动物,在与机器人密切相处之后很容易与其产生感情,这种场景在许多科幻小说与电影中经常可以见到。事实上,更细致的实验研究表明,随着机器人技术的发展成熟,机器人越来越像人,机器人会像动物一样影响人类;人类会倾向于把机器人看作真正的人,对机器人产生信任感,甚至建立起密切的感情联系。(21)但是,在人与机器人可能产生的越来越多的互动以及感情联系中,一些不道德的行为亦会出现,比如对机器人的滥用。研究表明,有的人正在以各种方式滥用计算机人机交互技术,包括口头谩骂和对硬件进行物理攻击(physical attack)。更糟糕的是,这种技术有时导致的不仅仅是使用者的不满或愤怒的行为,它可能会促成更大范围的消极行为,这些行为不仅仅针对机器,甚至可能会针对其他人。(22)如果机器人拥有拒绝甚至反抗对其滥用的权利,那么在一定程度上可以减少甚至避免人与机器人交互过程中可能出现的不道德现象。

     第四,机器人成为道德主体的可能性与特殊性。随着机器人越来越多地融入现代人的日常生活,特别是机器人的自主性、智能性程度不断提高,机器人的主体性问题逐渐突显出来。机器人伦理研究的实质就是为了更好地处理机器人与社会之间的关系,使人与机器人和谐相处。从机器人伦理的角度看,智能程度较高,或者拥有自我意识的机器人可以独立作出伦理判断,它们在一定程度上具备了成为道德主体的基本条件。为了使机器人更好地履行道德主体的角色,赋予它们某些权利是必然之需。但是,机器人作为人类的创造物,它们的行为显然需要受到人类道德规范的影响与制约。从这个角度看,机器人是人类道德规范的执行者和体现者,又属于道德客体的范畴。机器人伦理本质上是为了更好地保障人类的利益,赋予机器人某些权利也要服从于这个根本目的,所以机器人的权利必然是受限的。如果我们把社会生活中的人称之为“完全的道德主体”的话,那么机器人就是“有限的道德主体”,这是研究机器人伦理的基本出发点。因此,机器人权利研究需要处理好倡导权利与限制权利这一对基本矛盾。

     三机器人权利及其限度

     人权是一个重要的伦理、法律与政治概念,而机器人权利更多地属于伦理、科技与安全的范畴。如果机器人拥有权利具有一定的合理性,那么更关键的问题是,机器人可以拥有哪些权利?我们可以把权利分为道德权利与法律权利,以下分别就这两种权利展开初步探讨。

     1.道德权利

     与法律权利相比,道德权利不是由法律规定的,因而更多地依赖于道德主体的道德水平。就机器人来说,它们首先应该拥有得到尊重对待的权利。正如雷根指出的那样,在道德权利中,“尊重是基本的主题,因为彼此相待以尊重不过就是以尊重我们其他权利的方式对待彼此。我们最基本的权利,统一我们所有其他权利的权利,就是受到尊重对待的权利”(23)。由尊重权利至少可以得出以下几点推论:第一,不可以奴役机器人;第二,不可以虐待机器人;第三,不可以滥用机器人,比如让机器人去偷窃、破坏他人财产,等等。机器人应该得到尊重是消极的道德权利,也就是不被伤害或错误利用的权利。目前,机器人经常被用来执行三D(dull、dirty、dangerous)工作,比如工业机器人、军用机器人均是如此。对于尚无自我意识、不能感受痛苦与快乐的机器人来说,执行三D工作当然没有问题。而且,倡导机器人拥有权利,并不是反对我们去应用机器人为人类服务。但是,如果让能够感受痛苦与快乐的机器人去做类似的工作,则需要进一步深入研究。事实上,不同类型、不同智能水平的机器人,对于权利的要求当然是完全不一样的。或许会有人认为,个人拥有的机器人是自己花钱购买来的,属于个人财产,个人可以随意处置,他人没有干涉的权利。有的学者认为具有意识的机器人不能再被视为财产(24),即使个人购买的机器人属于个人财产,但拥有强大智能的机器人不同于其他财产,所有者也不能随意处置。与动物相类比,人们可以从市场上购买宠物,但宠物并不是人们可以随意处置的财产。虽然从尊重原则不能推出机器人享有与人一样公平待遇的权利,但至少不能像处理简单的手工工具一样,对机器人进行随意处置。

     由于社会文化的多样性与复杂性,建构一种理想的机器人权利概念可能并不现实。但是,这并不妨碍我们提出一种最低限度的机器人权利概念,正如米尔恩(A.J.M.Nilne)所言:“有某些权利,尊重它们,是普遍的最低限度的道德标准的要求”(25)。得到人类尊重的权利,就是机器人应该拥有的最低限度的权利。圣雄甘地说过,从一个国家对待动物的态度,可以判断这个国家及其道德是否伟大与崇高。(26)我们也完全可以说,在人类即将进入的机器人时代,从一个国家与个人对待机器人的态度,可以判断这个国家与个人及其道德是否伟大与崇高。尊重机器人,就是尊重人类自己。接下来的重要问题是,如何保护机器人受尊重的权利?如果机器人受到虐待,它们该如何应对呢?如果没有保护机制,讨论机器人受尊重的权利就是纯粹的空谈。人们一般会希望机器人在遇到人类的不尊重行为时,不要进行暴力反抗,而是通过更合理、更温和的方式进行应对。比如,机器人可以对人的不当使用进行提醒,并拒绝可能导致更严重后果的操作行为;还可以对人的不当使用进行记录,甚至记入个人信用档案,以供将来购买机器人产品时参考,就像个人使用信用卡的信用记录一样。如果机器人真的像微软公司创始人比尔·盖茨预言的那样走进千家万户的话(27),人类对机器人的依赖肯定会比现在对个人电脑的依赖更深,这样的处理方式显然还是有着相当大的威慑作用的。更多更合理的保护方式(甚至包括立法的方式)需要根据机器人的发展水平以及使用情况进一步深入探讨。

     2.法律权利

     如果说让机器人拥有道德权利还可以让人接受的话,让机器人拥有法律权利似乎就有点过分了。在机器人权利研究中,法律权利引起的争议可能最为激烈。以下提出机器人法律权利可能会涉及的几个问题,希望引起更多的讨论与研究。

     比如,机器人是否拥有自由权?在关于人权的讨论中,自由权无疑占有至关重要的地位。《世界人权宣言》第一条就明确指出:“人人生而自由,在尊严和权利上一律平等。”除了人类之外,有的学者认为动物也拥有自由的权利。(28)但是,机器人是人类制造出来为自身服务的,机器人拥有自由权是否与机器人的工具价值相冲突?即使我们认为机器人不仅仅具有工具价值,机器人本身有内在价值,但机器人的工具价值并不能被完全否定。也就是说,如果我们给予机器人自由权,这种自由权肯定与人类和动物的自由权不一样,而应该是一种受到较大限制的自由权。但是,至少在某些特殊情况下,机器人确实应该拥有一定的自主决定权。比如,在飞行器(我们可以把具有自动驾驶功能的飞行器看作机器人)的驾驶过程中,如果有恐怖分子劫持了飞行器,试图使其往自己预定的方向飞行而不是飞往原来的目的地。此时,飞行器应该自主作出决定,拒绝恐怖分子的飞行操作,以自动驾驶的方式向正确的目的地飞行。

     又如,机器人是否拥有生命权?如何界定机器人的生命?如果有人通过暴力手段夺去了机器人的生命,他是否应该受到法律的处罚?机器人是否可以成为法律意义上的原告?机器人在一定程度上与电脑类似,可以分为软件与硬件部分。在机器人需要升级换代之时,我们是否可以通过更新机器人的软件来改变(或延长)机器人的生命?在机器人达到使用年限之后,是否可以通过重新格式化等方式结束其生命,同时对其硬件进行回收利用?这些问题既涉及社会伦理,又与法律法规密切相关。

     拥有权利的对立面是剥夺权利。如果机器人拥有了某些权利,就应该对自己的行为负责。如果机器人犯了错,如何剥夺其权利?又在何种意义上剥夺?类似的问题是,如何处罚犯错的机器人?机器人的设计与生产商在这方面应该承担何种角色?等等。

     需要强调的是,机器人技术的发展进步可以使不同国家、不同民族的人群从中获益,但类似于机器人权利这样的伦理与法律问题,却需要不同国家的学者针对本国的特殊情况进行专门研究。比如,相对于外国护工与移民工人而言,日本人更愿意跟机器人相处。无论是机器人专家,还是普通民众,大多数日本人都不担心机器人与人为敌。在日本的影视节目中,机器人大多是可爱、正面的形象,与欧美等国家和地区形成了明显的反差。2010年11月7日,颇受欢迎的宠物机器人“帕罗”(Paro)获得了户籍(koseki),“帕罗”的发明人在户口簿上的身份是父亲。这是首个获得户籍的机器人,不过“帕罗”的外形并不像人,而是像海豹。(29)拥有户籍是拥有公民权利(civil rights)的前提,机器人在日本可能逐渐会被赋予一些法律权利。

     3.限制机器人的权利

     机器人伦理研究的基本目的之一就是希望机器人能够具有伦理判断与行为能力,使机器人的行为对人类更为有利,其中最基本的手段就是对机器人进行伦理设计。从机器人伦理设计的角度看,是否应该限制机器人对自身权利的要求?比如自由权,试想一下,拥有高度自由权的机器人如何为人类服务?如果机器人拥有高度自由选择的权利,它们选择与人类为敌岂不是让许多科幻电影中的情景变成了现实?如果机器人将来比人类更聪明,是否可以拥有选举权与被选举权?人类是否会由机器人来统治?这些显然是人类难以接受的。因此,在对机器人进行伦理设计的过程中,限制机器人要求更多的权利,与赋予机器人某些权利一样重要,甚至前者更为重要。

     从机器人权利的角度看,著名科幻作家阿西莫夫(Isaac Asimov)提出的机器人法则的立足点就是对机器人的权利进行限制。1942年他在短篇小说《转圈圈》中提出的机器人学三大原则是:第一,机器人不得伤害人类,或坐视人类受到伤害而袖手旁观。第二,除非违背第一法则,机器人必须服从人类的命令。第三,在不违背第一法则及第二法则的情况下,机器人必须保护自己。(30)在1985年出版的《机器人与帝国》一书中,阿西莫夫强调了“整体人类比单独一个人更重要”(31)的思想,将保护整体人类(humanity)作为机器人学的本初法则,而第一法则主要强调的是人类个体(a human being)。阿西莫夫的机器人法则具有明显的人类中心主义色彩。无独有偶,前文提及的动物权利的积极倡导者雷根亦如此。他提出了这样一个思想实验:设想救生艇上有五位幸存者,由于空间有限,小艇只能装下四人。假定所有的幸存者体重大致相同,也占据大致相同的空间。其中四位是人,第五位是狗,那么应该优先选择放弃狗,而不是人。(32)雷根甚至认为,假设这里不是要在一条狗和四个人之间作出选择,而是要在这些人类与任何数量的狗之间作出选择,救生艇情形也不会有任何道德差异。(33)在他看来,一百万只狗的损失也不会超过一个人类个体的损失。与此类似,强调人类的根本利益这一点应该是机器人权利研究的根本出发点。当然,从机器人的伦理设计来看,阿西莫夫的原则过于宽泛,需要对之进行完善与细化。总的来看,提倡与限制机器人的权利应该是机器人权利研究的一体两翼,而且应该体现在机器人的伦理设计当中。

     余论:智能机器人技术的发展限度

     许多学者认为,具有高度智能的机器人会向人类要求更多的权利,这也提醒我们,技术上的可能并不能成为道德上的应当。我们是否应该对智能机器人的发展作出某种制度上的限定,使其按照某种规范发展?对某种技术的应用范围进行限制,这并不是全新的话题,比如许多国家已经通过各种形式禁止克隆人。即使人们认为科学技术的研究不应该较多地受到伦理规范的限制,但至少应该对科技研究成果的应用范围保持高度的警惕。关于智能机器人的科学技术基础至少包括人工智能、计算机与机器人学,对这些相关领域的科技成果的应用并不是无限度的。如果说克隆人的出现关乎人类尊严的话,那么智能机器人的无限发展也将可能对人类的安全形成威胁。关于智能机器人的发展限度等问题,政府部门、科技界、哲学界与法学界等不同领域的人员显然需要精诚合作,共同努力解决相关问题。这已经不是只存在于科幻小说与思辨哲学等领域的话题,而是一个日益紧迫的现实问题。

     注释:①拉·梅特里:《人是机器》,顾寿观译,商务印书馆,1999,第65页。

     ②Kevin Warwick et al,“Controlling a Mobile Robot with a Biological Brain”,Defence Science Journal,60(1),2010,pp.5~14.

     ③Kevin Warwick,“Implications and Consequences of Robots with Biological Brains”,Ethics and Information Technology,12(3),2010,pp.223~234.

     ④库兹韦尔:《如何创造思维》,盛杨燕译,浙江人民出版社,2014,第195页。

     ⑤库兹韦尔:《奇点临近》,李庆诚、董振华、田源译,机械工业出版社,2011,第80页。

     ⑥Cynthia Breazeal,Designing Sociable Robots,The MIT Press,2002,p.1.

     ⑦Hilary Putnam,“Robots:Machines or Artificially Created Life?”,The Journal of Philosophy,61(21),1964,pp.668~691.

     ⑧Robert Freitas,“The Legal Rights of Robots”,Student Lawyer,13,1985,pp.54~56.

     ⑨Phil McNally & Sohail Inayatullah,“The Rights of Robots”,Futures,20(2),1988,pp.119~136.

     ⑩Rodney Brooks,“Will Robots Rise up and Demand Their Rights?”,Time Canada,155(25),2000,p.58.

     (11)Matt James & Kyle Scott,Robots & Rights:Will Artificial Intelligence Change the Meaning of Human Rights?,People Power for the Third Millennium:Technology,Democracy and Human Rights,Symposium Series,2008.

     (12)For and Against:Robot Rights,http://eandt.theiet.org/magazine/2011/06/debate.cfm

     (13)Christopher Stone,“Should Trees Have Standing?—Toward Legal Rights for Natural Objects”,Southern California Law Review,45(2),1972,pp.450~501.

     (14)(23)睿根:《打开牢笼——面对动物权利的挑战》,莽萍、马天杰译,中国政法大学出版社,2005,第79~93页;第65~66页。Regan在该书中被译为“睿根”,本文统一译为“雷根”。

     (15)(32)(33)雷根:《动物权利研究》,李曦译,北京大学出版社,2010,第277页;第241页;第273页。

     (16)(17)(26)参见辛格:《动物解放》,祖述宪译,青岛出版社,2006,第5~6页;第9页;封底。

     (18)尚东涛:《技术伦理的效应限度因试解》,《自然辩证法研究》2007年第5期。

     (19)(28)辛格、雷根:《动物权利与人类义务》,曾建平、代峰译,北京大学出版社,2010,第25~26页;第132~142页。

     (20)雷根、科亨:《动物权利论争》,杨通进、江娅译,中国政法大学出版社,2005,第82页。

     (21)Patrick Lin,Keith Abney & George Bekey,Robot Ethics,The MIT Press,2012,pp.205~221.

     (22)Antonella De Angeli et al.,Misuse and Abuse of Interactive Technologies,http://www.brahnam.info/papers/EN1955.pdf

     (24)David Calverley,“Android Science and Animal Rights,Does an Analogy Exist?”,Connection Science,18(4),2006,pp.403~417.

     (25)米尔恩:《人的权利与人的多样性——人权哲学》,夏勇、张志铭译,中国大百科全书出版社,1995,第7页。

     (27)Bill Gates,“A Robot in Every Home”,Scientific American,296(1),2007,pp.58~65.

     (29)Jennifer Robertson,“Human Rights vs Robot Rights:Forecasts from Japan”,Critical Asian Studies,46(4),2014,pp.571~598.

     (30)阿西莫夫:《机器人短篇全集》,汉声杂志译,天地出版社,2005,第273页。

     (31)阿西莫夫:《机器人与帝国》,汉声杂志译,天地出版社,2005,第455页。

    

    http://www.duyihua.cn
返回 哲学园 返回首页 返回百拇医药