机器人怎样跟人类共处?
看过《钢铁侠》、《终结者》、《我是机器人》等等电影,我们对机器人,有着期待与向往。我们知道,机器人的最新产品往往聚集了科学研究的最新成果,代表着人类科技的最高水平。这些机器人虽然在构造和特性上千差万别,却都有一个共同点———它们都是人类制造出来,是为了更好地为人类服务的。随着现代科技特别是计算机智能技术的迅猛发展,机器人经历着从初级到高级的飞跃。
然而,与现实世界相同,科技和社会发展到一定的阶段,机器人似乎成为不可以替代的存在。机器人是为了人类生存的便利而存在,它是一样被人类制造为人类所服务的工具。机器人代表着人类梦想中的科技的最高境界。
不足为奇的是,军事科技稳步走在研发自决能力机器人领域的最前沿,并且在这一发展历程中不断有五花八门的机器人诞生。例如,名为沙蚤的机器人遇窗可跳窗,遇屋可上梁,并且全程摄像。之后它又可靠轮子行进,直到需要再次跳窗上梁;犬形机器人,可以在崎岖地形中跟在人后面碎步急行;公文包大小的机器人,可以识别并跟踪人群中的指定目标;无人侦察机系列等等。除此之外,民用机器人也在不断普及,从驾驶舱到手术室到处都可以见到它们的身影。在机器人的帮助下,民航客机很早就实现了自主着陆。无人驾驶火车也变得随处可见。
但是,就如电影里面的机器人危机一样,科技发展到一定程度,机器人可能被人类赋予了感情独立的行动能力时,机器人和人类的矛盾就会踊跃出来。那么,我们该如何去看待机器人,机器人该怎样跟人类共处呢?
以上问题值得我们去深思,如何去跟机器人共处?
1、我们要确定好人类和机器人的关系。机器人和人类到底应该是怎样的关系呢?以目前的科技的水平,人类与机器人的关系尚是明朗的。机器人尚不具备智能和感情,现今的机器人是人类的工具,不可或缺的工具。然而,在未来的某一天,机器人能与人类和平共处?未来的某一天机器人与人类开战,人类真的能在那时的地球环境下战胜机器人?那人类与机器人的关系将变得如何?
2、人类要和机器人和平共处。人是一种情感的动物,用久了的东西都有感情,更何况是对着一个同样有感情需求的完美的人形机器人? 慢慢地有感情的智能机器人成为了人类社会不可或缺的一个组成部分,在人类社会中的社会地位与人类趋向一致。因为它们有感情有思想,也有作为万物之灵所有的特性。慢慢的,这种机器人随着科技的发展会替代了某一部分人在人类社会中的位置。倘若有感情的智能机器人越来越多,有感情的智能机器人该不该被视为一个新的物种,是新型的物种的雏形。 人类与机器人和乐融融地相处。但,机器人具有了人类所拥有了独立的情感和思维能力时,机器人还愿意任人类摆布,当人类的副产品吗? 正如黑人和美洲土著居民一样,能不为了自己的权益而反抗到底吗?这些问题现在可能不会产生,但随科技的发展,却有一天可能成为我们社会不可忽视的难题。
3、另外,有一个解决此类棘手问题的办法就是完全避免此类问题的发生,即禁止使用自主化战场机器人,规定驾驶员在车辆行驶过程中必须时刻保持全神贯注。为了反对日益增多的无人机应用,人们成立了许多诸如国际机器人武器控制委员一样的运动团体。然而即便如此,自主机器人的应用还是利大于弊。机器人战士不会实施性侵犯,不会一怒之下烧毁村庄,也不会迫于战斗压力做出冲动之举。如同自动驾驶仪使得飞机更加安全一样,无人驾驶汽车的安全性也很可能会超越普通汽车。无人驾驶领域的先锋Sebastian Thrun认为,无人驾驶汽车每年可以使一百万人不死于非命。
4、与抵制自主机器人的应用相反,我们需要想办法发展机器人学伦理学,并且动作要快。由于立法落于科技发展之后,所以美国有很多州匆忙通过各种涉及无人驾驶汽车的法律法规,以
规范“行驶在”法律上的灰色地带无人驾驶汽车。很明显,应对这一棘手的问题,我们需要对整套公路法规作出修改,而不是为一群带轮子的机器人单独推出法规。
为了更好的使人类跟机器人共处,更是制定了机器人定律的三条原则:
首先,如果自主化的无人机在行动中出了岔子,或者无人驾驶汽车出了车祸,必须有这么一些法律可以帮助人们确定责任归咎于谁,是机器的设计者、程序员、制造商还是操作人员。为了明确责任归属,必须使自主化系统保留详尽的日志,由此人们便可以在必要的时候弄清楚系统各种决定背后的依据。这其中包含了对系统设计的要求:例如,(无人机或无人驾驶汽车)不能使用人工神经网络,这种决策系统从实例中学习,而不是遵循预先设定的规则。*
其次,在机器人中植入了伦理体系的情况下,它们所做出的判断需要符合大多数人类的判断标准。实验哲学应该对此有帮助,该哲学研究人们如何应对伦理上的两难困境。
最后,也是最重要的一点是,工程师、伦理学家、律师和政策制订者需要进一步通力合作,否则他们可能会做出类型各不相同的规则。伦理学家与工程师的合作是双赢的:伦理学家在试图“教授”机器伦理的过程中可能会加深自己对伦理学的认知。而工程师则可以向大众保证其设计出来的机器人没有道德伦理缺陷。
科技推进了人类社会的发展,然而科技与伦理产生矛盾是必然的,其每一次进步都伴随着新问题的出现,智能机器人也不例外。越早解决掉它们所带来的道德选择难题,人类就越容易享受其肯定会带来的好处。
机器人怎样跟人类共处?
看过《钢铁侠》、《终结者》、《我是机器人》等等电影,我们对机器人,有着期待与向往。我们知道,机器人的最新产品往往聚集了科学研究的最新成果,代表着人类科技的最高水平。这些机器人虽然在构造和特性上千差万别,却都有一个共同点———它们都是人类制造出来,是为了更好地为人类服务的。随着现代科技特别是计算机智能技术的迅猛发展,机器人经历着从初级到高级的飞跃。
然而,与现实世界相同,科技和社会发展到一定的阶段,机器人似乎成为不可以替代的存在。机器人是为了人类生存的便利而存在,它是一样被人类制造为人类所服务的工具。机器人代表着人类梦想中的科技的最高境界。
不足为奇的是,军事科技稳步走在研发自决能力机器人领域的最前沿,并且在这一发展历程中不断有五花八门的机器人诞生。例如,名为沙蚤的机器人遇窗可跳窗,遇屋可上梁,并且全程摄像。之后它又可靠轮子行进,直到需要再次跳窗上梁;犬形机器人,可以在崎岖地形中跟在人后面碎步急行;公文包大小的机器人,可以识别并跟踪人群中的指定目标;无人侦察机系列等等。除此之外,民用机器人也在不断普及,从驾驶舱到手术室到处都可以见到它们的身影。在机器人的帮助下,民航客机很早就实现了自主着陆。无人驾驶火车也变得随处可见。
但是,就如电影里面的机器人危机一样,科技发展到一定程度,机器人可能被人类赋予了感情独立的行动能力时,机器人和人类的矛盾就会踊跃出来。那么,我们该如何去看待机器人,机器人该怎样跟人类共处呢?
以上问题值得我们去深思,如何去跟机器人共处?
1、我们要确定好人类和机器人的关系。机器人和人类到底应该是怎样的关系呢?以目前的科技的水平,人类与机器人的关系尚是明朗的。机器人尚不具备智能和感情,现今的机器人是人类的工具,不可或缺的工具。然而,在未来的某一天,机器人能与人类和平共处?未来的某一天机器人与人类开战,人类真的能在那时的地球环境下战胜机器人?那人类与机器人的关系将变得如何?
2、人类要和机器人和平共处。人是一种情感的动物,用久了的东西都有感情,更何况是对着一个同样有感情需求的完美的人形机器人? 慢慢地有感情的智能机器人成为了人类社会不可或缺的一个组成部分,在人类社会中的社会地位与人类趋向一致。因为它们有感情有思想,也有作为万物之灵所有的特性。慢慢的,这种机器人随着科技的发展会替代了某一部分人在人类社会中的位置。倘若有感情的智能机器人越来越多,有感情的智能机器人该不该被视为一个新的物种,是新型的物种的雏形。 人类与机器人和乐融融地相处。但,机器人具有了人类所拥有了独立的情感和思维能力时,机器人还愿意任人类摆布,当人类的副产品吗? 正如黑人和美洲土著居民一样,能不为了自己的权益而反抗到底吗?这些问题现在可能不会产生,但随科技的发展,却有一天可能成为我们社会不可忽视的难题。
3、另外,有一个解决此类棘手问题的办法就是完全避免此类问题的发生,即禁止使用自主化战场机器人,规定驾驶员在车辆行驶过程中必须时刻保持全神贯注。为了反对日益增多的无人机应用,人们成立了许多诸如国际机器人武器控制委员一样的运动团体。然而即便如此,自主机器人的应用还是利大于弊。机器人战士不会实施性侵犯,不会一怒之下烧毁村庄,也不会迫于战斗压力做出冲动之举。如同自动驾驶仪使得飞机更加安全一样,无人驾驶汽车的安全性也很可能会超越普通汽车。无人驾驶领域的先锋Sebastian Thrun认为,无人驾驶汽车每年可以使一百万人不死于非命。
4、与抵制自主机器人的应用相反,我们需要想办法发展机器人学伦理学,并且动作要快。由于立法落于科技发展之后,所以美国有很多州匆忙通过各种涉及无人驾驶汽车的法律法规,以
规范“行驶在”法律上的灰色地带无人驾驶汽车。很明显,应对这一棘手的问题,我们需要对整套公路法规作出修改,而不是为一群带轮子的机器人单独推出法规。
为了更好的使人类跟机器人共处,更是制定了机器人定律的三条原则:
首先,如果自主化的无人机在行动中出了岔子,或者无人驾驶汽车出了车祸,必须有这么一些法律可以帮助人们确定责任归咎于谁,是机器的设计者、程序员、制造商还是操作人员。为了明确责任归属,必须使自主化系统保留详尽的日志,由此人们便可以在必要的时候弄清楚系统各种决定背后的依据。这其中包含了对系统设计的要求:例如,(无人机或无人驾驶汽车)不能使用人工神经网络,这种决策系统从实例中学习,而不是遵循预先设定的规则。*
其次,在机器人中植入了伦理体系的情况下,它们所做出的判断需要符合大多数人类的判断标准。实验哲学应该对此有帮助,该哲学研究人们如何应对伦理上的两难困境。
最后,也是最重要的一点是,工程师、伦理学家、律师和政策制订者需要进一步通力合作,否则他们可能会做出类型各不相同的规则。伦理学家与工程师的合作是双赢的:伦理学家在试图“教授”机器伦理的过程中可能会加深自己对伦理学的认知。而工程师则可以向大众保证其设计出来的机器人没有道德伦理缺陷。
科技推进了人类社会的发展,然而科技与伦理产生矛盾是必然的,其每一次进步都伴随着新问题的出现,智能机器人也不例外。越早解决掉它们所带来的道德选择难题,人类就越容易享受其肯定会带来的好处。