遵循艾阿西莫夫机器人三定律的智能机器人能否实现?

遵循艾阿西莫夫机器人三定律的智能机器人能否实现?

梁丽珍

1997 年5月,IBM 的计算机程序 “深蓝”,以 2.5:3.5 (1胜2负3平)在正常时限的比赛中击败了等级分排名世界第一的棋手——加里·卡斯帕罗夫。2016年3月,谷歌(Google)旗下DeepMind公司开发的围棋人工智能程序——阿尔法狗,成功打败围棋世界冠军、职业九段选手李世石,以4:1的总比分获胜。不少职业围棋手认为,阿尔法围棋的棋力已经达到甚至超过围棋职业九段水平,在世界职业围棋排名中,其等级分曾经超过排名人类第一的棋手柯洁。人类开始感受到了智能机器人的威胁,并且更加认真地思考智能机器人是否将会伤害人类,取代人类。

很多人以为智能机器人离自己相当遥远,其实它早就渗透在我们的生活当中,无人驾驶车、驾驶飞机平安降落的自主系统、扫地机器人、苹果的Siri,这些已经是智能机器人的雏形。它们具有一定的自我判断能力的,能应对变化的实际情况。当然,它们离实现与人类的完全无障碍沟通还有很长的距离。所以,现在讨论机器人的伦理问题已经不再是无稽之谈了。

实际上,艾萨克·阿西莫夫,美国著名的科幻小说作家,1942年在《我,机器人》的第四个机器人短篇《转圈圈》中,已经提出了 “机器人学三定律”,他认为,所有的机器人程序都必须考虑到这三条定律,目的是为了约束这些自主机器的行为,让它们服从以保护人类为目的的强制性道德准则。这三大定律是:

第一定律:机器人不得伤害人类,或坐视人类受到伤害;

第二定律:除非违背第一法则,否则机器人必须服从人类的命令; 第三定律:在不违背第一及第二法则下,机器人必须保护自己。

此后,阿西莫夫又添加了一条定律:

第零定律:机器人不得伤害人类族群,或因不作为使人类族群受到伤害。 但是,现在的机器人拥有的功能和人们当初设想的不太一样。科技并没有让我们凭空创造出和自己一样的东西,我们并不能像对待奴隶或佣人那样命令并指使它们。现代社会中广泛使用的机器人的工作非常专业化,它们不具备与人类用通俗语言交流的能力。我们无法要求它们遵守阿西莫夫的机器人定律,是因为它们完全不能理解这些定律的意义。如果想要应用机器人定律,智能系统必须具备

逻辑分析和推理能力,并且能够预测行为所导致的后果,以判断人类下达的指令是否和任何一条定律相悖。

也就是说,我们必须把人类思考行动的每一步,用逻辑算法清晰地描述出来,并且这套算法不可以存在任何矛盾,把这样逻辑算法输入到机器人系统当中,这样机器人才能按照这套算法进行相应的人类活动。但是人类的活动千变万化,而且我们有所谓的直觉、第六感,这种判断其实是有一定的逻辑依据,但目前我们都很难用算法却一一描述出来。

举一个人类思考简单的例子,选择一家餐厅吃饭,我们会考虑距离、食物味道、环境、停车位、候餐时间等因素。如果我们将其变成一套可以让机器人执行的算法,但机器人是不能理解什么才是合适距离,什么才是满意的环境,什么才是好吃的食物,也就是说我们必须要用定量的语言表述。例如距离在3公里范围内,大众点评食物味道和环境因素大于或等于4星,停车位不少于50个,平均候餐时间不长于15分钟。这样,机器人才能够做出类似于人类的判断。但是算法之间确极有可能存在矛盾。

例如在经典的哲学问题上——“你是一辆快速行走的列车上的列车长,列车的刹车已经坏了无法使用,你发现前方轨道上有5个修路工人,向左拐的轨道中有1个修路工人,此时你可以选择向左拐或者是继续向前行驶。这时候你应该怎么办?”,我们的无人驾驶汽车(无人驾驶汽车已经具有初步的智能系统)遇到这种情景应该如何处理?这种情况下无论如何都要违背阿西莫夫的机器人三大定律。这种情况下,我们无法用清晰的逻辑算法描述应该如何处理,因为作为人类本身,我们都无法说明哪一种情况才是真正正确的选择。

但是,我们回头想一下,把所有逻辑关系都清晰列举出来让机器人执行的这种模式是否正确。回头看一下,我们对小孩的教育,难道我们是把所有的规矩都列出来,然后再每一个小孩子去执行的吗?显然不是。人类一生里面的学习,有理论知识的学习,也就是说确实有各种成形的方法和理论,告诉我们一步一步应该怎么做,但是这是不多的,完全不变通的理论应用是少之又少的。其实人类的学习过程中,更多是感知活动。例如,小孩子学说话的过程,其实就是不断地从视觉口型和听觉声音上,去不断地感受,其大脑通过无数次情景数据的收集,最后归纳出不同的情景应该说什么话,并在之后的应用中不断地修正。其实,这个

过程,就是现在我们所说的大数据应用的过程。

所谓大数据,就是数量得足够大,把数据的偏差能基本消除,得到一个相对规律的趋势。回到之前的例子当中,在选择一家餐厅吃饭时,如果收集了大量人们的用餐数据(尤其是与我本人相类似的人的用餐数据),那么这个机器人就可以给我推送一些较为符合我要求的餐厅。也就是说,这个机器人不再需要完整地了解我为什么这么选择,不知道了解我整个思考的逻辑过程,也不需要输入一套完整的不矛盾的算法规则,它就可以为我推荐一些合适的餐厅。它收集的用餐数据越多,那推荐餐厅的准备性就越高,出现偏差的可能性就越小。又如在刚刚的哲学案例中,我们也不需要告诉机器人,是应该直行撞向5个修路工人,还是应该向左转撞向1个修路工人。它会收集相关的数据,知道这种情况下大多数人是怎么选择的,从而做出自己的决定。当然我们不能保证大多数人的行为就是正确的,但是我要说的是,这种大数据的应用,恰恰是人类通过感知行为来进行学习的过程,具有这种学习模式的机器人才能真正称之为智能机器人。

如果我们将某个人(下文称为人类A)一生里所有行动的信息,包括起床时间、说话语气等全部生活习惯都以数据信息的方式进行记录,并将这些数据输入机器人的系统,那么理论上可以理解为这个机器人的行为举动将会与人类A的行为相近,当输入的信息量无限大时,机器人的行为就无限接近于人类A。尽管收集的人类A的行为数据当中必然会存在矛盾之处,但是当数据足够大时,这些偶然的偏差性就会被排除掉,使得机器人的行为无限接近于人类A。而且机器人并不单纯地去模仿人类A的行为,它应用的其实是大数据的预测功能,也就是说这个机器人可以在没有遇到过的情景中按照人类A的思维方式做出反应。举个例子,假设人类A实际上是生活是16世纪的欧洲人,在21世纪的中国的这个机器人也可以知道做出人类A穿越来到21世纪的中国后可能会有的反应。

那么,智能机器人是否能够超越人类的智慧,完全取代人类呢?我对此给出的答案是两面的。我认为,未来智能机器人是可以超过单个人的智慧的,因为智能机器人集合的智慧决非是来自于一个人,它是将许多人许多不同领域的知识和经验进行集合,因此它是很有可能超过单个人的智慧的。但是,正由于它是通过这种大数据的预测应用模式,因此它能预测到的是一种渐变性的变化,按原有的思维模式猜想可能会遇到的问题,但是它是很难存在天马行空的突破性创新的,

而由于人类的多样性和复杂性,其中的一些人很可能会由这些天马行空,完全不一样的创新思维,因此智能机器人是难以超过整个人类的智慧的。

智能机器人已经不再是天荒夜谈了。我们再也不能阻止智能机器人到来的脚步,但是我们可以更好利用科学,使得智能机器人成为一个优秀的公民。

遵循艾阿西莫夫机器人三定律的智能机器人能否实现?

梁丽珍

1997 年5月,IBM 的计算机程序 “深蓝”,以 2.5:3.5 (1胜2负3平)在正常时限的比赛中击败了等级分排名世界第一的棋手——加里·卡斯帕罗夫。2016年3月,谷歌(Google)旗下DeepMind公司开发的围棋人工智能程序——阿尔法狗,成功打败围棋世界冠军、职业九段选手李世石,以4:1的总比分获胜。不少职业围棋手认为,阿尔法围棋的棋力已经达到甚至超过围棋职业九段水平,在世界职业围棋排名中,其等级分曾经超过排名人类第一的棋手柯洁。人类开始感受到了智能机器人的威胁,并且更加认真地思考智能机器人是否将会伤害人类,取代人类。

很多人以为智能机器人离自己相当遥远,其实它早就渗透在我们的生活当中,无人驾驶车、驾驶飞机平安降落的自主系统、扫地机器人、苹果的Siri,这些已经是智能机器人的雏形。它们具有一定的自我判断能力的,能应对变化的实际情况。当然,它们离实现与人类的完全无障碍沟通还有很长的距离。所以,现在讨论机器人的伦理问题已经不再是无稽之谈了。

实际上,艾萨克·阿西莫夫,美国著名的科幻小说作家,1942年在《我,机器人》的第四个机器人短篇《转圈圈》中,已经提出了 “机器人学三定律”,他认为,所有的机器人程序都必须考虑到这三条定律,目的是为了约束这些自主机器的行为,让它们服从以保护人类为目的的强制性道德准则。这三大定律是:

第一定律:机器人不得伤害人类,或坐视人类受到伤害;

第二定律:除非违背第一法则,否则机器人必须服从人类的命令; 第三定律:在不违背第一及第二法则下,机器人必须保护自己。

此后,阿西莫夫又添加了一条定律:

第零定律:机器人不得伤害人类族群,或因不作为使人类族群受到伤害。 但是,现在的机器人拥有的功能和人们当初设想的不太一样。科技并没有让我们凭空创造出和自己一样的东西,我们并不能像对待奴隶或佣人那样命令并指使它们。现代社会中广泛使用的机器人的工作非常专业化,它们不具备与人类用通俗语言交流的能力。我们无法要求它们遵守阿西莫夫的机器人定律,是因为它们完全不能理解这些定律的意义。如果想要应用机器人定律,智能系统必须具备

逻辑分析和推理能力,并且能够预测行为所导致的后果,以判断人类下达的指令是否和任何一条定律相悖。

也就是说,我们必须把人类思考行动的每一步,用逻辑算法清晰地描述出来,并且这套算法不可以存在任何矛盾,把这样逻辑算法输入到机器人系统当中,这样机器人才能按照这套算法进行相应的人类活动。但是人类的活动千变万化,而且我们有所谓的直觉、第六感,这种判断其实是有一定的逻辑依据,但目前我们都很难用算法却一一描述出来。

举一个人类思考简单的例子,选择一家餐厅吃饭,我们会考虑距离、食物味道、环境、停车位、候餐时间等因素。如果我们将其变成一套可以让机器人执行的算法,但机器人是不能理解什么才是合适距离,什么才是满意的环境,什么才是好吃的食物,也就是说我们必须要用定量的语言表述。例如距离在3公里范围内,大众点评食物味道和环境因素大于或等于4星,停车位不少于50个,平均候餐时间不长于15分钟。这样,机器人才能够做出类似于人类的判断。但是算法之间确极有可能存在矛盾。

例如在经典的哲学问题上——“你是一辆快速行走的列车上的列车长,列车的刹车已经坏了无法使用,你发现前方轨道上有5个修路工人,向左拐的轨道中有1个修路工人,此时你可以选择向左拐或者是继续向前行驶。这时候你应该怎么办?”,我们的无人驾驶汽车(无人驾驶汽车已经具有初步的智能系统)遇到这种情景应该如何处理?这种情况下无论如何都要违背阿西莫夫的机器人三大定律。这种情况下,我们无法用清晰的逻辑算法描述应该如何处理,因为作为人类本身,我们都无法说明哪一种情况才是真正正确的选择。

但是,我们回头想一下,把所有逻辑关系都清晰列举出来让机器人执行的这种模式是否正确。回头看一下,我们对小孩的教育,难道我们是把所有的规矩都列出来,然后再每一个小孩子去执行的吗?显然不是。人类一生里面的学习,有理论知识的学习,也就是说确实有各种成形的方法和理论,告诉我们一步一步应该怎么做,但是这是不多的,完全不变通的理论应用是少之又少的。其实人类的学习过程中,更多是感知活动。例如,小孩子学说话的过程,其实就是不断地从视觉口型和听觉声音上,去不断地感受,其大脑通过无数次情景数据的收集,最后归纳出不同的情景应该说什么话,并在之后的应用中不断地修正。其实,这个

过程,就是现在我们所说的大数据应用的过程。

所谓大数据,就是数量得足够大,把数据的偏差能基本消除,得到一个相对规律的趋势。回到之前的例子当中,在选择一家餐厅吃饭时,如果收集了大量人们的用餐数据(尤其是与我本人相类似的人的用餐数据),那么这个机器人就可以给我推送一些较为符合我要求的餐厅。也就是说,这个机器人不再需要完整地了解我为什么这么选择,不知道了解我整个思考的逻辑过程,也不需要输入一套完整的不矛盾的算法规则,它就可以为我推荐一些合适的餐厅。它收集的用餐数据越多,那推荐餐厅的准备性就越高,出现偏差的可能性就越小。又如在刚刚的哲学案例中,我们也不需要告诉机器人,是应该直行撞向5个修路工人,还是应该向左转撞向1个修路工人。它会收集相关的数据,知道这种情况下大多数人是怎么选择的,从而做出自己的决定。当然我们不能保证大多数人的行为就是正确的,但是我要说的是,这种大数据的应用,恰恰是人类通过感知行为来进行学习的过程,具有这种学习模式的机器人才能真正称之为智能机器人。

如果我们将某个人(下文称为人类A)一生里所有行动的信息,包括起床时间、说话语气等全部生活习惯都以数据信息的方式进行记录,并将这些数据输入机器人的系统,那么理论上可以理解为这个机器人的行为举动将会与人类A的行为相近,当输入的信息量无限大时,机器人的行为就无限接近于人类A。尽管收集的人类A的行为数据当中必然会存在矛盾之处,但是当数据足够大时,这些偶然的偏差性就会被排除掉,使得机器人的行为无限接近于人类A。而且机器人并不单纯地去模仿人类A的行为,它应用的其实是大数据的预测功能,也就是说这个机器人可以在没有遇到过的情景中按照人类A的思维方式做出反应。举个例子,假设人类A实际上是生活是16世纪的欧洲人,在21世纪的中国的这个机器人也可以知道做出人类A穿越来到21世纪的中国后可能会有的反应。

那么,智能机器人是否能够超越人类的智慧,完全取代人类呢?我对此给出的答案是两面的。我认为,未来智能机器人是可以超过单个人的智慧的,因为智能机器人集合的智慧决非是来自于一个人,它是将许多人许多不同领域的知识和经验进行集合,因此它是很有可能超过单个人的智慧的。但是,正由于它是通过这种大数据的预测应用模式,因此它能预测到的是一种渐变性的变化,按原有的思维模式猜想可能会遇到的问题,但是它是很难存在天马行空的突破性创新的,

而由于人类的多样性和复杂性,其中的一些人很可能会由这些天马行空,完全不一样的创新思维,因此智能机器人是难以超过整个人类的智慧的。

智能机器人已经不再是天荒夜谈了。我们再也不能阻止智能机器人到来的脚步,但是我们可以更好利用科学,使得智能机器人成为一个优秀的公民。


相关内容

  • 人工智能,电影,自我意识和阿西莫夫 (人工智能 影评)
  • (05年旧作) 昨天第三遍看了AI人工智能,前两次为大卫的执着而感动,这一次却有了点不同的感觉. 大概因为前天刚刚看了孔雀的影评,从自我意识的角度.所以昨天看AI的时候,也惯性思维似的从这个方面去考虑问题. 人工智能到底是什么?我先前认为人工智能是大量有逻辑的知识积累.AI科学家图灵说判断人工智能是 ...

  • 科机器人与人工智能
  • 科幻作品中机器人与人工智能 前言: 从小时候就喜欢看动画片,<铁胆火车侠>,<变形金刚>等等之类的,特别喜欢那些机器的东西在人们的意念之中就可以动作,甚至自己动作,这也和时下的名词-物联网是联系在一起的 一. 什么是人工智能 人工智能(Artificial Intellige ...

  • 人类的孤独,让我们想象机器人
  • robot的诞生 "机器人"算得上是科幻作品中元老级题材,甚至上溯到人类使用锄头和刀剑的时代.战国时期的诸子百家经典<列子・汤问>中,有一篇名叫<偃师>的小故事,公认为中国最早一篇科幻小说:一名方士将一个木偶进献给君王.这个木偶不仅能够翩翩起舞,而且能够歌 ...

  • 脑科学导论读书报告--人工智能的历史发展与将来
  • 人工智能的历史发展与将来 陈肖苇 1.人工智能的发展历史 2.人与机器人的不同 1) 人脑的认识 2) 模拟大脑 3) 设计理念 4) 面临的问题 3.近期的应用--专家系统 4.中期的预测--2030-2070 1) 模块机器人 2) 机器人外科医生与音乐家 3) 有情感的机器人 4) 模拟大脑 ...

  • 机器人发展历史
  • 机器人发展历史 机器人的历史并不算长,1959年美国英格伯格和德沃尔制造出世界上第一台工业机器人,机器人的历史才真正开始. 第一代机器人属于示教再现型,第二代则具备了感觉能力,第三代机器人是智能机器人,它不仅具有感觉能力, 而且还具有独立判断和行动的能力. 英格伯格和德沃尔制造的工业机器人是第一代机 ...

  • 人工智能的现状及发展展望
  • 人工智能的现状及发展展望 从1961年世界上第一个真正意义上的实用机器人在美国问世,到40余年后的今天,机器人的应用领域不断扩大,从工业到农业再到服务业,从工厂走向寻常百姓家,从北非沙漠到南美丛林,从深 水世界到浩瀚太空,机器人的触角已经伸向四面八方,成为我们社会生活中一道独特的科技风景. 机器人没 ...

  • 算法决策兴起:人工智能时代的若干伦理问题及策略
  • 腾讯研究院 2017-05-24 本文系根据腾讯研究院研究员曹建峰在"全球人工智能技术大会·2017"的分论坛"AI变革时代的智能系统测评分论坛"上的演讲整理而来. 大家好!很荣幸今天有这个机会跟大家分享我自己对人工智能伦理的一些观察和思考.我今天分享的主题是 ...

  • 关于宇宙先知.科幻小说大师阿西莫夫先生的十个事实 | 单读
  • 一 1.艾萨克·阿西莫夫(Isaac Asimov,俄文名 Isaak Yudovich Ozimov)生于 1920年1月20日,属羊,太阳摩羯,月亮金牛,上升双子.在 1979年的一次采访中,阿西莫夫被问及对占星术的看法,他回答:我持怀疑态度.在没有确凿的科学证据支持之前,我是不会接受的,而到目 ...

  • [阿西莫夫最新科学指南(下)]在线阅读
  • 2013-10-24 13:40:23|  分类: [藏书楼] |字号 订阅 目录 下  篇  生物科学 第十一章  分  子 有机物 化学结构 结构的细节 旋光性  苯环自相矛盾的现象 有机合成 第一批合成物质   生物碱和止痛药  原卟啉 新方法 聚合物与塑料  缩合作用与葡萄糖  晶型和非晶型 ...