当前位置:香港赛马资讯及派彩 > 科学 > 正文

杀人机器人走向战?。菏欠裼ο拗苹蚪故褂米灾魃比宋淦??

2016-10-12 17:03:58       来源:

为武装到牙齿的自主机器人编写程序,让它们遵守道德准则是否可行?作家艾萨克· 阿西莫夫在1942年提出的机器人定律现在成了炙手可热的话题。

2029年,人类和智能机器人之间的一场大战打响:机器人“终结者”被派到过去,奉命杀死约翰·康纳(John Connor)的母亲莎拉·康纳(Sarah Connor)——这是由詹姆斯·卡梅隆(James Cameron)于1984年创作的5部系列电影的序曲??苹梦难У拇醋髡卟⒚挥辛舷氲?,如今的科技已经发展到可以制造出这样的机器人:它们一旦被授予使命后,会自发地做出杀人甚至暴动的决定。

这些机器人杀手在国际军备讨论中有一个恰如其分的名字:LAWS(Lethal Autonomous Weapons Systems,致命性自主武器系统)。这种机器人已经登上了历史的舞台,将它们带到战场上会引起各种各样的争议:如何定义这些机器人?它们到底能做什么?更不用说与人类士兵一同出现在战场时所造成的伦理问题。

从1942年开始,著名的美籍俄罗斯裔科幻作家艾萨克·阿西莫夫在《惊奇科幻小说》(Astounding Science Fiction)上提出了机器人的伦理问题。今天,阿西莫夫被世人视为机械伦理学(roboethics)之父。这门哲学学科催生了许多相关的研讨会和无数的书籍,在美国尤其如此。阿西莫夫在1942年出版的小说《转圈圈》(Runaround)中描述了机器人三定律。他提出,所有的机器人程序都必须考虑到这三条定律,目的是为了约束这些自主机器的行为,让它们服从以?;と死辔康牡那恐菩缘赖伦荚?。

机器人定律

第一定律:机器人不得伤害人类,或坐视人类受到伤害;

第二定律:除非违背第一法则,否则机器人必须服从人类的命令;

第三定律:在不违背第一及第二法则下,机器人必须?;ぷ约?。

此后,阿西莫夫又添加了一条定律:

第零定律:机器人不得伤害人类族群,或因不作为使人类族群受到伤害。

遵守这些定律时引发的困局是阿西莫夫所著的500本书籍的主题。他严肃地思考了这些定律的意义,并想象了这些定律被采纳时发生的情形。有这样一段轶事,当斯坦利·库布里克(Stanley Kubrick)的电影《2001:太空漫游》(2001: A Space Odyssey)放映时,阿西莫夫气冲冲地冲出了影院,因为电脑HAL 9000违反了他制定的第一定律:HAL杀害了“发现者”1号飞船(Discovery One)的船员。 然而时至今日,阿西莫夫关于机械伦理的设想并未如愿:如今的机器人并没有安装强制它们服从机器人定律的机制或指令。为什么会这样呢?

无法服从机器人定律

现在的机器人拥有的功能和人们当初设想的不太一样??萍疾⒚挥腥梦颐瞧究沾丛斐龊妥约阂谎亩?,我们并不能像对待奴隶或佣人那样命令并指使它们?;魅艘约爸悄芟低车牟⒉皇且货矶?,因为科技总是沿着意想不到的方向前进。这样一来,如何准确区分机器人和智能系统就变得十分棘手。

驾驶飞机平安降落的自主系统能否称为机器人?它是否具有智能?我们很容易得出否定的答案。这个自主系统操作飞机的能力和人类飞行员一样好,而且对自己的具体方位了如指掌(因此它具有自我意识的雏形),所以才能让飞机准确降落。虽然它的功能很有限(不会读书,也不会预订宾馆,更不懂得电影鉴赏),但是在降落飞机这件棘手且人命关天的任务上,它和人类相比毫不逊色。

互联网搜索引擎所使用的算法能够从海量数据中提取出关键信息,并向用户推荐可能感兴趣的网页,这是任何人类都无法做到的。然而,有些人依然会吹毛求疵,认为这些算法不够聪明。这种看法有失偏颇,因为这些程序只是专注于特定的任务,不能认为它们就是愚蠢的。

现代社会中广泛使用的机器人的工作非常专业化,它们不具备与人类用通俗语言交流的能力。我们无法要求它们遵守阿西莫夫的机器人定律,是因为它们完全不能理解这些定律的意义。如果想要应用机器人定律,智能系统必须具备逻辑分析和推理能力,并且能够预测行为所导致的后果,以判断人类下达的指令是否和任何一条定律相悖。但目前,没有机器人可以进行这样的分析。

美国iRobot公司的创始人罗德尼·布鲁克斯(Rodney Brooks)曾就上述问题直白地表达了自己的观点。iRobot是一家设计、制造和销售机器人的公司。该公司制造的PackBot机器人大量用于福岛核电站和阿富汗。媒体采访他时,问起iRobot生产的机器人为何没有设置为自动服从阿西莫夫定律,他回答道,“理由很简单,我们根本没法把阿西莫夫的定律写入它们的系统中。”虽然未来的智能系统可能会随着科技的进步而发展出智力,并且智能系统中负责自主抉择的组件也会获得性能提升,但这种机器智力和人类仍然不可同日而语。也就是说,科幻作家当初让机器人理解和服从阿西莫夫定律的希望,现在已经变成了一件异想天开的事。但是,我们现在讨论机械伦理问题并非多此一举。因为在自动驾驶领域,相关研发已经进行了许多年,多家公司设计的性能稳定的产品也将进入市场,因此讨论机械伦理问题的时机已经成熟。

机器人的道德问题

设想下这样一个场景:一辆高速行驶中的无人驾驶汽车前方,出现了一个追逐皮球而横穿马路的孩子,而逆向车道上有一个骑着自行车的成年人。此时,自动驾驶系统经过分析会得出两种选择:一是减速但是维持前进方向不变,这样就可能撞到孩子;二是减速并向左转向,而这又会威胁到骑行者的安全。自动驾驶系统应该如何抉择?撞向孩子还是成年人?

经常有媒体表示,自动驾驶汽车可媲美人类司机,这也是一些汽车制造商在标榜安全性时提到的新卖点。这种观点受众范围很广,让我们很难在未来禁止自动驾驶汽车。在理想的情况下,它们的反应和决策能力都是无可挑剔的:它们能够根据预设的程序进行决策,选择挽救追皮球的孩子,还是骑自行车的人。

那么应由谁来制定机器人的道德规则?又该如何制定这种道德规则?要回答这些问题并不容易,但是不可避而不谈。如一些研究者证明的那样,在逻辑学家看来,有些道德问题的逻辑过于复杂甚至是不可判定的。

现在的机器人没有被预装阿西莫夫定律的另一个原因是: 我们制造某些机器人的目的就是为了杀戮。这已经变成了一个严重的问题,值得我们思考和讨论。

人类制造用来杀戮同类的机器人已经有数十年的时间,而且只要“机器人”、“自主性”和“杀戮”这个三个特性一同出现,情况就变得十分棘手。拿埋在道路上的地雷为例子,我们可以说它具有自主性,因为当它“觉察”到四周出现物体时会“决定”爆炸,而这个决定并不需要人类的许可。许多导弹和炸弹起爆的唯一条件是,它们敏感的引信装置觉察到自己将要和目标或者地面发生接触。那些一旦发射就无法改变目标的导弹的情况就更加微妙了。第二次世界大战时,德国发射过15 000枚V-1飞弹和4 000枚V-2导弹,这两种导弹只能在发射前设置飞行路线,发射后就无法再做更改。幸好这两种导弹的准头都不太好,但依然给盟军造成了不小的伤亡。

美国在战争中使用的由人操控的攻击型无人机已经引起了伦理方面的争议。有些无人机可以在自动模式下开启,这又引起了更多的道德问题。

  美国在战争中使用的由人操控的攻击型无人机已经引起了伦理方面的争议。有些无人机可以在自动模式下开启,这又引起了更多的道德问题。

有些导弹通过分析图像的对比度(这种技术可以让导弹跟踪海面上的目标)或者跟踪红外线辐射,能够自己确定目标并朝着目标前进。一些边境监控系统能够瞄准任何跨越禁区的目标并向其开火。部署在韩朝非武装地带的、由三星Techwin公司生产的监控和安全警卫机器人(Samsung SGR-A1)就是一个很好的例子。该系统由两位操作员控制,但它具备一个自动攻击模式。有些防空系统则具备无人值守模式,比如久经考验的美国爱国者反导弹系统(Patriot),密集阵近程防御系统(Phalanx)和以色列的铁穹防御系统(Iron Dome)等。

值得一提的是,美国在许多战场上使用的无人机其实是远程??氐?,通常情况下,它们在投放武器前会等待操作员给出明确的指令。经过媒体的转播和报道,全世界都已经见识过这些机器杀手的效率,不过在执行对地打击任务时,它们同样造成了不小的间接伤害,夺取了许多无辜受害者的生命。一些无人机可以在自动模式下工作,自行决定是否开火,并不需要人类的干涉。

在联合国于2013年发表的一份报告中,南非比勒陀利亚大学的法学教授克里斯托弗·海因斯(Christof Heyns)认为,自主杀人机器人已经在一些国家(如美国、英国、以色列、韩国等)的军方实验室诞生了,已经磨刀霍霍准备开始行动。毫无疑问,人类能够创造并利用具有部分智力的自主军事武器,把它们派遣到地面战场上或空中去搜索敌人。无需人类许可,它们就能自己辨认并消灭目标。就算我们假定在战斗决策环中有人类存在,如果不对这些机器自主性的深层概念进行调整的话,它们还是可以撇开人类独自执行任务。

我们要往何处去?

现在,我们需要回答的问题可被归结成:我们是否真的希望在这条路上走下去?是否应该限制或者禁止使用自主杀人武器?

在为这些武器系统辩护的论据中,有两条关键的理由。首先,现在采取任何措施都已太迟,这些系统已经存在。第二,这些机器人终有一日会变得更为精准,它们会更加尊重平民和交战规则,而人类战士在这两个方面则不能完美地执行?;欢灾?,这些武器能够让战争和冲突变得更为“干净”。

第一条论据可以被轻松反驳。人类已经制造出了核武器、化学武器以及细菌武器,但这不能阻止各国签订国际条约来管理和禁止这些武器。这些协议的签订有效限制了上述武器的使用。对于杀伤性地雷和致盲激光武器,也有相关协议(其中一项协议已于1998年生效)进行约束。因此,各国政府可以协商一致,停止自主杀人机器人的研发。现在这个问题已被搬上了国际法庭讨论,每个人都有权力采取行动来促进这类讨论尽快得出结论。

第二条论据——杀人机器人可使战争变得更加“干净”——是无效的。实际上,这条论据等同于将“只攻击敌人”、“不要攻击平民”、“人不犯我,我不犯人”等道德准则强加给杀人机器人。然而,我们连怎样将阿西莫夫的机器人定律写入系统代码都做不到,这些道德准则更是无从谈起。

或许,当我们研发出具有更加先进的分析能力的机器人时,再重新考虑这个问题也不迟。但就目前而言,我们无法编写出类似于阿西莫夫机器人定律的道德规范。总而言之,我们造出来的机器人需要有精确移动的能力,能够向人类或非人类目标快速而准确地开火,但它们不能决定是否要开火,以及对谁投放出致命的火力。

反对自主杀人机器人的人还提出了其他论据。一封发表在2015年7月的公开信得到了2万人左右的签名,签名者是人工智能领域的专家以及其他对此话题颇为关切的人,其中包括著名物理学家斯蒂芬·霍金(Stephen Hawking)以及苹果公司联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)。这封公开信要求停止研发具有杀人能力的自主系统,并且表示这些系统可以被恐怖分子当作武器。

自主杀人机器人的问题比其他类型的武器(如核武器)更严重,因为自主杀人机器人的技术研发比较分散?;魅耸怯芍诙喑绦蚝拖喽匀菀谆袢〉挠布圃於傻?。但是,软件易于复制和传播,这与核武器完全不同?;魅思际趿煊虻娜魏谓蕉加锌赡鼙蛔钚岸竦目植婪肿拥寥?,用于大型黑帮活动等。

为了达成国际共识,首当其冲的是解决如何定义自主机器人的难题。自主机器人的定义是否真的比定义细菌武器或是化学武器更困难吗?考虑到这一问题的紧迫性,我们应该率先就那些毫无争议的案例达成一致。

科学 猎奇 娱乐 游戏 汽车 手游 金融 家居

新闻频道
国内国际社会评论文史专题经济新闻图库老照片
军事频道
军事要闻中国军情国际军情军事历史网友原创军事专题军事图库武器装备军事文化
汽车频道
车闻Update漫话车型漫记车映像实拍解析行业动态新车资讯独家评测汽车生活人文之旅
教育频道
留学移民高考中小学拒讲堂师说商道商论
游戏频道
游点意思网络游戏网页游戏单机游戏手机游戏军事游戏游戏产业发号中心游戏美女图说游戏囧游囧事
香港赛马资讯及派彩
业界互联网行业通信数码手机平板IT硬件相机笔记本家电产品库
旅游频道
X旅行视界目的地 美图发现社区
文化频道
专题非遗沙龙历史艺文博览读书图库书画禅文化
书画频道
资讯收藏展览在线展厅艺术家视觉专题
体育频道
国际足球中国足球NBACBA 综合体育图片汇总专题策划
视频频道
新闻军事中华出品原创娱乐纪录片微电影决胜海陆空
娱乐频道
明星电影电视音乐专题图库论坛
公益频道
老兵出镜老兵动态老兵资料库关爱老兵在行动公益组织公益人物
城市频道
城市聚焦城市设计城市生活城市策划城 市图赏城市加盟城市论坛
社区频道
中华论坛网上谈兵中华拍客社会时政国际风云生活消费休闲旅游美丽女人娱乐八卦经济风云情感世界文学天地
好医生频道
保健养生疾病防治行业资讯名医谈健康 医生专栏食疗跑步
经济频道
国内宏观海外经济产经商贸时尚消费电商眼球儿企业故事专栏评说识局经济
?