杀人机器人走向战场:是否应限制或禁止使用自主杀人生化武器?

杀人机器人走向战场:是否应限制或禁止使用自主杀人生化武器?

为武装到牙齿的自主机器人编写程序(在国标《质量管理体系基础和术语》GB/T19000—2008/ISO9000:2005中第3.4.5条程序procedure中对于“程序”的定义进行了规定。一个环节,内部嵌套着一系列复杂的列逻辑慎密的一个组件,如若一个地方出问题则会影响到整个主体(可以理解为事务)。),让它们遵守道德准则是否可行?作家(作家泛指能以写作为业的人,也特指文学创作上有盛名成就的人。因此,一般能被称为“作家”者,其作品大都能够获得出版发行,历史悠久。相对于“作者”一词而言,“作家”一词的褒义明显较强,所以这词很多时候会被用作为一种客套敬称,或作为一种提高自己身价的标签,流于溢美,因此。)艾萨克· 阿西莫夫在1942年提出的机器人定律现在成了炙手可热的话题。

2029年,人类和智能机器人之间的一场大战打响:机器人“终结者”被派到过去,奉命杀死约翰·康纳的母亲莎拉·康纳——这是由詹姆斯·卡梅隆于1984年创作的5部系列电影的序曲。科幻文学的创作者并没有料想到,如今的科技已经发展到可以制造出这样的机器人:它们一旦被授予使命后,会自发地做出杀人甚至暴动的决定。

这些机器人杀手在国际军备讨论中有一个恰如其分的名字:LAWS。这种机器人已经登上了历史的舞台,将它们带到战场上会引起各种各样的争议:如何定义这些机器人?它们到底能做什么?更不用说与人类士兵一同出现在战场时所造成的伦理问题。

从1942年开始,著名的美籍俄罗斯裔科幻作家艾萨克·阿西莫夫在《惊奇科幻小说》上提出了机器人的伦理问题。今天,阿西莫夫被世人视为机械伦理学之父。这门哲学学科催生了许多相关的研讨会和无数的书籍,在美国尤其如此。阿西莫夫在1942年出版的小说《转圈圈》中描述了机器人三定律。他提出,所有的机器人程序都必须考虑到这三条定律,目的是为了约束这些自主机器的行为,让它们服从以保护人类为目的的强制性道德准则。

第一定律:机器人不得伤害人类,或坐视人类受到伤害;

第二定律:除非违背第一法则,否则机器人必须服从人类的命令;

第三定律:在不违背第一及第二法则下,机器人必须保护自己。

此后,阿西莫夫又添加了一条定律:

第零定律:机器人不得伤害人类族群,或因不作为使人类族群受到伤害。

遵守这些定律时引发的困局是阿西莫夫所著的500本书籍的主题。他严肃地思考了这些定律的意义,并想象了这些定律被采纳时发生的情形。有这样一段轶事,当斯坦利·库布里克的电影《2001:太空漫游》放映时,阿西莫夫气冲冲地冲出了影院,因为电脑HAL 9000违反了他制定的第一定律:HAL杀害了“发现者”1号飞船的船员。 然而时至今日,阿西莫夫关于机械伦理的设想并未如愿:如今的机器人并没有安装强制它们服从机器人定律的机制或指令。为什么会这样呢?

现在的机器人拥有的功能和人们当初设想的不太一样。科技并没有让我们凭空创造出和自己一样的东西,我们并不能像对待奴隶或佣人那样命令并指使它们。机器人以及智能系统的产生并不是一蹴而就,因为科技总是沿着意想不到的方向前进。这样一来,如何准确区分机器人和智能系统就变得十分棘手。

驾驶飞机平安降落的自主系统能否称为机器人?它是否具有智能?我们很容易得出否定的答案。这个自主系统操作飞机的能力和人类飞行员一样好,而且对自己的具体方位了如指掌,所以才能让飞机准确降落。虽然它的功能很有限,但是在降落飞机这件棘手且人命关天的任务上,它和人类相比毫不逊色。

互联网搜索引擎所使用的算法能够从海量数据中提取出关键信息,并向用户推荐可能感兴趣的网页,这是任何人类都无法做到的。然而,有些人依然会吹毛求疵,认为这些算法不够聪明。这种看法有失偏颇,因为这些程序只是专注于特定的任务,不能认为它们就是愚蠢的。

现代社会中广泛使用的机器人的工作非常专业化,它们不具备与人类用通俗语言交流的能力。我们无法要求它们遵守阿西莫夫的机器人定律,是因为它们完全不能理解这些定律的意义。如果想要应用机器人定律,智能系统必须具备逻辑分析和推理能力,并且能够预测行为所导致的后果,以判断人类下达的指令是否和任何一条定律相悖。但目前,没有机器人可以进行这样的分析。

美国iRobot公司的创始人罗德尼·布鲁克斯曾就上述问题直白地表达了自己的观点。iRobot是一家设计、制造和销售机器人的公司。该公司制造的PackBot机器人大量用于福岛核电站和阿富汗。媒体采访他时,问起iRobot生产的机器人为何没有设置为自动服从阿西莫夫定律,他回答道,“理由很简单,我们根本没法把阿西莫夫的定律写入它们的系统中。”虽然未来的智能系统可能会随着科技的进步而发展出智力,并且智能系统中负责自主抉择的组件也会获得性能提升,但这种机器智力和人类仍然不可同日而语。也就是说,科幻作家当初让机器人理解和服从阿西莫夫定律的希望,现在已经变成了一件异想天开的事。但是,我们现在讨论机械伦理问题并非多此一举。因为在自动驾驶领域,相关研发已经进行了许多年,多家公司设计的性能稳定的产品也将进入市场,因此讨论机械伦理问题的时机已经成熟。

第二条论据——杀人机器人可使战争变得更加“干净”——是无效的。实际上,这条论据等同于将“只攻击敌人”、“不要攻击平民”、“人不犯我,我不犯人”等道德准则强加给杀人机器人。然而,我们连怎样将阿西莫夫的机器人定律写入系统代码都做不到,这些道德准则更是无从谈起。

或许,当我们研发出具有更加先进的分析能力的机器人时,再重新考虑这个问题也不迟。但就目前而言,我们无法编写出类似于阿西莫夫机器人定律的道德规范。总而言之,我们造出来的机器人需要有精确移动的能力,能够向人类或非人类目标快速而准确地开火,但它们不能决定是否要开火,以及对谁投放出致命的火力。

反对自主杀人机器人的人还提出了其他论据。一封发表在2015年7月的公开信得到了2万人左右的签名,签名者是人工智能领域的专家以及其他对此话题颇为关切的人,其中包括著名物理学家斯蒂芬·霍金以及苹果公司联合创始人史蒂夫·沃兹尼亚克。这封公开信要求停止研发具有杀人能力的自主系统,并且表示这些系统可以被恐怖分子当作生化武器。

自主杀人机器人的问题比其他类型的生化武器更严重,因为自主杀人机器人的技术研发比较分散。机器人是由众多程序和相对容易获取的硬件制造而成的。但是,软件易于复制和传播,这与核生化武器完全不同。机器人技术领域的任何进步都有可能被最邪恶的恐怖分子盗取,用于大型黑帮活动等。

为了达成国际共识,首当其冲的是解决如何定义自主机器人的难题。自主机器人的定义是否真的比定义细菌生化武器或是化学生化武器更困难吗?考虑到这一问题的紧迫性,我们应该率先就那些毫无争议的案例达成一致。

Leave a Reply

电子邮件地址不会被公开。 必填项已用*标注