英防长警告称新技术将带来更大战争威胁:核战风险加剧

(5/14)

英防长警告称新技术将带来更大战争威胁:核战风险加剧

无论如何,道德问题不能简单地被当做一个放之四海而皆准的原则。历史学家尤瓦尔·诺亚·哈拉里指出,无人驾驶汽车需要一些行为准则来确定在面对不可避免并有可能致命的碰撞时应该怎样做:机器人应该去救谁?哈拉里说,或许我们会得到两种模式:利己主义(把驾驶员的生命放在第一位)和利他主义(把别人的生命放在第一位)。

“人权观察”组织2012年的一份关于杀人机器人的报告带有些许科幻色彩。报告说:“将害怕的平民与具有威胁性的敌方战斗人员区分开来,需要士兵了解一个人行为背后的动机,这是机器人办不到的事情。”此外,“机器人不能受到人类情感和共情能力的约束,而这种情感和共情能力会对杀戮平民的行为起到重要的阻止作用。”但是前面的说法是在表达一种信仰——使用生物特征识别技术的机器人在作出评估方面难道不比用直觉去判断的惊恐的士兵更胜一筹吗?至于后面的说法,给人的感觉是:有时的确如此。但是另外一些时候,身处战区的人也会肆意强奸和屠杀。

这样说不是要反驳报告对于自动机器人士兵的恐惧,我本人也同样对这样的前景感到害怕。不过,这让我们又回到了一个关键的问题上,这个问题无关技术,而是关乎战争。

目前我们对于战争伦理的看法已经带有强烈的随心所欲的色彩。“人权观察”组织的报告说:“使用完全自动的武器带来了问责方面的严重问题,这会破坏在平民保护方面的已有手段。”这样的观点不假,但是只要核武器在国际范围内是合法的,这种说法在道德伦理上就站不住脚。