今年3月初在德国汉诺威举办的计算机展(CeBIT),出场表演的「足球机器人」技惊四座,吸引了全场目光。然而,美国智库布鲁金斯研究所(Brookings Institution)资深研究员辛格博士(Dr. Peter Warren Singer)警告,看似蓬勃发展的机器人技术,隐藏着令人忧心的问题。
在伊拉克战场上,美军于地面部署了4,000多个武装机器人,无人飞机也累积了数十万小时的飞行时数。辛格指出,美国空军招募的无人飞机领航员数量,已超过了载人飞机的飞行员。美国军方规划在2015年之前,军队的一半人员由机器人所取代。
据美国防部2007~2032年无人系统计划(Unmanned Systems Roadmap 2007-2032)数据显示,美国预计花费240亿美元投入无人技术系统。专家预测,美国在10年内就可布署编制有150名士兵与2,000名机器人的特遣部队。
英国雪菲尔大学(University of Sheffield)人工智能与机器人专家夏基(Noel Sharkey)教授则警告:军事机器人对人类构成威胁。
夏基指出,这些以战争为目的制造出来的持枪机器人,自主性愈来愈高,不但可轻易落入恐怖分子手中,随着价格下跌,科技愈来愈简单化,有朝一日或许会引发全球机器人军备竞赛。
迄今,机器人仍需由人类按下按钮,或是扣扳机。但如果人类不小心,情况可能改观。夏基说,最令人忧心的是,目前布署的半自动型军用机器人,将发展到成为完全独立的杀人机器。美军明白表示,想尽快拥有自主型机器人(autonomous robots),就成本效益来说,可打一场无伤亡风险的战争。
夏基曾在英国《卫报》发表专文指出,美国防部为了平息反对声浪,特别投资设计让机器人士兵具备道德判断能力。然而,机器人根本无法有效分辨前方是载满敌军的巴士或只是学童校车,遑论道德判断。
在人类发展机器人早期,俄裔美籍作家兼生化学家以萨‧艾西莫夫(Isaac Asimov)在其科幻小说中发表了机器人三大定律:第一、机器人不能伤害人类,见到人类陷入危险也不能置之不理。第二、在不违反第一原则下,机器人必须服从人类命令。第三、在不违反第一、第二原则下,机器人必须保护自己。
但是,各国无视机器人三大定律,争相制造战争机器,这个定律能发挥多少作用令人质疑。
辛格表示,机器人内部所设定的道德程序不是重点,使用机器人的人类之道德水平才攸关重大。夏基则说:「我在人工智能领域钻研数十年,机器人可决定人类生死的想法,令我十分恐惧。」