今年3月初在德國漢諾威舉辦的電腦展(CeBIT),出場表演的「足球機器人」技驚四座,吸引了全場目光。然而,美國智庫布魯金斯研究所(Brookings Institution)資深研究員辛格博士(Dr. Peter Warren Singer)警告,看似蓬勃發展的機器人技術,隱藏著令人憂心的問題。
在伊拉克戰場上,美軍於地面部署了4,000多個武裝機器人,無人飛機也累積了數十萬小時的飛行時數。辛格指出,美國空軍招募的無人飛機領航員數量,已超過了載人飛機的飛行員。美國軍方規劃在2015年之前,軍隊的一半人員由機器人所取代。
據美國防部2007~2032年無人系統計劃(Unmanned Systems Roadmap 2007-2032)資料顯示,美國預計花費240億美元投入無人技術系統。專家預測,美國在10年內就可布署編制有150名士兵與2,000名機器人的特遣部隊。
英國雪菲爾大學(University of Sheffield)人工智慧與機器人專家夏基(Noel Sharkey)教授則警告:軍事機器人對人類構成威脅。
夏基指出,這些以戰爭為目的製造出來的持槍機器人,自主性愈來愈高,不但可輕易落入恐怖分子手中,隨著價格下跌,科技愈來愈簡單化,有朝一日或許會引發全球機器人軍備競賽。
迄今,機器人仍需由人類按下按鈕,或是扣扳機。但如果人類不小心,情況可能改觀。夏基說,最令人憂心的是,目前布署的半自動型軍用機器人,將發展到成為完全獨立的殺人機器。美軍明白表示,想盡快擁有自主型機器人(autonomous robots),就成本效益來說,可打一場無傷亡風險的戰爭。
夏基曾在英國《衛報》發表專文指出,美國防部為了平息反對聲浪,特別投資設計讓機器人士兵具備道德判斷能力。然而,機器人根本無法有效分辨前方是載滿敵軍的巴士或只是學童校車,遑論道德判斷。
在人類發展機器人早期,俄裔美籍作家兼生化學家以薩‧艾西莫夫(Isaac Asimov)在其科幻小說中發表了機器人三大定律:第一、機器人不能傷害人類,見到人類陷入危險也不能置之不理。第二、在不違反第一原則下,機器人必須服從人類命令。第三、在不違反第一、第二原則下,機器人必須保護自己。
但是,各國無視機器人三大定律,爭相製造戰爭機器,這個定律能發揮多少作用令人質疑。
辛格表示,機器人內部所設定的道德程式不是重點,使用機器人的人類之道德水準才攸關重大。夏基則說:「我在人工智慧領域鑽研數十年,機器人可決定人類生死的想法,令我十分恐懼。」