

中新網(wǎng)12月2日電 據香港《大公報》二日援引外電報道,美國軍方計劃制造無(wú)法像人類(lèi)士兵那樣犯戰爭罪的機器人士兵,五角大樓已經(jīng)聘請英國科學(xué)家協(xié)助完成這一任務(wù)。
美國陸軍和海軍聘請了精通制造機器的倫理問(wèn)題方面的專(zhuān)家,以防止制造出“未來(lái)戰士”式的不懂是非、不加區別地殺人的機器。
二○一二年前,美國將投資四十億美元研究“自主系統”,“自主系統”是軍方用來(lái)稱(chēng)呼機器人的術(shù)語(yǔ)。這個(gè)自主系統的基礎,是機器人不會(huì )像前線(xiàn)士兵那樣有恐懼和有復仇欲望。
美國海軍已聘請一名搞機器人研究的英國專(zhuān)家,為他們提供制造機器人方面的建議,確保機器人不會(huì )違犯日內瓦公約。
印第安納大學(xué)科學(xué)哲學(xué)家科林-艾倫,剛出版了一本書(shū),叫做《道德機器:教導機器人分清是非》。他說(shuō):“他們希望得到回答的問(wèn)題,是我們能否制造遵守戰爭法律的自動(dòng)機器。我們能否利用倫理理論來(lái)幫助設計這些機器?”
機器可比人類(lèi)更道德
有關(guān)伊拉克戰爭產(chǎn)生的作戰壓力研究,使五角大樓首腦們頗傷腦筋。研究顯示,比例很高的前線(xiàn)士兵都支持對敵軍俘虜施加酷刑和懲罰。
替美國陸軍設計軟件的佐治亞理工學(xué)院計算機科學(xué)家羅訥德-阿金寫(xiě)了一份報告,報告認為機器人“在戰場(chǎng)可以比人類(lèi)士兵更遵守道德”。
他說(shuō),機器人“不需要保護自己”,以及可以把機器人“設計成沒(méi)有情緒,從而不會(huì )導致它們判斷失誤,或導致它們對進(jìn)行中的戰斗感到憤怒和沮喪”。
美國已在伊拉克和阿富汗使用無(wú)人駕駛飛機,還使用機器人車(chē)輛來(lái)拆除路邊炸彈和其它土制爆炸裝置。上月,美國陸軍收到一件新貨,它是由英國防務(wù)公司QinetiQ一個(gè)美國附屬公司制造的新機器人。該機器人懂得使用各種東西,包括小豆袋、胡椒噴粉、高爆炸力榴彈和七點(diǎn)六二口徑機關(guān)槍。但這代機器人全都是由人類(lèi)遙控的。
研究者現正研究“機器人士兵”,它們可以辨認目標、武器,區分敵人部隊例如坦克或武裝士兵,以及軟目標例如救護車(chē)和平民。機器人士兵的軟件,將含有各種作戰規則,這些規則都遵守日內瓦公約,會(huì )告訴機器人何時(shí)開(kāi)火。
艾倫博士對當局想盡早解決道德方面的困境表示贊賞。他說(shuō):“我們應該開(kāi)始考慮這些問(wèn)題了──如何把倫理理論輸入軟件,確保機器人行為正確,而不是等到已為時(shí)太晚才做這類(lèi)事情!

![]() |
更多>> |
|
- [個(gè)唱]范范個(gè)唱 張韶涵助陣破不和傳言
- [情感]男子街頭菜刀劫持女友
- [電影]《非誠勿擾》片花
- [國際]烏克蘭議員在國會(huì )比試拳腳
- [娛樂(lè )]庾澄慶說(shuō)沒(méi)與伊能靜離婚
- [星光]小S臺北性感代言
- [八卦]江語(yǔ)晨與周杰倫緋聞成焦點(diǎn)
- [科教]南極科考雪龍船遭遇強氣旋