
據英國《每日電訊》報12月1日報道,美國五角大樓計劃研制“有道德的”新型機器人戰士,它并不像電影《終結者》中的T-800機器殺手那樣不分青紅皂白地亂殺一氣。事實(shí)上,美國陸軍和海軍現在都聘請了道德方面的專(zhuān)家來(lái)研制機器人,以防制造出可能濫殺無(wú)辜的“機械殺人狂”。
機器戰士在道德上不犯錯
《每日電訊》的報道指出,到2010年,美國將投資40億美元進(jìn)行“自控系統”的研究,“自控系統”是美軍對新型機器人的內部稱(chēng)呼,采用這一設計的產(chǎn)品不會(huì )受到恐懼感或復仇欲望的影響,因而也不會(huì )犯道德層面上的錯誤。
目前,美國海軍已經(jīng)聘請了一名英國專(zhuān)家做顧問(wèn),研制不會(huì )違反《日內瓦公約》的下一代機器人。印第安那大學(xué)的學(xué)者柯林·艾倫剛剛出版了一本書(shū)《道德機器:教機器人分辨是非》,概述了自己對這類(lèi)問(wèn)題的觀(guān)點(diǎn)!艾F在需要得到回答的問(wèn)題是,我們能否制造出順從戰爭法的自動(dòng)武器,能否利用道德理論幫助設計這些機器人!
有關(guān)伊拉克戰爭壓力的研究顯示,占很大比例的前線(xiàn)戰士支持對敵人進(jìn)行折磨和懲罰——參與作戰的美軍戰士也是人,有時(shí)難免會(huì )判斷失誤或者受情緒影響而不守道德。針對這種現象,佐治亞理工大學(xué)的計算機專(zhuān)家唐納德·阿金寫(xiě)過(guò)一份報告,他在報告中指出,盡管機器人不會(huì )“在戰場(chǎng)上表現出完美的道德”,但卻能“比人類(lèi)士兵表現得更好”。
在阿金看來(lái),機器人“不需要保護自己”,而且“能夠被設計成沒(méi)有情緒,從而不會(huì )妨礙它們的判斷或者因戰場(chǎng)發(fā)生的事情而感到憤怒或沮喪”。
仍可能變回恐怖殺人狂?
事實(shí)上,種類(lèi)繁多的戰斗機器人早已被用于伊拉克和阿富汗戰爭,它們向敵人的目標發(fā)動(dòng)空襲,還被用來(lái)拆除路邊炸彈和其他臨時(shí)爆炸裝置。上個(gè)月,美國陸軍剛剛接收了一款由英國奎奈蒂克防務(wù)公司制造的新型機器人,它能夠使用多種武器,包括胡椒粉催淚彈、高爆榴彈以及7.62毫米口徑的子彈。
不過(guò),這一代機器人仍然是由人類(lèi)遙控的。相比之下,研究人員正在開(kāi)發(fā)的下一代“機器戰士”可以自動(dòng)識別目標和武器,并區分敵方部隊種類(lèi)(比如坦克或武裝人員)以及軟目標(比如救護車(chē)或平民)。它們的軟件中包含符合《日內瓦公約》的作戰指令,技術(shù)人員將軟件置入機器人體內,告訴它們何時(shí)開(kāi)火。
艾倫博士對軍方的做法表示贊賞:“現在應該開(kāi)始思考這種問(wèn)題了,那就是將道德理論置入軟件,保證機器人做出正確的行動(dòng),而不是等為時(shí)太晚時(shí)才做這些!卑瑐愓J為,美國軍隊想要能完全自控的機器人,因為他們目前還在用經(jīng)過(guò)嚴格訓練的人員來(lái)操縱它們。那些真正昂貴的機器人之所以處于人類(lèi)的直接控制下,主要是因為實(shí)在損失不起。他說(shuō):“一架‘捕食者’無(wú)人機需要6個(gè)人24小時(shí)控制著(zhù),我知道美國空軍已經(jīng)研制出軟件,可以訓練這種無(wú)人機的操作員。但如果計算機能夠訓練操作員的話(huà),那么最終也將可以用于控制無(wú)人機的飛行!
然而仍有一些人擔心,研制出完全不會(huì )出錯誤的機器人是不可能的。一旦發(fā)生故障,它們仍然可能變回恐怖殺人狂。謝菲爾德大學(xué)的計算機科學(xué)家諾埃爾·夏基因參與電視劇《機器人戰爭》而著(zhù)名,作為美軍計劃最強烈的批評者,他表示:“該計劃讓我脊梁骨發(fā)寒,我研究人工智能已經(jīng)幾十年了,讓機器人代替人類(lèi)作出決定,這個(gè)想法真的太可怕了!”(張貴余)

![]() |
更多>> |
|
- [個(gè)唱]范范個(gè)唱 張韶涵助陣破不和傳言
- [情感]男子街頭菜刀劫持女友
- [電影]《非誠勿擾》片花
- [國際]烏克蘭議員在國會(huì )比試拳腳
- [娛樂(lè )]庾澄慶說(shuō)沒(méi)與伊能靜離婚
- [星光]小S臺北性感代言
- [八卦]江語(yǔ)晨與周杰倫緋聞成焦點(diǎn)
- [科教]南極科考雪龍船遭遇強氣旋