2015年07月30日 (布宜諾斯艾利斯法新電)“機器人殺手”聽起來像一場科幻小說噩夢,但其實際殺傷力已引起學術界與科技業(yè)人士的關注。他們擔心這些機器人可能加劇種族滅絕和軍事力量競爭。 約1000名科技領域領導人在一封公開信中寫道:“自主武器使用人工智能來選擇目標,而無需人為干預,就像是繼火藥和核武器后的第三次戰(zhàn)爭革命?!?/p> 在信函上署名的英國科學家史蒂芬·霍金(Stephen Hawking)和蘋果公司共同創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)等為此感到不安。這是因為與無人機同不的是,這種機器人有一定的自主決策能力和行為能力。不像無人機那樣需要人工操作。 信函寫道:“今天人類的關鍵問題是,是否要開始一個全球人工智能(artificial intelligence)武器競賽,還是阻止它的啟動?!?/p> 他們在布宜諾斯艾利斯舉行的2015年人工智能國際聯(lián)合會議開幕式上公布的信函也指出:“如果任何重大軍事力量推動人工智能武器發(fā)展,全球軍備競賽幾乎是不可避免的?!?/p> 據(jù)科學家所說,自動殺人機器的想法因阿諾·施瓦辛格(Arnold Schwarzenegger)的電影《終結者》出名,正由科幻小說變?yōu)楝F(xiàn)實。 信中寫道:“這類系統(tǒng)雖不合法,但可能在數(shù)年間在現(xiàn)實中啟用,而不是幾十年?!?/p> 科學家們還描述了自主武器落入恐怖分子、獨裁者和軍閥手中后的末日情景,手持這些武器的人可能會進行種族滅絕。 信中還寫道:“人工智能可有許多用途,能使戰(zhàn)場對人類更安全,特別是平民,人類無須創(chuàng)建新的殺人工具?!?/p> 此外,科學家也指出,這種武器的發(fā)展雖可減少戰(zhàn)場傷亡的程度,但人類進入戰(zhàn)場的門檻降低了。 為此,該小組發(fā)出呼吁:“若你反對把人工智能作軍事用途,請在這封公開信上簽名。” |
|
來自: 昵稱177104 > 《IT網(wǎng)絡》