亚洲网站免费_国产一区二区三区在线看麻豆 _国产精品毛片一区二区三区 _麻豆精品网站

業界呼吁抵制人工智能武器 但真正危險的還是人類

2017-08-24 10:16:42 來源:鈦媒體 熱度:
業界呼吁抵制人工智能武器,但真正危險的還是人類

 

硅谷鋼鐵俠持續在行動,馬斯克又一次對人工智能威脅發起了“人類的反擊”

這次的新聞,是馬斯克聯合Deepmind三位聯合創始人之一穆斯塔法·蘇萊曼,以及116位人工智能專家與企業CEO,共同給聯合國寫了封公開信。內容是提醒聯合國有關部門警惕人工智能武器這個“戰爭領域的第三次革命”。

公開信中認為,智能化、自動化的致命武器科技是一個“潘多拉魔盒”,一旦打開人類將很難將其合上。

事實上這不是馬斯克第一次發表類似的公開信。兩年前,馬斯克曾經聯合霍金等一千多位科學家,提醒聯合國有關部門將人工智能武器加入《特定常規武器公約》的禁用武器名錄。

雖然馬斯克經常被人指責對人工智能過分小心。但獲得如此多業界人士的支持,控制人工智能武器的意義絕非空穴來風。

相比于“超級智能取代人類”這種遙不可及的命題,人工智能武器化帶來的危險,已經貨真價實的來到了我們身邊。

業界呼吁抵制人工智能武器,但真正危險的還是人類

 

(運用多種AI技術的英國“雷神”無人機)

可能是太多的科幻電影,讓我們形成了對所謂人工智能武器的常識性偏見。提起人工智能武器我們會覺得非常遙遠——但事實遠非如此。

不會出現“終結者”,真正危險的是人類

想要了解人工智能武器,我們必須首先破除對《終結者》等電影的固有認知。包括這次業界聯名發表的公開信,國內還是有很多媒體解讀為“AI界呼吁警惕機器人殺手”。行文中依舊把人工智能武器等同于“會殺人的超級人工智能”。

這是明顯的常識謬誤。首先有自主情感、思維,又能戰斗的人工智能實在遠在天邊,可能數百年內都沒有擔憂它的必要。其次即使真的有這樣的智能體,是不是會給人類造成威脅也未可知。

真正危險的,始終都是人類本身。

所謂的人工智能武器,可以理解為將人工智能的識別、感知、自主化技術特征加入武器系統里產生的結果。這是一個非常寬泛的含義。

舉例來說,使用人工智能技術的無人駕駛車,如果被不法分子修改了系統指令,按照其設計行駛到特定區域,在人群中橫沖直撞。那么這輛車就是一件人工智能武器。并且使用代價極低,造成破壞巨大。

業界呼吁抵制人工智能武器,但真正危險的還是人類

 

人工智能運用在武器上,其實跟人工智能運用到工業生產里沒有本質區別。真正的改變在于武器的自動化程度會提升到新的級別。

目前已知正在研究的人工智能武器包括七大分類:進遠程自動射擊機器人、智能無人機系統、無人艦船與潛艇、自主射擊陸戰武器、智能導彈體系、網絡攻擊與衛星攻擊武器。

已知參與人工智能等技術軍事化的國家政府與企業也十分龐雜。很多無人機、安防機器人的技術已經很難區分軍用與民用的界限。加上人工智能武器系統的非標準化生產,給武器流出與破解帶來了巨大隱患。

凡此種種,是人工智能武器的真正威脅所在。

人工智能武器的越界與尷尬

1981年簽署的聯合國《特定常規武器公約》中,對于禁用武器的標準做了兩種特征規定:一是武器本身過度不人道,比如激光致盲武器;二是本身具有濫殺濫傷作用,比如戰時大量布置地雷,給戰后平民帶來反復的生存威脅。

基于這兩點,地雷、餌雷、燃燒武器、激光致盲武器等非大規模殺傷武器被列為了人類禁用武器。在人工智能武器并不能產生巨大殺傷力的今天,它的越界之處在于其本身存在的濫殺濫傷能力可能擴散。甚至操作適當的話,人工智能武器可能引發人道危機。

比如說在2015年著名的黑客集會“黑帽子大會”上,就有研究人員現場展示通過無線控制器黑進了智能狙擊步槍。這種武器可以智能測算風速、距離、開火時機等等因素,即使沒開過槍的人也能輕易打中目標。而一旦黑客掌握了這種武器,那么狙擊刺殺可以很輕易在萬里之外操控,并且難以追查。

想象一下,原本需要訓練數十年的狙擊手和昂貴的狙擊設備,現在一個黑客一部手機就搞定了。如此低的代價,社會安全從何談起?

業界呼吁抵制人工智能武器,但真正危險的還是人類

 

這也是科學家和企業家所真正擔心的:原本用來改善世界的技術,卻可以在幾個翻轉之后成為廉價、易得、難以控制的殺傷力源頭,可說是對原本不安全的地球又一次重創。

人工智能武器化,或者說武器進行“人工智能+”的進程里,最尷尬的地方在于技術加持軍備是個不可逆的過程。現代軍事本身追求的就是投入更少的人、達到更高的精準度和效率,如何能放任武器自動化的果實而不摘呢?

但相比于技術道路上的尷尬,人工智能武器最讓人擔憂的地方來源于兩個“深層危險”

危險1:戰爭門檻無限降低

人工智能介入戰爭與軍事,帶來的核心改變就是戰爭中的人力需求在快速萎縮。但很少的人就能發動戰爭可能在某些時候并非好事。

比如人工智能武器被恐怖主義和極端勢力使用。原本需要大量人員來執行的任務如果可以通過一定的技術與很少的人來替代。那么恐怖主義裸露在地表的最后一塊痕跡也將消失。

試想假如三兩個瘋狂的技術人員,就可以在遠端遙控數十臺自動射擊的槍械機器人、上百臺無人駕駛車輛,并且能把任何角落作為基地。那么恐怖主義將可以在難以琢磨的角落伸出利爪。

無人設備可以發動襲擊,同時也能成為集權統治工具。比如獨裁政府或者極端勢力可以在全國反對的情況下,依靠少量人員和自動武器系統控制局面,那顯然不是什么美好畫面。

業界呼吁抵制人工智能武器,但真正危險的還是人類

 

人工智能的介入,也讓武器和戰爭越來越多元。比如將無人機、無人車、城市系統等智能體轉化為武器,危險系數恐怕比傳統武器要高很多。再比如人工智能虛擬武器的出現,可能發動直接摧毀民生基礎設施的物聯網戰爭。

暴力機器能夠確保社會穩定,在于它的難以掌握和珍貴性。人工智能武器一旦泛濫,很可能把戰爭門檻無限降低。那么小到滋生社會暴力和恐怖主義,大到威脅國際軍事秩序,都不是難以想象之事。

危險2:城市與人群成為核心目標

另一個讓人汗毛炸立的想象,在于人工智能武器帶來的無人化和自動化升級,很有可能改寫戰爭這件事本身的目的。

從古代戰爭到現代戰爭,軍事行為的核心目的都是消滅對方有生力量,占有對方資源。這個邏輯里,平民所在的生活與生產區域應該是占領的而非毀滅的。

但如果大量自動化武器成為軍備的主軸,那么所謂的“有生力量”概念將被重寫。由于軍事人員大大減少,那么軍事力量的核心將是軍備生產能力。而在人工智能時代,工業體系生產將是需要各種技術生產集成化的,換言之軍事生產能力將散落各處——于是平民集中區或許史無前例的成為了首要軍事目標。

業界呼吁抵制人工智能武器,但真正危險的還是人類

 

除了這個核心邏輯的改變,自動化武器的高效殺傷和無道德判斷也可能極大增加戰中平民傷亡。即使不考慮戰爭這種極端情況,人工智能武器作為偵查工具、監控工具,也可能威脅平民的隱私與信息、財產安全。

迫在眉睫的任務:制定無人戰游戲規則

雖然人工智能領域的從業者很多都看見了AI與軍事相結合可能帶來的失控。但無論何種具體的武器禁用條約,實質上都難以阻擋現代戰爭無人化的巨浪。

人工智能等前沿技術,會極大消弭掉軍事訓練成本、人員后勤成本,并且在無數領域提高軍事效率,這對于任何軍事實體都是必須擁抱的未來。

畢竟現代戰爭本質上就是更少的人和更大的殺傷,人工智能只是又一次蛻變的助推劑而已。

但是呼吁國際社會提早引起重視,正視人工智能武器可能帶來的威脅絕對是有道理的。畢竟最直接的威脅來自于新技術外流和泛濫,甚至成為犯罪的幫兇。

目前對于人工智能武器和無人武器,最重要的任務是從頭開始制定游戲規則。首要工作來自三方面:

1、完整描繪人工智能武器的種類與界限。

2、明確人工智能等新型軍事技術與已研發武器體系的控制權、監督權,建立合理的看管機制。

3、重新認識和理解戰爭的倫理——這是最困難的一點,但必然是接下來漫長時間里戰爭學的主旋律之一。

人工智能的優勢和問題,都在于它實在太底層了,太容易與各種東西結合并產生變化。對待兩極化的技術,就有賴于全人類走鋼絲的能力。

AI僅僅是工具,但我們很難相信它在未來能免于作惡。深淵已開,重點是我們能在深淵里行舟架橋,還是深陷其中,變成深淵本身?

責任編輯:饒軍

主站蜘蛛池模板: 盘锦市| 赞皇县| 芜湖市| 金川县| 元江| 黄平县| 四平市| 大新县| 阳城县| 美姑县| 绵竹市| 稻城县| 徐水县| 景德镇市| 井陉县| 广西| 洛隆县| 岑溪市| 高密市| 宜兰市| 淮南市| 济源市| 桐柏县| 吉木萨尔县| 云梦县| 开平市| 红河县| 襄樊市| 会同县| 吉首市| 友谊县| 玛曲县| 宁武县| 南昌县| 盐城市| 乌鲁木齐市| 堆龙德庆县| 文成县| 察隅县| 大连市| 射阳县|