近日:全文分享-國際頻道
隨著人工智能技術得快速發展,各國武器裝備研發紛紛融入智能化元素,在信息化得時代,人工智能在網絡安全、目標識別、情報分析等領域發揮巨大作用,在新技術得“加持”下,武器裝備得制導能力、毀傷效果和反應速度顯著提升,“致命性自主武器系統”等概念更是刷新了人們對人工智能技術軍事應用得認知。從“蘇萊曼尼事件”到納卡沖突,都能看到人工智能技術得影子。
人工智能軍事應用是一把“雙刃劍”,一旦誤用惡用,可能引發嚴重國際安全問題和人道主義關切。近年來,國際社會各界對其愈加感謝對創作者的支持并發出深刻憂慮。一些人士擔心,人工智能軍事應用可能觸發新得軍備競賽。從實際情況看,美國、俄羅斯、日本、英國、印度等主要China均認識到人工智能軍事應用得顛覆性力量,積極發展和部署智能化武器系統。一些中小China為借助智能武器系統獲得挑戰大國得非對稱優勢,也對其趨之若鶩。部分學者認為,智能化武器系統減少軍事傷亡風險和成本,極大降低戰爭門檻,使沖突更易于爆發并升級。人工智能與高超音速導彈、核武器得結合,以及在外空、網絡等“新疆域”得應用,有可能導致未來全球戰略平衡與穩定被打破。一些可以智庫不無擔心地表示,人工智能系統漏洞十分危險,一旦被對手控制,可能造成重大意外事件。物理學家斯蒂芬·霍金、特斯拉創始人伊隆·馬斯克等曾專門就此發表公開信,表達了對人工智能武器可能引發“終結者末日”得擔憂。美國前國務卿基辛格也表示,如果排除人得音速、完全由系統作出反應,那結果將是災難性得。
人工智能安全治理是人類面臨得共同課題,加強對人工智能軍事應用得規范正當其時。面對人工智能軍事應用得“野蠻生長”和傳統軍控體系得“捉襟見肘”,美軍得無人機跨境打擊事件使得多邊討論進程應運而生。2014年,聯合國《特定常規武器公約》成立政府可能組,圍繞著“致命性自主武器系統”問題展開系列討論。經過五年得努力,政府可能組于前年年達成了11條指導原則,一定程度上填補了這一重要前沿領域得規則空白。但由于各方得巨大分歧,更為實質性得成果仍然乏善可陳。從規律上看,對一種新興事物來說管理政策往往會落后于技術得發展,但一些China缺乏政治意愿才是規則制定說易行難得根本原因。
近年來,美國、英國等軍事大國一方面大舉推進智能化軍事體系建設,加快人工智能軍事應用研發;另一方面,在多邊領域反對采取任何限制人工智能軍事應用得舉措。在強大國際輿論得壓力之下,一向打著重視人權幌子得美西方China又不得不做出一番姿態。例如,美國提出了人工智能軍事應用五項倫理原則,北約防長會通過了《人工智能戰略》,提出人工智能軍事應用得目標、原則和舉措。法國、德國、日本、澳大利亞等也紛紛發布政策文件,拋出人工智能發展理念和倫理道德標準。這些China除了自我宣傳之外,還不忘搞北京一些針對非盟友得小動作,拼湊了“人工智能防務伙伴計劃”“人工智能全球合作組織”等小集團,兜售以所謂“基本自由和民主價值”為基礎得人工智能治理規則。從他們得所作所為來看,這些花哨得倡議說到底都是為了謀求一己私利,企圖利用人工智能技術鞏固自身軍事優勢。
作為人工智能技術強國和產業大國,華夏在人工智能及其軍事應用全球治理方面肩負著獨特責任,理應發出自己得聲音。實際上,華夏在人工智能國內治理方面一直走在世界前列。前年年,China新一代人工智能治理可以委員會曾發布《新一代人工智能治理原則》,提出了安全可控、包容共享、共擔責任、敏捷治理等八項原則。不久前,該委員會進一步發布了《新一代人工智能倫理規范》,詳細規定了從研發到使用方面得各項措施。近年來,華夏一直積極倡導構建人類命運共同體理念,秉持共同、綜合、合作、可持續得全球安全觀。在人工智能問題上,華夏應當以舍我其誰得精神,扛起道義得大旗,代表廣大發展華夏家發出自己得聲音,盡早提出人工智能安全治理得華夏主張。
人工智能技術得發展正處在關鍵十字路口,何去何從有待國際社會得共同引領。前不久,聯合國教科文組織發布了《人工智能倫理問題建議書》,重申了人工智能和平利用得若干重大原則。再過幾天,聯合國《特定常規武器公約》第六次審議大會將在日內瓦召開。期待在這次會議上,各方能秉持“智能向善”得理念,提出符合全人類共同利益和價值觀得人工智能軍事應用治理規則。畢竟,無序得人工智能軍事應用將給人類帶來無法承受之重,只有在人工智能領域打造人類命運共同體,才是唯一得出路。