人工智慧(AI)vs國際人道法(戰爭法)
3509
post-template-default,single,single-post,postid-3509,single-format-standard,ajax_fade,page_not_loaded,,select-child-theme-ver-1.0.0,select-theme-ver-3.1,popup-menu-slide-from-left,wpb-js-composer js-comp-ver-4.11.2.1,vc_responsive

人工智慧(AI)vs國際人道法(戰爭法)

人工智慧(AI)vs國際人道法(戰爭法)

最近在幾個論壇中都遇到有關AI的討論。一般討論的內容都離不開AI如何帶來機遇,或者AI如何導致大量人口失業危機,都是一些經濟的議題。有時聽眾不禁會問,這些都不是一些老新常談的事情嗎?為何要緊張?但如果把AI這個討論放在另一個維度,例如AI武器,這樣,問題的嚴重性及思考性就應該值得大家更多的思考了。


(網上圖片)

正當全球為AI討論得火紅耳熱的同時,其實法律上對何為AIAI甚至何為武器都是沒有明確定義。我姑且嘗試界定AI武器為那些能夠作自我學習和判斷而決定攻擊與否的腦腦這樣,問題點就明確了:若果這個AI武器判斷錯誤攻擊非軍事目標,如:學校,醫院甚至平民,這個時候,誰該接受裁判呢?


(網上圖片)

當前,在戰區主要管制武裝行動及有關戰爭受難者,戰俘和戰時平民的待遇的法律依據,除了是當地法律外,就是國際法中的國際人道法,亦即是日內瓦公約或者戰爭法。整套法規建機於幾個大原則,而這些原則裁定有幾項關鍵考慮:


(網上圖片)

區分原則:在軍事行動中,軍事目標與非軍事目標要分開

比例原則:要求在攻擊平衡軍事道道人道道

禁止不必要痛苦原則:個別軍事行動否造成傷害的傷害


(網上圖片)

一直以來,日內瓦公約都是管制手持武器的人,或禁止人因運用某些大殺傷力武器而造成無謂的傷害,故此針對對象一直都是。但如果將來人類是運用電腦,機器人,甚至AI來打仗,那國際法制裁的對象應該是誰呢?如果是設計者,設計者會說他們不是下攻擊命令的。如果是軍事將官或將領,看似來道理說得通,但將官及將領也可以說,他們派出去的AI經過自我學習及進化後,已經不是在執行原定的軍事計畫,故此,他們也不該受審判。不管從什麼角度看,我們人類當前的法規都還沒有好好考慮如何規範誰該為AI違反的戰爭法行為而負責。而歷史告訴我們,每次出現違反戰爭法的情況時,都會造成大量平民傷亡。從眾多資料中我們已經可以預測,AI日離開日的日子不遠已,但可惜我們還沒還沒如何應對這個新局面。


(網上圖片)

其實,上述的困境對來說從來都不陌生。從前,地雷被廣泛運用而沒規範,造成柬埔寨,緬甸等戰區從前,沒有明確保護法規法規法規,以致大量戰俘人間蒸發或受到無謂的虐待。隨著問題發生後,才會後知後覺地立法嗎?


(網上圖片)

在商業世界主導的今天,我們常說大家都應該有預見力或洞察力去把握商機。但偏偏對我們自身傷亡的保護,人類卻不能提起勁,用用我們的預見力或和洞察力去避免無謂的犧牲。也許有人會說,規範太多會扼殺創意的發展空間,這個說法也許是對。但我個人比較喜歡傳統中國文化中的中庸之道,任何一方太偏執,都會導致我們的社會失去平衡。故此,但願家們,企業家們,國家及國際組織的領袖們能在的利益關係中取得平衡,為人類避免一次的沉重教訓。

撰文:葉維昌—紅十字國際委員會駐外代表

Jason早期任職投資銀行。於日本早稻田大學進修國際關係,獲推薦兼讀聯合國大學。其後,加入瑞士紅十字國際委員會,從事人道外交工作。曾被派駐巴勒斯坦,阿富汗等戰區,經常與非政府軍事組織接觸,處理戰事民生問題。

[編] 延伸閱讀:https://www.brookings.edu/blog/order-from-chaos/2018/04/10/how-can-international-law-regulate-autonomous-weapons/