人工智慧 Archives - 太平山青年商會
209
archive,tag,tag-209,theme-stockholm,woocommerce-no-js,ajax_fade,page_not_loaded,,select-child-theme-ver-1.0.0,select-theme-ver-3.1,popup-menu-text-from-top,wpb-js-composer js-comp-ver-4.11.2.1,vc_responsive

人工智慧

【會員投稿 – AI】

隨著人工智慧 (AI) 和大型語言模型 (LLM) 的快速發展,它們在各個領域的應用也越來越廣泛。AI 和 LLM 已經成為當今科技發展的熱門話題,並在各個領域發揮著重要作用。 最近,AI 和 LLM 在各個領域都有著眾多的應用案例。例如,在自然語言處理領域,LLM 被用於開發聊天機器人、機器翻譯和文本摘要等應用。在圖像處理領域,AI 被用於開發圖像識別、圖像分類和圖像生成等應用。在語音處理領域,AI 被用於開發語音識別、語音合成和語音控制等應用。在機器學習領域,AI 被用於開發機器學習算法、機器學習模型和機器學習平台等應用。 以上是用AI生成的簡介段落。可以看到現在的AI只要用適當的指示便可以以幾秒的時間做到平常可能要幾分鐘甚至幾小時的工作,為我們帶來很多的便利。但AI是否真的可以完全地幫我們把工作完成,這個問題由上年由OpenAI 公司推出的ChatGPT受到全球關注後得到前所未有的討論,甚至有人以ChatGPT 和電影「鋼鐵俠」中的全能AI Jarvis作出對比。那到底現時現實中的AI可以做到多少?首先我們先看看現時最主流有什麼AI和它們可以做到什麼。 幾年前最普及的AI應該就是手機上的個人助理如Apple的Siri及Android的Google Assistant。有用過的用家應該都會覺得這類個人助理的確可以簡單地用指令讓它自己做一些簡單的操作如設定鬧鐘等等,但要它做一些比較複雜的操作(如分析文件)就做不到了,與電影中的Jarvis還有很大的距離。由ChatGPT 上年受到關注後,短短一年內出現了很多比起手機個人助理更「能幹」的AI。ChatGPT、Bard這類AI可以理解人類語言,再以本身巨大的數據庫及用戶提供的資訊(最近的更新更可以在互聯網上)找資料再重組為容易明白的言語再回答用家的問題。這些AI可以做到以前做不到與人類對答,最主要是大型語言模型 (LLM)的技術更為成熟。除了文字上的對答,現時也有AI可以根據用家的指令生成圖像(如OpenAI 的Dall-E)、音樂及影片。早前(到這編文章刊載時可能還是)非常火爆的AI歌手就是用家提供歌手本身的聲音(訓練資料),AI分析後再套用到不同用家的聲音做成變音的效果。 看來現時的AI已經又再接近Jarvis了,但AI真的可以取代我們的工作嗎?答案是短期內都不會。AI作為輔助可以是很好的幫手,但AI還有很多未完善的地方。例如你提供一個非常多字的文件讓AI分析,你如果只問它一句「幫我分析這編文章」,它會幫你寫出文章的一些重點,但詳細的資訊很大機會會被忽略(因為它不知道那些資訊你覺得重要)。現時要AI準確地分析,可能用家須要連續發問,每次發問都只問一些相對簡單的問題。例如你讓AI分析一份電器說明書,不要直接問「我的電視壞了,要怎麼辦」,試試問它「說明書內哪部分有資料關於電視未能開機」,它答到初步答案後可以再問「電視機未能開機的處理方法」。把複雜問題分開為幾題簡單問題,一步步地讓AI「思考」要回答什麼,這叫做提示工程(Prompt Engineer),現時的AI要做出有用的答案,很多時都須要這種技術,所以AI要像Jarvis一樣只要跟它說一句就等它完成工作,應該還有很遠的距離。 以上都只是一些個人分析及觀點,當然不同的AI工具也可能會有不同的性能,作出的反應也會不同。最後一個少少的個人經驗,AI的答案也未必是100%正確。自己作為編程員,大部分時間問AI產生的程式碼也有問題,須要修改,甚至有時完全錯誤(非常無奈),所以問AI得出的答案可以作為參考,但不能完全依賴AI。 撰文:唉鐵捌加壹

人工智慧(AI)vs國際人道法(戰爭法)

最近在幾個論壇中都遇到有關AI的討論。一般討論的內容都離不開AI如何帶來機遇,或者AI如何導致大量人口失業危機,都是一些經濟的議題。有時聽眾不禁會問,這些都不是一些老新常談的事情嗎?為何要緊張?但如果把AI這個討論放在另一個維度,例如AI武器,這樣,問題的嚴重性及思考性就應該值得大家更多的思考了。 (網上圖片) 正當全球為AI討論得火紅耳熱的同時,其實法律上對何為AI,AI甚至何為武器都是沒有明確定義。我姑且嘗試界定AI武器為那些能夠作自我學習和判斷而決定攻擊與否的腦腦這樣,問題點就明確了:若果這個AI武器判斷錯誤攻擊非軍事目標,如:學校,醫院甚至平民,這個時候,誰該接受裁判呢? (網上圖片) 當前,在戰區主要管制武裝行動及有關戰爭受難者,戰俘和戰時平民的待遇的法律依據,除了是當地法律外,就是國際法中的"國際人道法",亦即是"日內瓦公約"或者"戰爭法"。整套法規建機於幾個大原則,而這些原則裁定有幾項關鍵考慮: (網上圖片) 區分原則:在軍事行動中,軍事目標與非軍事目標要分開 比例原則:要求在攻擊平衡軍事道道人道道 禁止不必要痛苦原則:個別軍事行動否造成傷害的傷害 (網上圖片) 一直以來,"日內瓦公約"都是管制手持武器的人,或禁止人因運用某些大殺傷力武器而造成無謂的傷害,故此針對對象一直都是'人'。但如果將來人類是運用電腦,機器人,甚至AI來打仗,那國際法制裁的對象應該是誰呢?如果是設計者,設計者會說他們不是下攻擊命令的。如果是軍事將官或將領,看似來道理說得通,但將官及將領也可以說,他們派出去的AI經過自我學習及進化後,已經不是在執行原定的軍事計畫,故此,他們也不該受審判。不管從什麼角度看,我們人類當前的法規都還沒有好好考慮如何規範誰該為AI違反的戰爭法行為而負責。而歷史告訴我們,每次出現違反戰爭法的情況時,都會造成大量平民傷亡。從眾多資料中我們已經可以預測,AI日離開日的日子不遠已,但可惜我們還沒還沒如何應對這個新局面。 (網上圖片) 其實,上述的困境對來說從來都不陌生。從前,地雷被廣泛運用而沒規範,造成柬埔寨,緬甸等戰區從前,沒有明確保護法規法規法規,以致大量戰俘人間蒸發或受到無謂的虐待。隨著問題發生後,才會後知後覺地立法嗎? (網上圖片) 在商業世界主導的今天,我們常說大家都應該有預見力或洞察力去把握商機。但偏偏對我們自身傷亡的保護,人類卻不能提起勁,用用我們的預見力或和洞察力去避免無謂的犧牲。也許有人會說,規範太多會扼殺創意的發展空間,這個說法也許是對。但我個人比較喜歡傳統中國文化中的中庸之道,任何一方太偏執,都會導致我們的社會失去平衡。故此,但願家們,企業家們,國家及國際組織的領袖們能在的利益關係中取得平衡,為人類避免一次的沉重教訓。 撰文:葉維昌—紅十字國際委員會駐外代表 Jason早期任職投資銀行。於日本早稻田大學進修國際關係,獲推薦兼讀聯合國大學。其後,加入瑞士紅十字國際委員會,從事人道外交工作。曾被派駐巴勒斯坦,阿富汗等戰區,經常與非政府軍事組織接觸,處理戰事民生問題。 延伸閱讀:https://www.brookings.edu/blog/order-from-chaos/2018/04/10/how-can-international-law-regulate-autonomous-weapons/