2025年9月7日(星期日):叁壹智能新聞
- trilogieshk
- 9月7日
- 讀畢需時 3 分鐘

在當今國際政局中,科技發展尤其在軍事及操控領域,已成為決定性因素。Artificial intelligence (AI) 及相關技術不僅重塑了軍事戰略,更影響全球權力平衡。根據最新分析,美國與中國在AI軍事領域的競爭正加劇,可能導致新一輪軍備競賽,而俄羅斯則透過AI強化其網絡戰及無人機能力。 聯合國及歐盟等國際組織呼籲制定規範,以減低AI在軍事應用的風險,但地緣政治分歧令進展緩慢。
回顧2025年上半年,美國國防部持續推動AI整合進軍事系統。美國的《AI Action Plan》強調負責任使用AI於軍事領域,避免lethal autonomous weapons systems (LAWS) 引發倫理危機。 例如,美國太空部隊計劃將AI嵌入日常操作,提升作戰效率,但同時面臨中國及俄羅斯的挑戰。 美國情報機構在2025年全球威脅評估中指出,中國的軍事現代化整合AI、量子科技及定向能量武器,透過軍民融合策略,增強精準打擊能力。 此舉不僅提升中國在亞太地區的影響力,更挑戰美國的全球霸權。
在亞太地區,中國的AI軍事應用備受關注。中國人民解放軍的「智能化戰爭」理論視AI為核心,涵蓋決策、目標鎖定及部隊部署。 2025年,中國加速主權AI發展,優先軍事應用及內部資訊控制,預計至2030年實現全面智能化。 據報告,中國在無人系統及AI上領先,可能改變全球安全格局。 美國回應以出口管制,限制中國獲取先進半導體,擔憂其增強軍事AI能力。 此外,中國與俄羅斯的軍事技術合作日益密切,形成反西方聯盟,涵蓋AI導彈系統及cyber warfare tools。
俄羅斯亦積極參與AI軍備競賽。儘管受國際制裁影響,俄羅斯持續追求先進軍事技術,包括AI導彈系統及網絡戰工具。 在烏克蘭衝突中,俄烏雙方競相開發AI/ML無人機,提升自主性及戰場分析。 俄羅斯利用AI散播假新聞,干預選舉及操控資訊流,構成操控領域的威脅。 聯合國2025年報告顯示,俄羅斯可能在2026年實現AI無人機大規模部署。 此發展加劇歐亞地區緊張,影響歐盟的安全策略。
歐洲方面,歐盟正推動AI治理框架,試圖在軍事應用中注入人文價值,但面臨內部分歧。歐盟的《Defence and Artificial Intelligence》白皮書強調地緣政治競爭引發AI軍備競賽,呼籲制定國際標準。 英國國防趨勢2025報告強調擴大AI使用、加強網絡安全及分散指揮控制。 然而,歐盟的監管可能限制創新,與美國的靈活策略形成對比。德國及法國領導人呼籲制定國際條約,規管AI武器化,但進展緩慢。
在中東,伊朗的AI發展聚焦於無人機及網絡操控,結合俄羅斯技術,挑戰美國在中東的霸權。最新報告顯示,伊朗正利用AI優化導彈技術,繞過導彈技術控制條約。 以色列則在加沙衝突中使用AI系統如Lavender,展示AI在戰場上的實際應用,但引發倫理爭議。
在操控方面,AI用於資訊戰及社會控制日益顯著。中國的監控系統結合AI面部識別,擴大至全球,影響一帶一路國家。 俄羅斯及中國的AI驅動宣傳及deepfake技術,顯著提升虛假資訊的規模及精準度。 美國情報機構警告,AI可能引發地緣政治不穩定,導致國際衝突。 X平台用戶討論顯示,公眾對AI軍事化的擔憂上升,有人預測AI將重塑戰爭邊界,強調人類控制的重要性。 另一用戶指出,AI無人機將使傳統軍隊過時,但可能使衝突如電玩般脫離人性。
倫理風險不容忽視。軍事AI的發展可能導致戰爭升級、武器擴散及國際法挑戰。 聯合國呼籲至2026年制定禁令,禁止無人類監督的LAWS。 操作風險包括AI系統的可靠性及易受攻擊性,而戰略風險則涵蓋AI增加戰爭可能性及擴散至惡意行為者。 蘭德公司報告強調,軍事AI的倫理關注在不確定世界中尤為重要。
總體而言,科技在軍事及操控的發展正加劇全球分裂。國際社會需制定統一規範,以避免AI成為破壞性力量。香港作為亞太樞紐,應關注此趨勢對區域穩定的影響,推動中立對話,維護多邊主義。參考資料包括聯合國報告、蘭德分析及Brookings研究、
本文合共約1380字。
叁壹智能新聞
References:
- https://www.rand.org/pubs/perspectives/PEA4189-1.html
- https://www.justsecurity.org/119966/what-us-china-ai-plans-reveal/
- https://www.chinausfocus.com/finance-economy/us-and-chinese-ai-strategies-competing-global-approaches
- https://academic.oup.com/ia/article/101/2/677/7976648
- https://www.tandfonline.com/doi/full/10.1080/14650045.2025.2456019
- https://www.cigionline.org/articles/militarizing-ai-how-to-catch-the-digital-dragon/
- https://www.europarl.europa.eu/RegData/etudes/BRIE/2025/769580/EPRS_BRI%282025%29769580_EN.pdf
- https://www.ainvest.com/news/assessing-strategic-implications-china-military-modernization-global-defense-tech-sectors-2509/
- https://cepa.org/comprehensive-reports/partnership-short-of-alliance-military-cooperation-between-russia-and-china/
- https://www.wilsoncenter.org/article/americas-ai-strategy-playing-defense-while-china-plays-win
- https://www.taylorwessing.com/en/interface/2025/defence-tech/ethics-and-regulation-of-ai-in-defence-technology
- https://www.diplomacy.edu/blog/why-military-ai-needs-urgent-regulation/
- https://internationalpolicy.org/publications/military-ai-challenges-human-accountability/
- https://2021-2025.state.gov/political-declaration-on-responsible-military-use-of-artificial-intelligence-and-autonomy/
- https://news.un.org/en/story/2025/06/1163891
- https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI%282025%29769580
- https://www.rand.org/pubs/working_papers/WRA4004-1.html
- https://www.rand.org/pubs/external_publications/EP70978.html
- https://news.un.org/en/story/2025/04/1161921
- https://www.youtube.com/watch?v=gxBd4IPgIbw&feature=youtu.be
- https://cepa.org/comprehensive-reports/sino-russian-convergence-in-foreign-information-manipulation-and-interference/
- https://www.rusi.org/explore-our-research/publications/commentary/can-ai-help-russia-decisively-improve-its-information-war-against-west
- https://www.nature.com/articles/d41586-025-02271-w
- https://www.nato-pa.int/document/2025-chinese-disinformation-report-teitelbaum-011-cdsrcs
- https://www.rusi.org/explore-our-research/publications/emerging-insights/russia-ai-and-future-disinformation-warfare
- https://www.geopoliticalmonitor.com/converging-revolutions-how-drones-and-ai-drive-the-future-of-warfare/
[post:55] - https://x.com/masflov/status/1964371926169612397




留言