論文の概要: From Abstract Threats to Institutional Realities: A Comparative Semantic Network Analysis of AI Securitisation in the US, EU, and China
- arxiv url: http://arxiv.org/abs/2601.04107v1
- Date: Wed, 07 Jan 2026 17:12:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 02:15:23.70283
- Title: From Abstract Threats to Institutional Realities: A Comparative Semantic Network Analysis of AI Securitisation in the US, EU, and China
- Title(参考訳): 抽象的な脅威から制度的現実へ:米国、EU、中国におけるAI分離のセマンティックネットワーク分析
- Authors: Ruiyi Guo, Bodong Zhang,
- Abstract要約: 主要な司法管轄区域は、安全、リスク、説明責任といった概念を修辞的に集約するが、それらの規制の枠組みは基本的には分断され、相互に理解できないままである。
本論では, この断片化は, 地政学的対立, 制度的複雑性, 楽器選択のみでは説明できないと論じる。
セマンティック・ネットワーク分析を用いて, セマンティック・アーキテクチャに安全性などの概念が組み込まれていることを追跡した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence governance exhibits a striking paradox: while major jurisdictions converge rhetorically around concepts such as safety, risk, and accountability, their regulatory frameworks remain fundamentally divergent and mutually unintelligible. This paper argues that this fragmentation cannot be explained solely by geopolitical rivalry, institutional complexity, or instrument selection. Instead, it stems from how AI is constituted as an object of governance through distinct institutional logics. Integrating securitisation theory with the concept of the dispositif, we demonstrate that jurisdictions govern ontologically different objects under the same vocabulary. Using semantic network analysis of official policy texts from the European Union, the United States, and China (2023-2025), we trace how concepts like safety are embedded within divergent semantic architectures. Our findings reveal that the EU juridifies AI as a certifiable product through legal-bureaucratic logic; the US operationalises AI as an optimisable system through market-liberal logic; and China governs AI as socio-technical infrastructure through holistic state logic. We introduce the concept of structural incommensurability to describe this condition of ontological divergence masked by terminological convergence. This reframing challenges ethics-by-principles approaches to global AI governance, suggesting that coordination failures arise not from disagreement over values but from the absence of a shared reference object.
- Abstract(参考訳): 主要な司法管轄区域は、安全、リスク、説明責任といった概念に厳格に集結するが、彼らの規制の枠組みは基本的には分断され、相互に理解できないままである。
本論では, この断片化は, 地政学的対立, 制度的複雑性, 楽器選択のみでは説明できないと論じる。
代わりに、AIが異なる制度論理を通してガバナンスのオブジェクトとして構成されていることに由来する。
分離理論と処分の概念を統合することで, 管轄区域が同一の語彙の下で, 存在論的に異なる対象を支配していることを示す。
欧州連合(EU)、米国、中国(2023-2025)の公式政策文書のセマンティック・ネットワーク分析を用いて、安全のような概念が多種多様なセマンティック・アーキテクチャにどのように埋め込まれているかを追跡した。
米国は、市場自由論理を通じてAIを最適なシステムとして運用し、中国は、全体論的状態論理を通じて、社会技術的基盤としてAIを統治している。
本稿では, 構造的不規則性の概念を導入し, 用語的収束によって隠蔽される存在論的発散状態について述べる。
このリフレーミングは、グローバルAIガバナンスに対する倫理的なアプローチに挑戦し、協調の失敗は価値に対する不一致からではなく、共有参照オブジェクトの欠如から生じることを示唆している。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Deciding how to respond: A deliberative framework to guide policymaker responses to AI systems [0.0]
我々は自由の概念を運用することによって、補完的なアプローチを開発することができると主張している。
結果として得られるフレームワークは、コーディネート、コミュニケーション、決定空間を中心に構成されている。
論文 参考訳(メタデータ) (2025-08-05T17:25:14Z) - Epistemic Scarcity: The Economics of Unresolvable Unknowns [0.0]
我々は、AIシステムは経済調整の中核的な機能を実行することができないと主張している。
我々は、構成主義的合理主義の拡張として、支配的な倫理的AIフレームワークを批判する。
論文 参考訳(メタデータ) (2025-07-02T08:46:24Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - False Sense of Security in Explainable Artificial Intelligence (XAI) [3.298597939573779]
我々は、AI規制と現在の市場条件が効果的なAIガバナンスと安全性を脅かすと主張している。
政府は明確な立法と政策ステートメントを通じて説明可能性の問題に明示的に対処しない限り、AIガバナンスのリスクは空虚な「ボックス・ティック」のエクササイズになる。
論文 参考訳(メタデータ) (2024-05-06T20:02:07Z) - Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework [0.9622882291833615]
本稿では、人工知能(AI)を制御するための文脈的・一貫性的・包括的枠組み(3C)を提案する。
コンテキスト性を確保するため、このフレームワークはAIライフサイクルを、基礎や汎用モデルを定義するのではなく、特定のタスクの学習とデプロイという2つのフェーズに分岐させる。
コンメンサビリティを確保するため、この枠組みはリスクの測定と緩和のための国際標準の採用を促進する。
論文 参考訳(メタデータ) (2023-03-20T15:23:40Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。