論文の概要: From Abstract Threats to Institutional Realities: A Comparative Semantic Network Analysis of AI Securitisation in the US, EU, and China
- arxiv url: http://arxiv.org/abs/2601.04107v1
- Date: Wed, 07 Jan 2026 17:12:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 02:15:23.70283
- Title: From Abstract Threats to Institutional Realities: A Comparative Semantic Network Analysis of AI Securitisation in the US, EU, and China
- Title(参考訳): 抽象的な脅威から制度的現実へ:米国、EU、中国におけるAI分離のセマンティックネットワーク分析
- Authors: Ruiyi Guo, Bodong Zhang,
- Abstract要約: 主要な司法管轄区域は、安全、リスク、説明責任といった概念を修辞的に集約するが、それらの規制の枠組みは基本的には分断され、相互に理解できないままである。
本論では, この断片化は, 地政学的対立, 制度的複雑性, 楽器選択のみでは説明できないと論じる。
セマンティック・ネットワーク分析を用いて, セマンティック・アーキテクチャに安全性などの概念が組み込まれていることを追跡した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence governance exhibits a striking paradox: while major jurisdictions converge rhetorically around concepts such as safety, risk, and accountability, their regulatory frameworks remain fundamentally divergent and mutually unintelligible. This paper argues that this fragmentation cannot be explained solely by geopolitical rivalry, institutional complexity, or instrument selection. Instead, it stems from how AI is constituted as an object of governance through distinct institutional logics. Integrating securitisation theory with the concept of the dispositif, we demonstrate that jurisdictions govern ontologically different objects under the same vocabulary. Using semantic network analysis of official policy texts from the European Union, the United States, and China (2023-2025), we trace how concepts like safety are embedded within divergent semantic architectures. Our findings reveal that the EU juridifies AI as a certifiable product through legal-bureaucratic logic; the US operationalises AI as an optimisable system through market-liberal logic; and China governs AI as socio-technical infrastructure through holistic state logic. We introduce the concept of structural incommensurability to describe this condition of ontological divergence masked by terminological convergence. This reframing challenges ethics-by-principles approaches to global AI governance, suggesting that coordination failures arise not from disagreement over values but from the absence of a shared reference object.
- Abstract(参考訳): 主要な司法管轄区域は、安全、リスク、説明責任といった概念に厳格に集結するが、彼らの規制の枠組みは基本的には分断され、相互に理解できないままである。
本論では, この断片化は, 地政学的対立, 制度的複雑性, 楽器選択のみでは説明できないと論じる。
代わりに、AIが異なる制度論理を通してガバナンスのオブジェクトとして構成されていることに由来する。
分離理論と処分の概念を統合することで, 管轄区域が同一の語彙の下で, 存在論的に異なる対象を支配していることを示す。
欧州連合(EU)、米国、中国(2023-2025)の公式政策文書のセマンティック・ネットワーク分析を用いて、安全のような概念が多種多様なセマンティック・アーキテクチャにどのように埋め込まれているかを追跡した。
米国は、市場自由論理を通じてAIを最適なシステムとして運用し、中国は、全体論的状態論理を通じて、社会技術的基盤としてAIを統治している。
本稿では, 構造的不規則性の概念を導入し, 用語的収束によって隠蔽される存在論的発散状態について述べる。
このリフレーミングは、グローバルAIガバナンスに対する倫理的なアプローチに挑戦し、協調の失敗は価値に対する不一致からではなく、共有参照オブジェクトの欠如から生じることを示唆している。
関連論文リスト
- Pluralism in AI Governance: Toward Sociotechnical Alignment and Normative Coherence [0.16921396880325779]
この研究は、フルスタックアライメント、価値の厚みモデル、バリューセンシティブデザイン、パブリックコンスティチューションAIなどのフレームワークを合成する。
価値、メカニズム、戦略をリンクする階層化されたフレームワークを導入し、公正性対効率、透明性対セキュリティ、プライバシ対株式といった緊張関係をマッピングする。
この研究は、AIガバナンスの全体的、価値に敏感なモデルに貢献し、社会技術システムに公開価値を埋め込むための積極的なメカニズムとして規制を緩和する。
論文 参考訳(メタデータ) (2026-02-04T14:28:56Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Deciding how to respond: A deliberative framework to guide policymaker responses to AI systems [0.0]
我々は自由の概念を運用することによって、補完的なアプローチを開発することができると主張している。
結果として得られるフレームワークは、コーディネート、コミュニケーション、決定空間を中心に構成されている。
論文 参考訳(メタデータ) (2025-08-05T17:25:14Z) - Epistemic Scarcity: The Economics of Unresolvable Unknowns [0.0]
我々は、AIシステムは経済調整の中核的な機能を実行することができないと主張している。
我々は、構成主義的合理主義の拡張として、支配的な倫理的AIフレームワークを批判する。
論文 参考訳(メタデータ) (2025-07-02T08:46:24Z) - Resource Rational Contractualism Should Guide AI Alignment [69.07915246220985]
契約主義的アライメントは、多様な利害関係者が支持する合意の中で決定を下すことを提案する。
我々は、AIシステムが合理的な当事者が形成する合意を近似する枠組みであるリソース・リアリズムを提案する。
RRC対応エージェントは、効率的に機能するだけでなく、変化する人間の社会世界への適応と解釈を動的に行うことができる。
論文 参考訳(メタデータ) (2025-06-20T18:57:13Z) - Unlocking the Black Box: Analysing the EU Artificial Intelligence Act's Framework for Explainability in AI [0.0]
eXplainable AI(XAI)の必要性は、医療、信用スコアリング、警察、刑事司法制度などの分野において明らかである。
EUレベルでは、説明可能性の概念は、AI法を支える基本的な原則の1つである。
本稿では,AIガバナンスと政策における説明可能性の原則を実装する上での課題とともに,XAIの推進を約束する様々なアプローチとテクニックについて考察する。
論文 参考訳(メタデータ) (2025-01-24T16:30:19Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - False Sense of Security in Explainable Artificial Intelligence (XAI) [3.298597939573779]
我々は、AI規制と現在の市場条件が効果的なAIガバナンスと安全性を脅かすと主張している。
政府は明確な立法と政策ステートメントを通じて説明可能性の問題に明示的に対処しない限り、AIガバナンスのリスクは空虚な「ボックス・ティック」のエクササイズになる。
論文 参考訳(メタデータ) (2024-05-06T20:02:07Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework [0.9622882291833615]
本稿では、人工知能(AI)を制御するための文脈的・一貫性的・包括的枠組み(3C)を提案する。
コンテキスト性を確保するため、このフレームワークはAIライフサイクルを、基礎や汎用モデルを定義するのではなく、特定のタスクの学習とデプロイという2つのフェーズに分岐させる。
コンメンサビリティを確保するため、この枠組みはリスクの測定と緩和のための国際標準の採用を促進する。
論文 参考訳(メタデータ) (2023-03-20T15:23:40Z) - The Role of Large Language Models in the Recognition of Territorial
Sovereignty: An Analysis of the Construction of Legitimacy [67.44950222243865]
Google MapsやLarge Language Models (LLM)のような技術ツールは、しばしば公平で客観的であると見なされる。
我々は、クリミア、ウェストバンク、トランスニトリアの3つの論争領域の事例を、ウィキペディアの情報と国連の決議に対するChatGPTの反応を比較して強調する。
論文 参考訳(メタデータ) (2023-03-17T08:46:49Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。