論文の概要: High vs. Low AGI: Ontology and Conceptual Taxonomy for Geopolitical Coherence
- arxiv url: http://arxiv.org/abs/2510.12809v1
- Date: Mon, 06 Oct 2025 14:11:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.310785
- Title: High vs. Low AGI: Ontology and Conceptual Taxonomy for Geopolitical Coherence
- Title(参考訳): 高対低AGI:地政学的コヒーレンスのためのオントロジーと概念分類
- Authors: Antonio Max,
- Abstract要約: 本稿では,低AGIと高AGIを区別する分類法を提案する。
コンストラクショナル・レベルの理論のレンズを通して見る「ハイ・ロー・政治」という国際関係の概念に基づいている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid progression of Artificial General Intelligence (AGI) research demands conceptual tools capable of distinguishing between systems developed for open, commercial integration and those destined for sovereign, securitized deployments. Without such distinctions, risk assessments and regulatory debates collapse AGI into legacy dual-use frameworks that are ill-suited for these resources, capturing the possibility of civilian and military application but overlooking the distinct societal lineages yielded by corporate and state-grade architectures. This paper proposes a taxonomy distinguishing low-AGI and high-AGI, clarifying how commercial-economic and security-sovereign architectures can be distinguished not only by function, but by the social and political ecosystems that produce them. The taxonomy builds on international relations concepts of "high/low politics," viewed through the lens of construal-level theory, which allows it to even capture how cooperation and conflict may coexist in the context of AGI's emerging geopolitical stakes. By embedding AGI within power structures and securitization theory, this contribution extends dual-use discourse through an ontological taxonomy that enables more granular risk assessment and governance design--equipping policymakers and researchers to anticipate security dilemmas, institutional demands, and technical-political spillovers in the international system.
- Abstract(参考訳): 人工知能(AGI)の研究の急速な進歩は、オープンで商業的な統合のために開発されたシステムと、主権と分離された展開のために運命づけられたシステムとを区別できる概念的なツールを必要とする。
このような区別がなければ、リスクアセスメントや規制上の議論は、AGIをこれらの資源に不適なレガシーなデュアルユース・フレームワークに分解し、民間や軍事的応用の可能性を取り除いたが、企業や州レベルの建築によって生み出される社会的系統を見落としている。
本稿では、低AGIと高AGIを区別する分類法を提案し、商業・経済・安全保障・自治アーキテクチャが機能だけでなく、それらを生み出す社会的・政治的エコシステムによっていかに区別できるかを明らかにする。
分類学は「ハイ・ロー・政治」という国際関係の概念に基づいており、コンストラクショナル・レベルの理論のレンズを通して、AGIの新たな地政学的利害の文脈において、協力と対立がどのように共存するかを捉えることができる。
この貢献は、電力構造とセキュリゼーション理論にAGIを組み込むことによって、よりきめ細かいリスク評価とガバナンス設計を可能にするオントロジ的な分類によって、国際システムにおけるセキュリティジレンマ、制度的要求、技術的政治的流出を予想する政策立案者や研究者の獲得を通じて、二重用途の談話を拡張する。
関連論文リスト
- Pluralism in AI Governance: Toward Sociotechnical Alignment and Normative Coherence [0.16921396880325779]
この研究は、フルスタックアライメント、価値の厚みモデル、バリューセンシティブデザイン、パブリックコンスティチューションAIなどのフレームワークを合成する。
価値、メカニズム、戦略をリンクする階層化されたフレームワークを導入し、公正性対効率、透明性対セキュリティ、プライバシ対株式といった緊張関係をマッピングする。
この研究は、AIガバナンスの全体的、価値に敏感なモデルに貢献し、社会技術システムに公開価値を埋め込むための積極的なメカニズムとして規制を緩和する。
論文 参考訳(メタデータ) (2026-02-04T14:28:56Z) - From Abstract Threats to Institutional Realities: A Comparative Semantic Network Analysis of AI Securitisation in the US, EU, and China [0.0]
主要な司法管轄区域は、安全、リスク、説明責任といった概念を修辞的に集約するが、それらの規制の枠組みは基本的には分断され、相互に理解できないままである。
本論では, この断片化は, 地政学的対立, 制度的複雑性, 楽器選択のみでは説明できないと論じる。
セマンティック・ネットワーク分析を用いて, セマンティック・アーキテクチャに安全性などの概念が組み込まれていることを追跡した。
論文 参考訳(メタデータ) (2026-01-07T17:12:03Z) - Socio-technical aspects of Agentic AI [20.858222661070787]
エージェント人工知能(AI)は、インテリジェントシステムの設計における根本的な変化を表している。
最近のエージェントAIの研究は、主に技術基盤に焦点を当てている。
本稿では,中核となる技術コンポーネントと社会的文脈を明示的に結びつけるエージェントAIの社会技術的分析について述べる。
論文 参考訳(メタデータ) (2025-12-26T10:56:00Z) - World Models Should Prioritize the Unification of Physical and Social Dynamics [57.91940497010114]
本稿では、物理的・社会的予測能力の体系的・双方向統合が、世界モデル開発における次の重要なフロンティアであると主張している。
包括的世界モデルは、客観的物理法則を主観的、進化的、文脈に依存した社会力学の性質と一体的に統合する必要があると我々は主張する。
論文 参考訳(メタデータ) (2025-10-24T07:42:37Z) - Collateral Damage Assessment Model for AI System Target Engagement in Military Operations [0.0]
このモデルは、統合された知識表現と推論アーキテクチャに時間的、空間的、力的な次元を統合する。
モデルは、インスタンス化によって実証され、評価される。
論文 参考訳(メタデータ) (2025-10-23T08:36:04Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - From Firms to Computation: AI Governance and the Evolution of Institutions [0.0]
本稿は,多段階選択理論,Aoki の計算プロセスとしての企業観,Ostrom の設計原理の3つの枠組みを合成する。
我々は,AI関連のリスクに対処するアライメントメカニズムとして,選択を組織レベルで同時に運用するフレームワークを開発し,ゲーム理論アーキテクチャによる分散推論を実装し,オストロムスタイルのルールは進化する。
私たちは、組織層をまたいだ人間とAIの整合性を運用し、スケーラブルで適応的で包括的なAIシステムのガバナンスを可能にする一連の設計原則を提案して、結論付けました。
論文 参考訳(メタデータ) (2025-07-18T02:52:58Z) - Enterprise Architecture as a Dynamic Capability for Scalable and Sustainable Generative AI adoption: Bridging Innovation and Governance in Large Organisations [55.2480439325792]
生成人工知能(Generative Artificial Intelligence)は、イノベーションを促進し、多くの産業におけるガバナンスを再形成する可能性を持つ強力な新技術である。
しかし、テクノロジの複雑さ、ガバナンスのギャップ、リソースのミスアライメントなど、GenAIをスケールする上で大きな課題に直面している。
本稿では、大企業におけるGenAI導入の複雑な要件をエンタープライズアーキテクチャ管理が満たす方法について検討する。
論文 参考訳(メタデータ) (2025-05-09T07:41:33Z) - KERAIA: An Adaptive and Explainable Framework for Dynamic Knowledge Representation and Reasoning [46.85451489222176]
KERAIAはシンボリックナレッジエンジニアリングのための新しいフレームワークとソフトウェアプラットフォームである。
動的で複雑でコンテキストに敏感な環境で知識を表現、推論、実行するという永続的な課題に対処する。
論文 参考訳(メタデータ) (2025-05-07T10:56:05Z) - Beyond Accidents and Misuse: Decoding the Structural Risk Dynamics of Artificial Intelligence [0.0]
本稿では,複雑なシステム研究を基盤としたフレームワークを導入することにより,構造リスクの概念を推し進める。
構造リスクを、先行する構造的原因、先行するAIシステム原因、有害なフィードバックループの3つのカテゴリに分類する。
本稿では,これらのダイナミクスを予測し,支配するために,シナリオマッピング,シミュレーション,探索的展望を取り入れた方法論的アジェンダを提案する。
論文 参考訳(メタデータ) (2024-06-21T05:44:50Z) - Levels of AGI for Operationalizing Progress on the Path to AGI [53.28828093836034]
本稿では,人工知能(AGI)モデルとその前駆体の性能と動作を分類する枠組みを提案する。
このフレームワークは、AGIのパフォーマンス、一般性、自律性のレベルを導入し、モデルを比較し、リスクを評価し、AGIへの道筋に沿って進捗を測定する共通の言語を提供する。
論文 参考訳(メタデータ) (2023-11-04T17:44:58Z) - A multidomain relational framework to guide institutional AI research
and adoption [0.0]
我々は、AIを採用することの意味を理解することを目的とした研究努力が、ほんの一握りのアイデアだけを優先する傾向があると論じている。
本稿では,フィールド間の用語を整理する概念的枠組みとして,シンプルなポリシーと研究設計ツールを提案する。
論文 参考訳(メタデータ) (2023-03-17T16:33:01Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。