論文の概要: The Digital Gorilla: Rebalancing Power in the Age of AI
- arxiv url: http://arxiv.org/abs/2602.20080v1
- Date: Mon, 23 Feb 2026 17:46:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.933675
- Title: The Digital Gorilla: Rebalancing Power in the Age of AI
- Title(参考訳): デジタルゴリラ:AI時代における権力の再バランス
- Authors: M. Alejandra Parra-Orlandoni, Roxanne A. Schnyder, Christopher J. Mallet,
- Abstract要約: 第4条では、このようなシステムを第4の社会的アクターとして扱うことにより、AIガバナンスの概念的基盤を提供する。
このフレームワークは、これらのアクター間の5つのパワーモダリティ間の電力の流れをマッピングするフォー・ソシエタル・アクター・フレームワークを開発している。
連邦化され多中心的なガバナンスアーキテクチャを推進し、動的チェックとバランスを制度化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Contemporary artificial intelligence (AI) policy suffers from a basic categorical error. Existing frameworks rely on analogizing AI to inherited technology types -- such as products, platforms, or infrastructure -- and in doing so generate overlapping, often contradictory governance regimes. This "analogy trap" obscures a fundamental transformation: certain advanced AI systems no longer function solely as instruments through which existing institutions exercise power, but as de facto centers of power that shape information, coordinate behavior, and structure social and economic realities at scale. This article offers a new conceptual foundation for AI governance by treating such systems as a fourth societal actor -- what we term the "Digital Gorilla" -- alongside People, the State, and Enterprises. It develops a Four Societal Actors framework that maps how power flows among these actors across five power modalities (economic, epistemic, narrative, authoritative, physical) and uses this map to diagnose where AI capabilities disturb established allocations of authority, concentrate power, or erode accountability. Drawing on constitutional principles of separated powers and federalism, the article advances a federalized, polycentric governance architecture and institutionalizes dynamic checks and balances among the four actors, rather than today's more reactive and compliance-driven approaches. Reframing AI governance in this way shifts the inquiry from how to control a risky technology to how to design institutions capable of accommodating these increasingly powerful and autonomous digital systems without sacrificing democratic legitimacy, the rule of law, or the production of public goods, and it recasts familiar debates in administrative, constitutional, and corporate law as questions of power allocation in a four-actor system.
- Abstract(参考訳): 現代の人工知能(AI)政策は、基本的な分類上の誤りに悩まされている。
既存のフレームワークは、製品やプラットフォーム、インフラストラクチャといった、継承された技術タイプにAIを類似させることに依存しています。
ある種の先進的なAIシステムは、既存の機関が力を行使する機器としてだけでなく、情報の形成、行動のコーディネート、大規模社会と経済の現実を構造化する事実上の権力の中心としてのみ機能する。
この記事では、人々、国家、企業と共に、このようなシステムを第4の社会的アクターとして扱うことで、AIガバナンスの新たな概念基盤を提供する。
このフレームワークは、これらのアクター間の5つのパワーモダリティ(経済、疫学、物語、権威、身体)のパワーフローをマッピングし、このマップを使用して、AI能力が確立された権限割り当て、集中力、またはゼロ説明責任を妨げているかを診断する。
分離された権力と連邦主義の憲法原則に基づいて、この記事は連邦化された多中心のガバナンスアーキテクチャを推進し、今日のよりリアクティブでコンプライアンス駆動のアプローチではなく、4人のアクター間の動的チェックとバランスを制度化している。
この方法でAIガバナンスを緩和することは、リスクの高い技術をいかに制御するかから、民主的正当性や法の支配、公共財の生産を犠牲にすることなく、ますます強力で自律的なデジタルシステムを収容できる制度を設計する方法へと移行し、四段階のシステムにおける権限配分に関する問題として、行政、憲法、企業法に関する精通した議論を再考する。
関連論文リスト
- Algorithmic Governance in the United States: A Multi-Level Case Analysis of AI Deployment Across Federal, State, and Municipal Authorities [0.0]
この研究は、米国における連邦、州、自治体のレベルでAIがどのように使われているかを調べる。
連邦政府レベルでは、AIは多くの場合、高いコントロールのためのツールとして制度化されている。
州政府は、AIがしばしば支援機能とアルゴリズムのゲートキーピングを組み合わせた、よりあいまいな中核を占有している。
論文 参考訳(メタデータ) (2026-02-09T14:36:32Z) - Will Power Return to the Clouds? From Divine Authority to GenAI Authority [0.2864713389096699]
ジェネレーティブAIシステムは、ニュースフィード、検索ランキング、クリエイティブコンテンツを数億人のユーザー向けに仲介する。
本稿では,現代におけるBig-Techコンテンツモデレーションを取り入れた,事務知識制御のタッチストーンであるGalileo Affairについて概説する。
論文 参考訳(メタデータ) (2025-11-27T18:59:44Z) - Democracy-in-Silico: Institutional Design as Alignment in AI-Governed Polities [2.1485350418225244]
デモクラシー・イン・シリコ(Democracy-in-Silico)は、先進的なAIエージェントの社会が異なる制度の枠組みの下で自らを統治するエージェントベースのシミュレーションである。
我々は、大規模言語モデル(LLM)を課題とし、外傷性記憶、隠れた議題、心理的トリガーを持つエージェントを具現化することによって、AI時代の人間であることの意味を探求する。
我々は、エージェントが公共福祉よりも自らの権限を優先する不整合行動の定量化を目的として、新しい指標であるPPI(Power-Preservation Index)を提案する。
論文 参考訳(メタデータ) (2025-08-27T04:44:41Z) - Societal and technological progress as sewing an ever-growing, ever-changing, patchy, and polychrome quilt [44.522343543870804]
我々は、道徳的多様性の持続性を見落としているようなシステムが、抵抗を引き起こし、信頼を失わせ、制度を不安定化するのではないかと心配している。
理想的な条件下では、合理的なエージェントは単一の倫理上の会話の限界に収束するという考えである。
我々は、この前提をオプション的かつ疑わしいものとみなし、紛争理論、文化進化、マルチエージェントシステム、制度経済学に基づく代替アプローチとして、適切性枠組みと呼ぶものを提案する。
論文 参考訳(メタデータ) (2025-05-08T12:55:07Z) - Artificial Intelligence in Government: Why People Feel They Lose Control [44.99833362998488]
行政における人工知能の利用は急速に拡大している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、デリゲートの特別事例として、AI導入に関するプリンシパル・エージェント理論を適用します。
論文 参考訳(メタデータ) (2025-05-02T07:46:41Z) - Authoritarian Recursions: How Fiction, History, and AI Reinforce Control in Education, Warfare, and Discourse [0.0]
論文は、AIシステムが教育、戦争、デジタル談話の機関的制御を統合する方法を理論的に論じている。
ケーススタディはオーウェルのtextitNineteen Eighty-Four, Skynet, textitBlack Mirror などの文化的想像物とともに分析され、倫理的な盲点を探索するための道具として使用される。
論文 参考訳(メタデータ) (2025-04-12T01:01:26Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Responsible Artificial Intelligence Systems: A Roadmap to Society's Trust through Trustworthy AI, Auditability, Accountability, and Governance [37.10526074040908]
本稿では, 包括的観点から, 責任あるAIシステムの概念を考察する。
論文の最終目標は、責任あるAIシステムの設計におけるロードマップの提案である。
論文 参考訳(メタデータ) (2025-02-04T14:47:30Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - A Framework for Understanding AI-Induced Field Change: How AI
Technologies are Legitimized and Institutionalized [0.0]
本稿では,AIによるフィールド変化を分析し,理解するための概念的枠組みを提案する。
新たなAIエージェントを新しい分野や既存の分野に導入することで、アルゴリズムが組織や機関を(再)形成するダイナミクスが生まれる。
AIが引き起こす分野を取り巻く制度的なインフラは概してほとんど精巧ではないため、今後AIシステムのより広範な制度化に支障をきたす可能性がある。
論文 参考訳(メタデータ) (2021-08-18T14:06:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。