論文の概要: From Firms to Computation: AI Governance and the Evolution of Institutions
- arxiv url: http://arxiv.org/abs/2507.13616v1
- Date: Fri, 18 Jul 2025 02:52:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.172166
- Title: From Firms to Computation: AI Governance and the Evolution of Institutions
- Title(参考訳): 企業から計算へ:AIガバナンスと制度の進化
- Authors: Michael S. Harre,
- Abstract要約: 本稿は,多段階選択理論,Aoki の計算プロセスとしての企業観,Ostrom の設計原理の3つの枠組みを合成する。
我々は,AI関連のリスクに対処するアライメントメカニズムとして,選択を組織レベルで同時に運用するフレームワークを開発し,ゲーム理論アーキテクチャによる分散推論を実装し,オストロムスタイルのルールは進化する。
私たちは、組織層をまたいだ人間とAIの整合性を運用し、スケーラブルで適応的で包括的なAIシステムのガバナンスを可能にする一連の設計原則を提案して、結論付けました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integration of agential artificial intelligence into socioeconomic systems requires us to reexamine the evolutionary processes that describe changes in our economic institutions. This article synthesizes three frameworks: multi-level selection theory, Aoki's view of firms as computational processes, and Ostrom's design principles for robust institutions. We develop a framework where selection operates concurrently across organizational levels, firms implement distributed inference via game-theoretic architectures, and Ostrom-style rules evolve as alignment mechanisms that address AI-related risks. This synthesis yields a multi-level Price equation expressed over nested games, providing quantitative metrics for how selection and governance co-determine economic outcomes. We examine connections to Acemoglu's work on inclusive institutions, analyze how institutional structures shape AI deployment, and demonstrate the framework's explanatory power via case studies. We conclude by proposing a set of design principles that operationalize alignment between humans and AI across institutional layers, enabling scalable, adaptive, and inclusive governance of agential AI systems. We conclude with practical policy recommendations and further research to extend these principles into real-world implementation.
- Abstract(参考訳): エージェント人工知能を社会経済システムに統合するには、経済制度の変化を記述した進化過程を再検討する必要がある。
本稿は,多段階選択理論,Aoki の計算プロセスとしての企業観,Ostrom の設計原理の3つの枠組みを合成する。
我々は,AI関連のリスクに対処するアライメントメカニズムとして,選択を組織レベルで同時に運用するフレームワークを開発し,ゲーム理論アーキテクチャによる分散推論を実装し,オストロムスタイルのルールは進化する。
この合成は、ネストされたゲーム上で表現された多段階のプライス方程式をもたらし、選択とガバナンスが経済的成果を共同決定する方法の定量的な指標を提供する。
我々は、包括的機関におけるアセモグルの研究とのつながりを調べ、制度構造がAIの展開をどのように形成するかを分析し、ケーススタディを通じてフレームワークの説明力を示す。
私たちは、組織層をまたいだ人間とAIの整合性を運用し、スケーラブルで適応的で包括的なAIシステムのガバナンスを可能にする一連の設計原則を提案して、結論付けました。
実践的な政策勧告と、これらの原則を現実的な実装に拡張するためのさらなる研究で締めくくります。
関連論文リスト
- Agentic AI in Product Management: A Co-Evolutionary Model [0.0]
本研究では,エージェントAIの製品管理における変革的役割について考察する。
プロダクトライフサイクル全体にわたる統合をガイドする概念的共進化的フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-01T02:32:32Z) - Distinguishing Autonomous AI Agents from Collaborative Agentic Systems: A Comprehensive Framework for Understanding Modern Intelligent Architectures [0.0]
大規模言語モデルの出現は、人工知能の2つの異なる相互接続パラダイム、すなわちスタンドアロンAIエージェントと協調エージェントAIエコシステムを触媒した。
本研究は, 運用原則, 構造構成, 配置方法論の体系的解析を通じて, これらのアーキテクチャを識別するための決定的な枠組みを確立する。
論文 参考訳(メタデータ) (2025-06-02T08:52:23Z) - Enterprise Architecture as a Dynamic Capability for Scalable and Sustainable Generative AI adoption: Bridging Innovation and Governance in Large Organisations [55.2480439325792]
生成人工知能(Generative Artificial Intelligence)は、イノベーションを促進し、多くの産業におけるガバナンスを再形成する可能性を持つ強力な新技術である。
しかし、テクノロジの複雑さ、ガバナンスのギャップ、リソースのミスアライメントなど、GenAIをスケールする上で大きな課題に直面している。
本稿では、大企業におけるGenAI導入の複雑な要件をエンタープライズアーキテクチャ管理が満たす方法について検討する。
論文 参考訳(メタデータ) (2025-05-09T07:41:33Z) - KERAIA: An Adaptive and Explainable Framework for Dynamic Knowledge Representation and Reasoning [46.85451489222176]
KERAIAはシンボリックナレッジエンジニアリングのための新しいフレームワークとソフトウェアプラットフォームである。
動的で複雑でコンテキストに敏感な環境で知識を表現、推論、実行するという永続的な課題に対処する。
論文 参考訳(メタデータ) (2025-05-07T10:56:05Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Towards Developing Ethical Reasoners: Integrating Probabilistic Reasoning and Decision-Making for Complex AI Systems [4.854297874710511]
計算倫理フレームワークは、複雑な実環境で動作するAIと自律システムにとって不可欠である。
既存のアプローチは、倫理原則を動的で曖昧な文脈に組み込むために必要な適応性に欠けることが多い。
本稿では,中間表現,確率論的推論,知識表現を組み合わせた総合的メタレベルフレームワークの構築に必要な要素について概説する。
論文 参考訳(メタデータ) (2025-02-28T17:25:11Z) - Ethical and Scalable Automation: A Governance and Compliance Framework for Business Applications [0.0]
本稿では、AIが倫理的で、制御可能で、実行可能で、望ましいものであることを保証するフレームワークを紹介する。
異なるケーススタディは、学術と実践の両方の環境でAIを統合することで、このフレームワークを検証する。
論文 参考訳(メタデータ) (2024-09-25T12:39:28Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Levels of AGI for Operationalizing Progress on the Path to AGI [64.59151650272477]
本稿では,人工知能(AGI)モデルとその前駆体の性能と動作を分類する枠組みを提案する。
このフレームワークは、AGIのパフォーマンス、一般性、自律性のレベルを導入し、モデルを比較し、リスクを評価し、AGIへの道筋に沿って進捗を測定する共通の言語を提供する。
論文 参考訳(メタデータ) (2023-11-04T17:44:58Z) - A multidomain relational framework to guide institutional AI research
and adoption [0.0]
我々は、AIを採用することの意味を理解することを目的とした研究努力が、ほんの一握りのアイデアだけを優先する傾向があると論じている。
本稿では,フィールド間の用語を整理する概念的枠組みとして,シンプルなポリシーと研究設計ツールを提案する。
論文 参考訳(メタデータ) (2023-03-17T16:33:01Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。