論文の概要: Agentic AI, Retrieval-Augmented Generation, and the Institutional Turn: Legal Architectures and Financial Governance in the Age of Distributional AGI
- arxiv url: http://arxiv.org/abs/2603.13244v1
- Date: Fri, 20 Feb 2026 11:58:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:42.224387
- Title: Agentic AI, Retrieval-Augmented Generation, and the Institutional Turn: Legal Architectures and Financial Governance in the Age of Distributional AGI
- Title(参考訳): エージェントAI, 検索型世代, 制度転換: 分散AGI時代の法アーキテクチャと金融ガバナンス
- Authors: Marcel Osmond,
- Abstract要約: 本稿では,エージェントAI,Retrieval-Augmented Generation(RAG)の交わりと,法的説明責任と金融市場の整合性との関連について検討する。
我々は、調整された構成値ではなく、ランタイムガバナンスグラフ、制裁関数、観察可能な行動制約を含むメカニズム設計問題として、アライメントを再認識しなければならないと論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of agentic artificial intelligence systems--characterized by autonomous goal-seeking, tool use, and multi-agent coordination--presents unprecedented challenges to existing legal and financial regulatory frameworks. While traditional AI governance has focused on model-level alignment through training-time interventions such as Reinforcement Learning from Human Feedback (RLHF), the deployment of large language models (LLMs) as persistent agents necessitates a paradigm shift toward institutional governance structures. This paper examines the intersection of agentic AI, Retrieval-Augmented Generation (RAG), and their implications for legal accountability and financial market integrity. Through analysis of the Institutional AI framework, we argue that alignment must be reconceptualized as a mechanism design problem involving runtime governance graphs, sanction functions, and observable behavioral constraints rather than internalized constitutional values[...].The analysis concludes that the future of AI governance lies not in perfecting isolated model behavior, but in architecting institutional environments where compliant behavior emerges as the dominant strategy through carefully calibrated payoff landscapes.
- Abstract(参考訳): エージェント人工知能システムの増殖は、自律的なゴールシーキング、ツールの使用、マルチエージェント調整によって特徴づけられ、既存の法律および金融規制フレームワークに対する前例のない挑戦を表している。
従来のAIガバナンスは、Reinforcement Learning from Human Feedback (RLHF)のようなトレーニング時間の介入を通じて、モデルレベルのアライメントに重点を置いているが、永続化エージェントとしての大規模言語モデル(LLM)の展開は、制度的なガバナンス構造へのパラダイムシフトを必要としている。
本稿では,エージェントAI,Retrieval-Augmented Generation(RAG)の交わりと,法的説明責任と金融市場の整合性との関連について検討する。
Institutional AIフレームワークの分析を通じて、アライメントは、内部化された構成値ではなく、ランタイムガバナンスグラフ、制裁関数、観察可能な行動制約を含むメカニズム設計問題として再認識されるべきである、と論じる。
この分析は、AIガバナンスの未来は、孤立したモデルの振る舞いを完璧にすることではなく、注意深く調整されたペイオフの状況を通じて、従順な振る舞いが支配的な戦略として現れる制度環境を設計することにある、と結論付けている。
関連論文リスト
- Security, privacy, and agentic AI in a regulatory view: From definitions and distinctions to provisions and reflections [53.468443050795344]
人工知能(AI)技術の急速な普及は、動的規制の展望につながった。
AIパラダイムが、特にエージェントAIの形で、より大きな自律性へと移行するにつれ、規制規定を明確にすることはますます困難になっている。
本稿は、2024年から2025年の間に発行された24の関連文書を分析して、EU(EU)のAI規制条項をレビューする。
論文 参考訳(メタデータ) (2026-03-19T13:50:52Z) - Institutional AI: A Governance Framework for Distributional AGI Safety [1.3763052684269788]
AIモデルのコア特性から生じる3つの構造的問題を同定する。
ソリューションはInstitutional AIであり、AIエージェント集団の効果的なガバナンスの問題としてアライメントを扱うシステムレベルのアプローチである。
論文 参考訳(メタデータ) (2026-01-15T17:08:26Z) - Normative active inference: A numerical proof of principle for a computational and economic legal analytic approach to AI governance [0.6267988254367711]
本稿では,AIエージェントの行動に法的規範がどう影響するかを計算学的に考察する。
我々は,エージェントに意図的な制御システムを与える設計による規制によって,合法的で規範に敏感なAI行動が達成可能であることを提案する。
我々は、文脈依存の嗜好が自律エージェントの安全メカニズムとしてどのように機能するかを議論することで結論付けた。
論文 参考訳(メタデータ) (2025-11-24T17:30:51Z) - Integrating Legal and Logical Specifications in Perception, Prediction, and Planning for Automated Driving: A Survey of Methods [30.541309308318517]
本調査は, 自動走行システムの認識, 予測, 計画モジュールに法的および論理的仕様を統合した現行の方法論の分析を行う。
論理ベースのフレームワークから計算法的推論アプローチまで,さまざまな手法を体系的に検討する。
中心的な発見は、知覚的信頼性、法的コンプライアンス、意思決定の正当性との交差において重大な課題が発生することである。
論文 参考訳(メタデータ) (2025-10-29T10:57:24Z) - Governable AI: Provable Safety Under Extreme Threat Models [31.36879992618843]
我々は、従来の内部制約から外部に強制された構造コンプライアンスに移行するGAI(Governable AI)フレームワークを提案する。
GAIフレームワークは、シンプルで信頼性が高く、完全に決定論的で、強力で、柔軟性があり、汎用的なルール執行モジュール(REM)、ガバナンスルール、AIによる妥協やサブバージョンに対するエンドツーエンドの保護を提供する、統制可能なセキュアなスーパープラットフォーム(GSSP)で構成されている。
論文 参考訳(メタデータ) (2025-08-28T04:22:59Z) - Human-AI Governance (HAIG): A Trust-Utility Approach [0.0]
本稿では,人間とAIの関係が進化する中で,信頼のダイナミクスを分析するためのHAIGフレームワークを紹介する。
我々の分析は、自己監督、推論権限、分散意思決定の技術的進歩が、不均一な信頼の進化をいかに引き起こすかを明らかにする。
論文 参考訳(メタデータ) (2025-05-03T01:57:08Z) - Artificial Intelligence in Government: Why People Feel They Lose Control [44.99833362998488]
行政における人工知能の利用は急速に拡大している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、デリゲートの特別事例として、AI導入に関するプリンシパル・エージェント理論を適用します。
論文 参考訳(メタデータ) (2025-05-02T07:46:41Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。