論文の概要: The Agentic Regulator: Risks for AI in Finance and a Proposed Agent-based Framework for Governance
- arxiv url: http://arxiv.org/abs/2512.11933v1
- Date: Fri, 12 Dec 2025 05:57:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.035068
- Title: The Agentic Regulator: Risks for AI in Finance and a Proposed Agent-based Framework for Governance
- Title(参考訳): エージェントレギュレータ:金融におけるAIのリスクとガバナンスのためのエージェントベースのフレームワークの提案
- Authors: Eren Kurshan, Tucker Balch, David Byrd,
- Abstract要約: 現在のモデルリスクフレームワークは、静的で明確に定義されたアルゴリズムとワンタイム検証を前提としている。
我々はこれらの技術を、複数の時間スケールに沿って伝播する分散アンサンブルとしてモデル化する。
我々は、監視を「規制ブロック」の4つの層に分解するモジュラーガバナンスアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 6.107950696680386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative and agentic artificial intelligence is entering financial markets faster than existing governance can adapt. Current model-risk frameworks assume static, well-specified algorithms and one-time validations; large language models and multi-agent trading systems violate those assumptions by learning continuously, exchanging latent signals, and exhibiting emergent behavior. Drawing on complex adaptive systems theory, we model these technologies as decentralized ensembles whose risks propagate along multiple time-scales. We then propose a modular governance architecture. The framework decomposes oversight into four layers of "regulatory blocks": (i) self-regulation modules embedded beside each model, (ii) firm-level governance blocks that aggregate local telemetry and enforce policy, (iii) regulator-hosted agents that monitor sector-wide indicators for collusive or destabilizing patterns, and (iv) independent audit blocks that supply third-party assurance. Eight design strategies enable the blocks to evolve as fast as the models they police. A case study on emergent spoofing in multi-agent trading shows how the layered controls quarantine harmful behavior in real time while preserving innovation. The architecture remains compatible with today's model-risk rules yet closes critical observability and control gaps, providing a practical path toward resilient, adaptive AI governance in financial systems.
- Abstract(参考訳): 生成的かつエージェント的な人工知能は、既存のガバナンスが適応できるよりも早く金融市場に参入している。
大規模言語モデルとマルチエージェントトレーディングシステムは、継続的に学習し、遅延信号を交換し、創発的な振る舞いを示すことによって、これらの仮定に違反している。
複雑な適応システム理論に基づいて、リスクが複数の時間スケールに沿って伝播する分散アンサンブルとしてこれらの技術をモデル化する。
次に、モジュール化されたガバナンスアーキテクチャを提案します。
このフレームワークは、監視を"規制ブロック"の4つの層に分解する。
(i)各モデルの横に埋め込まれた自己規制モジュール。
二 現地のテレメトリを集約し、政策を施行する法人レベルの統治ブロック
三 組織的又は不安定化パターンのセクター規模の指標を監視する監督機関
(4)第三者保証を提供する独立した監査ブロック。
8つの設計戦略により、ブロックは警察するモデルと同じくらい早く進化できる。
マルチエージェント取引における創発的スプーフィングの事例研究は、階層化がイノベーションを保ちながら、リアルタイムで有害な行動を隔離する方法を示している。
アーキテクチャは、今日のモデルリスクルールと相容れないが、重要な可観測性とコントロールギャップを埋め、金融システムにおけるレジリエントで適応的なAIガバナンスへの実践的な道を提供する。
関連論文リスト
- Making LLMs Reliable When It Matters Most: A Five-Layer Architecture for High-Stakes Decisions [51.56484100374058]
現在の大規模言語モデル(LLM)は、実行前にアウトプットをチェックできるが、不確実な結果を伴う高い戦略決定には信頼性が低い検証可能な領域で優れている。
このギャップは、人間と人工知能(AI)システムの相互認知バイアスによって引き起こされ、そのセクターにおける評価と投資の持続可能性の保証を脅かす。
本報告では、7つのフロンティアグレードLDMと3つの市場向けベンチャーヴィグネットの時間的圧力下での系統的質的評価から生まれた枠組みについて述べる。
論文 参考訳(メタデータ) (2025-11-10T22:24:21Z) - Agentic AI for Ultra-Modern Networks: Multi-Agent Framework for RAN Autonomy and Assurance [10.253240657118793]
従来のO-RAN制御ループはRICベースのオーケストレーションに大きく依存しており、インテリジェンスを集中し、ポリシーの衝突やデータドリフト、予期せぬ条件下での安全でないアクションといったリスクにシステムを公開している。
自律型ネットワークの未来は、データ収集、モデルトレーニング、予測、ポリシー生成検証、デプロイメント、保証を行うために、専門エージェントが協力するマルチエージェントアーキテクチャにある、と我々は主張する。
論文 参考訳(メタデータ) (2025-10-17T18:28:55Z) - Enabling Regulatory Multi-Agent Collaboration: Architecture, Challenges, and Solutions [30.046299694187855]
大規模言語モデル(LLM)を内蔵した自律エージェントは、適応的でマルチエージェントなコラボレーションを実現することで、デジタル環境と物理環境の両方を変革している。
エージェント層,ブロックチェーンデータ層,および規制アプリケーション層で構成される,規制エージェントコラボレーションのためのブロックチェーン対応層アーキテクチャを提案する。
当社のアプローチは,大規模エージェントエコシステムにおける信頼性,レジリエント,スケーラブルな規制機構の体系的基盤を確立する。
論文 参考訳(メタデータ) (2025-09-11T07:46:00Z) - Governance-as-a-Service: A Multi-Agent Framework for AI System Compliance and Policy Enforcement [0.0]
ガバナンス・アズ・ア・サービス(Government-as-a-Service:G)は、エージェントのアウトプットを実行時に規制するポリシー駆動の執行層である。
Gは宣言的ルールと、違反のコンプライアンスと深刻度に基づいてエージェントをスコアするTrust Factorメカニズムを採用している。
その結果、Gはスループットを保ちながら高いリスクの振る舞いを確実にブロックまたはリダイレクトすることを示した。
論文 参考訳(メタデータ) (2025-08-26T07:48:55Z) - When Autonomy Goes Rogue: Preparing for Risks of Multi-Agent Collusion in Social Systems [78.04679174291329]
悪意のあるマルチエージェントシステム(MAS)のリスクをシミュレートするための概念実証手法を提案する。
この枠組みを、誤情報拡散とeコマース詐欺という2つのリスクの高い分野に適用する。
その結果,分散システムの方が,集中型システムよりも悪意ある行動を実行するのに効果的であることが示唆された。
論文 参考訳(メタデータ) (2025-07-19T15:17:30Z) - SafeMobile: Chain-level Jailbreak Detection and Automated Evaluation for Multimodal Mobile Agents [58.21223208538351]
本研究は,モバイルマルチモーダルエージェントを取り巻くセキュリティ問題について考察する。
行動シーケンス情報を組み込んだリスク識別機構の構築を試みる。
また、大規模言語モデルに基づく自動アセスメントスキームも設計している。
論文 参考訳(メタデータ) (2025-07-01T15:10:00Z) - A Survey on Autonomy-Induced Security Risks in Large Model-Based Agents [45.53643260046778]
大規模言語モデル(LLM)の最近の進歩は、自律型AIエージェントの台頭を触媒している。
これらの大きなモデルエージェントは、静的推論システムからインタラクティブなメモリ拡張エンティティへのパラダイムシフトを示す。
論文 参考訳(メタデータ) (2025-06-30T13:34:34Z) - Toward a Global Regime for Compute Governance: Building the Pause Button [0.4952055253916912]
計算資源へのアクセスを制限することにより,AIシステムのトレーニングを防止するためのガバナンスシステムを提案する。
技術的、トレーサビリティ、規制という3つの重要な介入ポイントを特定し、それらをガバナンス-執行-検証フレームワークにまとめます。
技術的メカニズムとしては、改ざん防止FLOPキャップ、モデルロック、オフラインライセンスなどがある。
論文 参考訳(メタデータ) (2025-06-25T15:18:19Z) - Safe Multi-agent Learning via Trapping Regions [89.24858306636816]
我々は、動的システムの定性理論から知られているトラップ領域の概念を適用し、分散学習のための共同戦略空間に安全セットを作成する。
本稿では,既知の学習力学を持つシステムにおいて,候補がトラップ領域を形成することを検証するための二分分割アルゴリズムと,学習力学が未知のシナリオに対するサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-27T14:47:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。