論文の概要: SORA-ATMAS: Adaptive Trust Management and Multi-LLM Aligned Governance for Future Smart Cities
- arxiv url: http://arxiv.org/abs/2510.19327v1
- Date: Wed, 22 Oct 2025 07:40:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:15.322081
- Title: SORA-ATMAS: Adaptive Trust Management and Multi-LLM Aligned Governance for Future Smart Cities
- Title(参考訳): SORA-ATMAS:将来のスマートシティのためのアダプティブトラストマネジメントとマルチLLMアライメントガバナンス
- Authors: Usama Antuley, Shahbaz Siddiqui, Sufian Hameed, Waqas Arif, Subhan Shah, Syed Attique Shah,
- Abstract要約: エージェントAIは、自律的な意思決定と適応的な調整をサポートすることで、重要な実現手段として登場した。
不均一なスマートシティエコシステムへのデプロイメントは、重要なガバナンス、リスク、コンプライアンス(GRC)の課題を提起する。
SORA-ATMASは、分散エージェントのアウトプットを説明可能なリアルタイムな決定に集約する、規制に準拠した、コンテキスト対応で検証可能なガバナンスフレームワークである。
- 参考スコア(独自算出の注目度): 0.32839375042867835
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rapid evolution of smart cities has increased the reliance on intelligent interconnected services to optimize infrastructure, resources, and citizen well-being. Agentic AI has emerged as a key enabler by supporting autonomous decision-making and adaptive coordination, allowing urban systems to respond in real time to dynamic conditions. Its benefits are evident in areas such as transportation, where the integration of traffic data, weather forecasts, and safety sensors enables dynamic rerouting and a faster response to hazards. However, its deployment across heterogeneous smart city ecosystems raises critical governance, risk, and compliance (GRC) challenges, including accountability, data privacy, and regulatory alignment within decentralized infrastructures. Evaluation of SORA-ATMAS with three domain agents (Weather, Traffic, and Safety) demonstrated that its governance policies, including a fallback mechanism for high-risk scenarios, effectively steer multiple LLMs (GPT, Grok, DeepSeek) towards domain-optimized, policy-aligned outputs, producing an average MAE reduction of 35% across agents. Results showed stable weather monitoring, effective handling of high-risk traffic plateaus 0.85, and adaptive trust regulation in Safety/Fire scenarios 0.65. Runtime profiling of a 3-agent deployment confirmed scalability, with throughput between 13.8-17.2 requests per second, execution times below 72~ms, and governance delays under 100 ms, analytical projections suggest maintained performance at larger scales. Cross-domain rules ensured safe interoperability, with traffic rerouting permitted only under validated weather conditions. These findings validate SORA-ATMAS as a regulation-aligned, context-aware, and verifiable governance framework that consolidates distributed agent outputs into accountable, real-time decisions, offering a resilient foundation for smart-city management.
- Abstract(参考訳): スマートシティの急速な進化は、インフラ、リソース、市民の幸福を最適化するためのインテリジェントな相互接続サービスへの依存度を高めている。
エージェントAIは、自律的な意思決定と適応的な調整をサポートし、都市システムが動的条件にリアルタイムで応答できるようにすることで、重要な実現手段として登場した。
交通データの統合、天気予報、安全センサーがダイナミックなリルーティングを可能にし、危険に対する迅速な対応を可能にする交通などの分野において、その利点は明らかである。
しかしながら、異質なスマートシティエコシステムへのデプロイメントは、説明責任、データプライバシ、分散インフラストラクチャ内の規制調整など、重要なガバナンス、リスク、コンプライアンス(GRC)の課題を提起する。
3つのドメインエージェント(Weather, Traffic, and Safety)によるSORA-ATMASの評価では、リスクの高いシナリオに対するフォールバック機構を含むガバナンスポリシが、ドメイン最適化されたポリシーに準拠したアウトプットに対して、複数のLLM(GPT, Grok, DeepSeek)を効果的に操り、エージェント間で平均35%のMAE削減を実現している。
その結果, 安定した気象モニタリング, 高リスク交通高原の有効処理, 安全・火災シナリオの適応的信頼規制, 0.65が得られた。
3エージェント配置の実行時プロファイリングにより、毎秒13.8~17.2のスループット、72~ms未満の実行時間、100ミリ秒未満のガバナンス遅延など、スケーラビリティが確認された。
クロスドメインのルールは安全なインターオペラビリティを確保し、交通の再ルーティングは検証済みの気象条件下でのみ許可された。
これらの結果から,SORA-ATMASは,分散エージェントのアウトプットを説明可能なリアルタイムな意思決定に集約し,スマートシティ管理のためのレジリエントな基盤を提供する,規制対応,コンテキスト対応,検証可能なガバナンスフレームワークとして検証された。
関連論文リスト
- An Agentic Framework with LLMs for Solving Complex Vehicle Routing Problems [66.60904891478687]
複雑な車両ルーティング問題を解決するために,LLM (AFL) を用いたエージェントフレームワークを提案する。
AFLは生の入力から知識を直接抽出し、自己完結型コード生成を可能にする。
AFLは、コード信頼性とソリューション実現性の両方において、既存のLCMベースのベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2025-10-19T03:59:25Z) - Agentic AI for Ultra-Modern Networks: Multi-Agent Framework for RAN Autonomy and Assurance [10.253240657118793]
従来のO-RAN制御ループはRICベースのオーケストレーションに大きく依存しており、インテリジェンスを集中し、ポリシーの衝突やデータドリフト、予期せぬ条件下での安全でないアクションといったリスクにシステムを公開している。
自律型ネットワークの未来は、データ収集、モデルトレーニング、予測、ポリシー生成検証、デプロイメント、保証を行うために、専門エージェントが協力するマルチエージェントアーキテクチャにある、と我々は主張する。
論文 参考訳(メタデータ) (2025-10-17T18:28:55Z) - AdvEvo-MARL: Shaping Internalized Safety through Adversarial Co-Evolution in Multi-Agent Reinforcement Learning [78.5751183537704]
AdvEvo-MARLは、タスクエージェントに安全性を内部化する、共進化型マルチエージェント強化学習フレームワークである。
外部ガードに頼るのではなく、AdvEvo-MARLは攻撃者と防御者を共同で最適化する。
論文 参考訳(メタデータ) (2025-10-02T02:06:30Z) - Governance-as-a-Service: A Multi-Agent Framework for AI System Compliance and Policy Enforcement [0.0]
ガバナンス・アズ・ア・サービス(Government-as-a-Service:G)は、エージェントのアウトプットを実行時に規制するポリシー駆動の執行層である。
Gは宣言的ルールと、違反のコンプライアンスと深刻度に基づいてエージェントをスコアするTrust Factorメカニズムを採用している。
その結果、Gはスループットを保ちながら高いリスクの振る舞いを確実にブロックまたはリダイレクトすることを示した。
論文 参考訳(メタデータ) (2025-08-26T07:48:55Z) - Entropy-Constrained Strategy Optimization in Urban Floods: A Multi-Agent Framework with LLM and Knowledge Graph Integration [0.7424725048947504]
都市部での降雨は緊急時スケジューリングシステムに重大な課題をもたらす。
H-Jは、知識誘導的プロンプト、エントロピー制約生成、フィードバック駆動最適化を統合する階層的なマルチエージェントフレームワークである。
実験の結果,H-Jは交通のスムーズさ,タスク成功率,システムの堅牢性において,ルールベースおよび強化学習ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2025-08-20T12:13:03Z) - SafeAgent: Safeguarding LLM Agents via an Automated Risk Simulator [77.86600052899156]
LLM(Large Language Model)ベースのエージェントは、現実のアプリケーションにますますデプロイされる。
完全自動合成データ生成によるエージェント安全性を体系的に向上する最初のフレームワークであるAutoSafeを提案する。
AutoSafeは安全性のスコアを平均で45%向上させ、現実世界のタスクでは28.91%の改善を実現している。
論文 参考訳(メタデータ) (2025-05-23T10:56:06Z) - Confidence-Regulated Generative Diffusion Models for Reliable AI Agent Migration in Vehicular Metaverses [55.70043755630583]
車両用AIエージェントには、環境認識、意思決定、行動実行能力が与えられている。
本稿では、信頼性の高い車両用AIエージェントマイグレーションフレームワークを提案し、信頼性の高い動的マイグレーションと効率的なリソーススケジューリングを実現する。
我々は,AIエージェントのマイグレーション決定を効率的に生成する信頼性制御型生成拡散モデル(CGDM)を開発した。
論文 参考訳(メタデータ) (2025-05-19T05:04:48Z) - SafeCast: Risk-Responsive Motion Forecasting for Autonomous Vehicles [12.607007386467329]
リスク応答型モーション予測モデルであるSafeCastを提案する。
安全を意識した意思決定と不確実性を意識した適応性を統合する。
我々のモデルは、軽量なアーキテクチャと低推論レイテンシを維持しながら、最先端(SOTA)の精度を実現する。
論文 参考訳(メタデータ) (2025-03-28T15:38:21Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。