論文の概要: Assured Autonomy: How Operations Research Powers and Orchestrates Generative AI Systems
- arxiv url: http://arxiv.org/abs/2512.23978v1
- Date: Tue, 30 Dec 2025 04:24:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.276376
- Title: Assured Autonomy: How Operations Research Powers and Orchestrates Generative AI Systems
- Title(参考訳): 保証自律性: 運用が生成AIシステムに電力を供給し、オーケストレーションする方法
- Authors: Tinglong Dai, David Simchi-Levi, Michelle Xiao Wu, Yao Xie,
- Abstract要約: 生成モデルは、実現可能性、分散シフトに対する堅牢性、ストレステストを提供するメカニズムと組み合わせない限り、運用領域で脆弱である可能性がある、と我々は主張する。
我々は,運用研究に根ざした自律性確保のための概念的枠組みを開発する。
これらの要素は、安全クリティカルで信頼性に敏感な運用領域における自律性を保証するための研究アジェンダを定義する。
- 参考スコア(独自算出の注目度): 18.881800772626427
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative artificial intelligence (GenAI) is shifting from conversational assistants toward agentic systems -- autonomous decision-making systems that sense, decide, and act within operational workflows. This shift creates an autonomy paradox: as GenAI systems are granted greater operational autonomy, they should, by design, embody more formal structure, more explicit constraints, and stronger tail-risk discipline. We argue stochastic generative models can be fragile in operational domains unless paired with mechanisms that provide verifiable feasibility, robustness to distribution shift, and stress testing under high-consequence scenarios. To address this challenge, we develop a conceptual framework for assured autonomy grounded in operations research (OR), built on two complementary approaches. First, flow-based generative models frame generation as deterministic transport characterized by an ordinary differential equation, enabling auditability, constraint-aware generation, and connections to optimal transport, robust optimization, and sequential decision control. Second, operational safety is formulated through an adversarial robustness lens: decision rules are evaluated against worst-case perturbations within uncertainty or ambiguity sets, making unmodeled risks part of the design. This framework clarifies how increasing autonomy shifts OR's role from solver to guardrail to system architect, with responsibility for control logic, incentive protocols, monitoring regimes, and safety boundaries. These elements define a research agenda for assured autonomy in safety-critical, reliability-sensitive operational domains.
- Abstract(参考訳): ジェネレーティブ人工知能(GenAI)は、会話アシスタントからエージェントシステムへと移行しつつある。
このシフトは、自律的なパラドックスを生み出します。GenAIシステムには、設計上、よりフォーマルな構造、より明示的な制約、より強力なテールリスク規律を具現化すべきである、というように。
確率的生成モデルは、検証可能な実現可能性、分散シフトに対する堅牢性、および高連続シナリオ下でのストレステストを提供するメカニズムと組み合わせない限り、運用領域で脆弱である可能性がある。
この課題に対処するため、我々は2つの補完的なアプローチに基づいて、運用研究(OR)に基づく自律性を保証するための概念的枠組みを構築した。
第一に、フローベース生成モデルフレーム生成は、通常の微分方程式によって特徴づけられ、監査可能性、制約認識生成、最適な輸送、堅牢な最適化、シーケンシャルな決定制御への接続を可能にする。
第二に、運用上の安全性は、逆向きの堅牢性レンズによって定式化され、不確実性や曖昧性セット内の最悪のケースの摂動に対して決定ルールが評価され、未モデル化のリスクが設計の一部となる。
このフレームワークは、制御ロジック、インセンティブプロトコル、監視体制、安全境界に対する責任を負い、ORの役割がソルバからガードレールからシステムアーキテクトにどのようにシフトするかを明確にする。
これらの要素は、安全クリティカルで信頼性に敏感な運用領域における自律性を保証するための研究アジェンダを定義する。
関連論文リスト
- Towards Responsible and Explainable AI Agents with Consensus-Driven Reasoning [4.226647687395254]
本稿では,多モデルコンセンサスと推論層ガバナンスに基づく実運用レベルのエージェントのためのResponsible(RAI)およびExplainable(XAI)AIエージェントアーキテクチャを提案する。
提案した設計では、異種LLMとVLMエージェントのコンソーシアムが独立して、共有入力コンテキストから候補出力を生成する。
専用の推論エージェントは、これらのアウトプットをまたいで構造化された統合を行い、安全と政策の制約を強制し、幻覚と偏見を緩和し、監査可能な証拠に基づく決定を生成する。
論文 参考訳(メタデータ) (2025-12-25T14:49:25Z) - Perspectives on a Reliability Monitoring Framework for Agentic AI Systems [5.539407031861404]
エージェントAIシステムの動作時の信頼性の課題は,その特性に基づいて導出する。
本稿ではエージェントAIシステムのための2層信頼性監視フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-12T10:19:17Z) - A cybersecurity AI agent selection and decision support framework [0.0]
本稿では,AIエージェントアーキテクチャ,リアクティブ,認知,ハイブリッド,学習を協調する,新しい構造化された意思決定支援フレームワークを提案する。
エージェント理論と産業ガイドラインを統合することで、このフレームワークは、AIソリューションの選択とデプロイのための透過的で段階的な方法論を提供する。
論文 参考訳(メタデータ) (2025-10-02T07:38:21Z) - A Survey on Autonomy-Induced Security Risks in Large Model-Based Agents [45.53643260046778]
大規模言語モデル(LLM)の最近の進歩は、自律型AIエージェントの台頭を触媒している。
これらの大きなモデルエージェントは、静的推論システムからインタラクティブなメモリ拡張エンティティへのパラダイムシフトを示す。
論文 参考訳(メタデータ) (2025-06-30T13:34:34Z) - Human-AI Governance (HAIG): A Trust-Utility Approach [0.0]
本稿では,人間とAIの関係が進化する中で,信頼のダイナミクスを分析するためのHAIGフレームワークを紹介する。
我々の分析は、自己監督、推論権限、分散意思決定の技術的進歩が、不均一な信頼の進化をいかに引き起こすかを明らかにする。
論文 参考訳(メタデータ) (2025-05-03T01:57:08Z) - Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。