論文の概要: Learning Contextual Runtime Monitors for Safe AI-Based Autonomy
- arxiv url: http://arxiv.org/abs/2601.20666v1
- Date: Wed, 28 Jan 2026 14:49:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.98248
- Title: Learning Contextual Runtime Monitors for Safe AI-Based Autonomy
- Title(参考訳): 安全なAIベースの自律性のためのコンテキストランタイムモニタの学習
- Authors: Alejandro Luque-Cerpa, Mengyuan Wang, Emil Carlsson, Sanjit A. Seshia, Devdatt Dubhashi, Hazem Torfah,
- Abstract要約: 我々は、AIベースの制御アンサンブルのためのコンテキスト対応ランタイムモニタを学習するための新しいフレームワークを導入する。
提案手法は,(1) 制御器選択時の安全性の理論的保証,(2) 制御器の多様性の向上,の2つの利点がある。
- 参考スコア(独自算出の注目度): 42.24674899629751
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce a novel framework for learning context-aware runtime monitors for AI-based control ensembles. Machine-learning (ML) controllers are increasingly deployed in (autonomous) cyber-physical systems because of their ability to solve complex decision-making tasks. However, their accuracy can degrade sharply in unfamiliar environments, creating significant safety concerns. Traditional ensemble methods aim to improve robustness by averaging or voting across multiple controllers, yet this often dilutes the specialized strengths that individual controllers exhibit in different operating contexts. We argue that, rather than blending controller outputs, a monitoring framework should identify and exploit these contextual strengths. In this paper, we reformulate the design of safe AI-based control ensembles as a contextual monitoring problem. A monitor continuously observes the system's context and selects the controller best suited to the current conditions. To achieve this, we cast monitor learning as a contextual learning task and draw on techniques from contextual multi-armed bandits. Our approach comes with two key benefits: (1) theoretical safety guarantees during controller selection, and (2) improved utilization of controller diversity. We validate our framework in two simulated autonomous driving scenarios, demonstrating significant improvements in both safety and performance compared to non-contextual baselines.
- Abstract(参考訳): 我々は、AIベースの制御アンサンブルのためのコンテキスト対応ランタイムモニタを学習するための新しいフレームワークを導入する。
機械学習(ML)コントローラは、複雑な意思決定タスクを解く能力のため、(自律的な)サイバー物理システムにますますデプロイされている。
しかし、その精度は不慣れな環境で著しく低下し、重大な安全上の懸念を生じさせる。
従来のアンサンブル法は、複数のコントローラを平均化したり、投票したりすることで堅牢性を向上することを目的としているが、個々のコントローラが異なる操作コンテキストで示す特別な強みを希薄化することが多い。
コントローラの出力を混ぜるのではなく、監視フレームワークはこれらのコンテキスト的強みを識別し、活用すべきである、と我々は主張する。
本稿では、コンテキスト監視問題として、安全なAIベースの制御アンサンブルの設計を再構築する。
モニターはシステムのコンテキストを継続的に観察し、現在の状況に最も適したコントローラを選択する。
これを実現するために,監視学習を文脈学習タスクとし,文脈的マルチアームバンディットの技法を取り入れた。
提案手法は,(1) 制御器選択時の安全性の理論的保証,(2) 制御器の多様性の向上,の2つの利点を有する。
筆者らのフレームワークを2つのシミュレーションされた自律走行シナリオで検証し、非コンテキストベースラインと比較して安全性と性能の両方が大幅に向上したことを示す。
関連論文リスト
- Improving the Resilience of Quadrotors in Underground Environments by Combining Learning-based and Safety Controllers [22.566692834880396]
環境上におけるフローベース事前の正規化をトレーニングし、任意の時間における四重項の分布外分布の度合いを測る。
我々は、この測定をランタイムモニターとして使用し、学習ベースのコントローラと安全なコントローラを十分に配布できないときに切り替えることができます。
論文 参考訳(メタデータ) (2025-09-02T20:22:54Z) - SafeAuto: Knowledge-Enhanced Safe Autonomous Driving with Multimodal Foundation Models [63.71984266104757]
我々は、構造化されていない知識と構造化されていない知識の両方を取り入れることで、MLLMベースの自動運転を強化するフレームワークであるSafeAutoを提案する。
安全知識を明示的に統合するため,交通ルールを一階述語論理に変換する推論コンポーネントを開発した。
我々のマルチモーダル検索・拡張生成モデルは、過去の運転経験から学ぶために、ビデオ、制御信号、環境特性を活用する。
論文 参考訳(メタデータ) (2025-02-28T21:53:47Z) - Dynamic Simplex: Balancing Safety and Performance in Autonomous Cyber
Physical Systems [1.3309898919316483]
本稿では,双方向スイッチングが可能なオンラインコントローラスイッチングロジックを用いたシンプルな戦略を提案する。
提案手法は, 現状技術よりも衝突が少なく, 性能も高いことを示す。
論文 参考訳(メタデータ) (2023-02-20T04:00:53Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - A Safety-Critical Decision Making and Control Framework Combining
Machine Learning and Rule-based Algorithms [15.613795936398606]
ルールベースの手法は安全クリティカルなシステムにおいて支配的だが、後者は複数の要件に対する堅牢性において第一の手法と競合することができない。
本稿では,ルールと機械学習の両手法の利点を生かした意思決定と制御の枠組みを提案する。
論文 参考訳(メタデータ) (2022-01-30T13:58:51Z) - safe-control-gym: a Unified Benchmark Suite for Safe Learning-based
Control and Reinforcement Learning [3.9258421820410225]
我々はSafe-control-gymと呼ばれるオープンソースのベンチマークスイートを提案する。
当社の出発点はOpenAIのGym APIで、強化学習研究における事実上の標準のひとつです。
制御性能, データの効率, 安全性を定量的に比較するために, 安全な制御ジャムをどう使うかを示す。
論文 参考訳(メタデータ) (2021-09-13T21:09:28Z) - Closing the Closed-Loop Distribution Shift in Safe Imitation Learning [80.05727171757454]
模倣学習問題において,安全な最適化に基づく制御戦略を専門家として扱う。
我々は、実行時に安価に評価でき、専門家と同じ安全保証を確実に満足する学習されたポリシーを訓練する。
論文 参考訳(メタデータ) (2021-02-18T05:11:41Z) - Enforcing robust control guarantees within neural network policies [76.00287474159973]
本稿では、ニューラルネットワークによってパラメータ化され、ロバスト制御と同じ証明可能なロバスト性基準を適用した、一般的な非線形制御ポリシークラスを提案する。
提案手法は,複数の領域において有効であり,既存のロバスト制御法よりも平均ケース性能が向上し,(非ロバスト)深部RL法よりも最悪のケース安定性が向上した。
論文 参考訳(メタデータ) (2020-11-16T17:14:59Z) - Training Adversarial Agents to Exploit Weaknesses in Deep Control
Policies [47.08581439933752]
対戦型強化学習に基づく自動ブラックボックステストフレームワークを提案する。
提案手法は, オンラインテストにおいて明らかでないコントロールポリシの両方において, 弱点を見出すことができることを示す。
論文 参考訳(メタデータ) (2020-02-27T13:14:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。