論文の概要: ProSh: Probabilistic Shielding for Model-free Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2510.15720v2
- Date: Tue, 21 Oct 2025 10:10:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:11.629641
- Title: ProSh: Probabilistic Shielding for Model-free Reinforcement Learning
- Title(参考訳): ProSh: モデルレス強化学習のための確率的シールド
- Authors: Edwin Hamel-De le Court, Gaspard Ohlmann, Francesco Belardinelli,
- Abstract要約: 本稿では,コスト制約下での安全な強化学習のためのモデルフリーアルゴリズムであるProSh(Probabilistic Shielding via Risk Augmentation)を紹介する。
ProShは、学習したコスト批評家を使用してエージェントのポリシー分布にシールドを適用することで安全性を強制する。
環境が決定論的である場合には最適性が保たれることを示す。
- 参考スコア(独自算出の注目度): 11.125968799758434
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Safety is a major concern in reinforcement learning (RL): we aim at developing RL systems that not only perform optimally, but are also safe to deploy by providing formal guarantees about their safety. To this end, we introduce Probabilistic Shielding via Risk Augmentation (ProSh), a model-free algorithm for safe reinforcement learning under cost constraints. ProSh augments the Constrained MDP state space with a risk budget and enforces safety by applying a shield to the agent's policy distribution using a learned cost critic. The shield ensures that all sampled actions remain safe in expectation. We also show that optimality is preserved when the environment is deterministic. Since ProSh is model-free, safety during training depends on the knowledge we have acquired about the environment. We provide a tight upper-bound on the cost in expectation, depending only on the backup-critic accuracy, that is always satisfied during training. Under mild, practically achievable assumptions, ProSh guarantees safety even at training time, as shown in the experiments.
- Abstract(参考訳): 安全は強化学習(RL)における主要な関心事である。我々は、最適に機能するだけでなく、その安全性に関する公式な保証を提供することで、デプロイも安全であるRLシステムの開発を目標としている。
この目的のために,コスト制約下での安全な強化学習のためのモデルフリーアルゴリズムであるProSh(Probabilistic Shielding via Risk Augmentation)を導入する。
ProShは、リスク予算で制約されたMDP国家空間を強化し、学習コスト批評家を使用してエージェントの政策分布にシールドを適用することで安全性を強制する。
シールドは、すべてのサンプルアクションが期待通りに安全であることを保証する。
また,環境が決定論的である場合に最適性が保たれることを示す。
ProShはモデルフリーなので、トレーニング中の安全性は環境に関する知識に依存します。
トレーニング中は常に満足しているバックアップ・クリティカルの精度にのみ依存し、予想されるコストの上限を厳格に設定する。
ProShは、温和で事実上達成可能な仮定の下で、実験で示されているように、トレーニング時にも安全性を保証する。
関連論文リスト
- Rethinking Safety in LLM Fine-tuning: An Optimization Perspective [56.31306558218838]
我々は、本質的にトレードオフではなく、最適化の貧弱な選択が、しばしば安全上の問題を引き起こすことを示し、敵のプロンプトに対する有害な応答として測定する。
安全性能を保ったパラメータ空間における簡易指数移動平均(EMA)運動量法を提案する。
複数のデータセットにまたがるLlamaファミリーに関する実験は、安全性の問題が特別な介入なしに回避できることを実証している。
論文 参考訳(メタデータ) (2025-08-17T23:46:36Z) - Probabilistic Shielding for Safe Reinforcement Learning [51.35559820893218]
現実のシナリオでは、強化学習(RL)エージェントはトレーニング時間を含む安全な振る舞いをしなければならない。
我々は,Safe RLの厳密な保証を享受する,スケーラブルな新しい手法を提案する。
当社のアプローチは、トレーニングやテスト時にエージェントが安全であることを保証する厳格な公式な安全保証を提供する。
論文 参考訳(メタデータ) (2025-03-09T17:54:33Z) - Safety through Permissibility: Shield Construction for Fast and Safe Reinforcement Learning [57.84059344739159]
シールドディング」は、強化学習(RL)の安全性を強制する一般的な手法である
安全と遮蔽構造に対処する新しい許容性に基づく枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-29T18:00:21Z) - Leveraging Approximate Model-based Shielding for Probabilistic Safety
Guarantees in Continuous Environments [63.053364805943026]
近似モデルベースの遮蔽フレームワークを連続的な設定に拡張する。
特に、テストベッドとしてSafety Gymを使用し、一般的な制約付きRLアルゴリズムとABBSのより直接的な比較を可能にします。
論文 参考訳(メタデータ) (2024-02-01T17:55:08Z) - Optimal Transport Perturbations for Safe Reinforcement Learning with Robustness Guarantees [14.107064796593225]
我々は、最適な輸送コストの不確実性セットを用いてロバストネスを組み込んだ安全な強化学習フレームワークを導入する。
安全性の制約のある継続的制御タスクの実験では,本手法はロバストな性能を示しながら,デプロイ時の安全性を大幅に改善する。
論文 参考訳(メタデータ) (2023-01-31T02:39:52Z) - Enhancing Safe Exploration Using Safety State Augmentation [71.00929878212382]
モデルフリー強化学習における安全な探索の課題に取り組む。
トレーニング中に安全予算をスケジューリングするためのポリシーを導出します。
Simmer はトレーニングを安定させ,安全RL の性能を平均的制約で向上させることができることを示す。
論文 参考訳(メタデータ) (2022-06-06T15:23:07Z) - Sim-to-Lab-to-Real: Safe Reinforcement Learning with Shielding and
Generalization Guarantees [7.6347172725540995]
安全は自律システムにとって重要な要素であり、学習ベースのポリシーを現実世界で活用する上で依然として課題である。
我々は,現実のギャップを,確率的に保証された安全対応政策分布で埋めるべく,Sim-to-Lab-to-Realを提案する。
論文 参考訳(メタデータ) (2022-01-20T18:41:01Z) - Conservative Safety Critics for Exploration [120.73241848565449]
強化学習(RL)における安全な探索の課題について検討する。
我々は、批評家を通じて環境状態の保守的な安全性推定を学習する。
提案手法は,破滅的故障率を著しく低く抑えながら,競争力のあるタスク性能を実現することができることを示す。
論文 参考訳(メタデータ) (2020-10-27T17:54:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。