論文の概要: Soft Actor-Critic-based Control Barrier Adaptation for Robust Autonomous Navigation in Unknown Environments
- arxiv url: http://arxiv.org/abs/2503.08479v1
- Date: Tue, 11 Mar 2025 14:33:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 19:17:14.005882
- Title: Soft Actor-Critic-based Control Barrier Adaptation for Robust Autonomous Navigation in Unknown Environments
- Title(参考訳): 未知環境におけるロバストな自律ナビゲーションのためのソフトアクタ・クリティカル制御バリア適応
- Authors: Nicholas Mohammad, Nicola Bezzo,
- Abstract要約: 制御バリア関数(CBF)の制約パラメータを実行時に適用するためのソフトアクタ・クリティカル(SAC)ベースのポリシーを提案する。
我々は,本フレームワークがCBF制約を効果的に適用し,ロボットが安全性を損なうことなく最終目標に達することを実証した。
- 参考スコア(独自算出の注目度): 4.788163807490197
- License:
- Abstract: Motion planning failures during autonomous navigation often occur when safety constraints are either too conservative, leading to deadlocks, or too liberal, resulting in collisions. To improve robustness, a robot must dynamically adapt its safety constraints to ensure it reaches its goal while balancing safety and performance measures. To this end, we propose a Soft Actor-Critic (SAC)-based policy for adapting Control Barrier Function (CBF) constraint parameters at runtime, ensuring safe yet non-conservative motion. The proposed approach is designed for a general high-level motion planner, low-level controller, and target system model, and is trained in simulation only. Through extensive simulations and physical experiments, we demonstrate that our framework effectively adapts CBF constraints, enabling the robot to reach its final goal without compromising safety.
- Abstract(参考訳): 自律航法中の動作計画の失敗は、安全上の制約が保守的すぎるか、デッドロック(デッドロック)が多すぎるか、あるいはリベラルすぎるかのどちらかである。
堅牢性を向上するためには、ロボットは安全性と性能のバランスを保ちながら、目標を達成するために安全性の制約を動的に調整する必要がある。
そこで本研究では,制御バリア関数(CBF)制約パラメータを実行時に適用し,安全かつ非保守的な動作を確保するためのソフトアクタ・クリティカル(SAC)ベースのポリシーを提案する。
提案手法は、一般的な高レベルモーションプランナー、低レベルコントローラ、ターゲットシステムモデルのために設計され、シミュレーションのみに訓練されている。
広範囲なシミュレーションと物理実験により,本フレームワークはCBF制約を効果的に適用し,ロボットが安全性を損なうことなく最終目標に達することを実証した。
関連論文リスト
- One Filter to Deploy Them All: Robust Safety for Quadrupedal Navigation in Unknown Environments [10.103090762559708]
観測条件付き到達可能性に基づく安全フィルタ(OCR)フレームワークを提案する。
我々のキーとなるアイデアは、新しい障害領域に対する最適制御理論安全値関数を予測するOCR値ネットワーク(OCR-VN)を使用することです。
提案手法は,多種多様な階層型二次制御系を自動で保護できることを実証する。
論文 参考訳(メタデータ) (2024-12-13T09:21:02Z) - Custom Non-Linear Model Predictive Control for Obstacle Avoidance in Indoor and Outdoor Environments [0.0]
本稿では,DJI行列100のための非線形モデル予測制御(NMPC)フレームワークを提案する。
このフレームワークは様々なトラジェクトリタイプをサポートし、厳密な操作の精度を制御するためにペナルティベースのコスト関数を採用している。
論文 参考訳(メタデータ) (2024-10-03T17:50:19Z) - Modular Control Architecture for Safe Marine Navigation: Reinforcement Learning and Predictive Safety Filters [0.0]
強化学習は複雑なシナリオに適応するためにますます使われていますが、安全性と安定性を保証するための標準フレームワークは欠如しています。
予測安全フィルタ(PSF)は、明示的な制約処理を伴わずに、学習ベースの制御における制約満足度を確保する、有望なソリューションを提供する。
この手法を海洋航法に適用し,シミュレーションされたCybership IIモデル上でRLとPSFを組み合わせた。
その結果, PSF が安全維持に有効であることは, RL エージェントの学習速度と性能を損なうことなく示され, PSF を使用せずに標準 RL エージェントに対して評価された。
論文 参考訳(メタデータ) (2023-12-04T12:37:54Z) - Safe Deep Policy Adaptation [7.2747306035142225]
強化学習(RL)に基づく政策適応は、汎用性と汎用性を提供するが、安全性と堅牢性に挑戦する。
政策適応と安全強化学習の課題を同時に解決する新しいRLおよび制御フレームワークであるSafeDPAを提案する。
我々は、SafeDPAの理論的安全性を保証し、学習エラーや余分な摂動に対するSafeDPAの堅牢性を示す。
論文 参考訳(メタデータ) (2023-10-08T00:32:59Z) - ISAACS: Iterative Soft Adversarial Actor-Critic for Safety [0.9217021281095907]
この研究は、ロボットシステムのための堅牢な安全維持コントローラのスケーラブルな合成を可能にする新しいアプローチを導入する。
安全を追求するフォールバックポリシーは、モデルエラーの最悪のケースの実現を促進するために、敵の「混乱」エージェントと共同で訓練される。
学習した制御ポリシーは本質的に安全性を保証するものではないが、リアルタイムの安全フィルタを構築するために使用される。
論文 参考訳(メタデータ) (2022-12-06T18:53:34Z) - Meta-Learning Priors for Safe Bayesian Optimization [72.8349503901712]
メタ学習アルゴリズムであるF-PACOHを構築し,データ不足の設定において確実な定量化を実現する。
コアコントリビューションとして、安全に適合した事前をデータ駆動で選択するための新しいフレームワークを開発する。
ベンチマーク関数と高精度動作系において,我々のメタ学習先行が安全なBOアプローチの収束を加速することを示す。
論文 参考訳(メタデータ) (2022-10-03T08:38:38Z) - Enforcing Hard Constraints with Soft Barriers: Safe Reinforcement
Learning in Unknown Stochastic Environments [84.3830478851369]
本研究では,環境を協調的に学習し,制御ポリシーを最適化する安全な強化学習手法を提案する。
本手法は, 安全性の制約を効果的に適用し, シミュレーションにより測定したシステム安全率においてCMDPベースのベースライン法を著しく上回っている。
論文 参考訳(メタデータ) (2022-09-29T20:49:25Z) - BarrierNet: A Safety-Guaranteed Layer for Neural Networks [50.86816322277293]
BarrierNetは、ニューラルコントローラの安全性の制約が環境の変化に適応できるようにする。
本研究では,2次元空間と3次元空間における交通統合やロボットナビゲーションといった一連の制御問題について評価する。
論文 参考訳(メタデータ) (2021-11-22T15:38:11Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Learning Robust Hybrid Control Barrier Functions for Uncertain Systems [68.30783663518821]
我々は,ロバストな安全を確保する制御則を合成する手段として,ロバストなハイブリッド制御障壁関数を提案する。
この概念に基づき,データからロバストなハイブリッド制御障壁関数を学習するための最適化問題を定式化する。
我々の技術は、モデル不確実性の対象となるコンパス歩行歩行者の魅力領域を安全に拡張することを可能にする。
論文 参考訳(メタデータ) (2021-01-16T17:53:35Z) - Guided Constrained Policy Optimization for Dynamic Quadrupedal Robot
Locomotion [78.46388769788405]
我々は,制約付きポリシー最適化(CPPO)の実装に基づくRLフレームワークであるGCPOを紹介する。
誘導制約付きRLは所望の最適値に近い高速収束を実現し,正確な報酬関数チューニングを必要とせず,最適かつ物理的に実現可能なロボット制御動作を実現することを示す。
論文 参考訳(メタデータ) (2020-02-22T10:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。