論文の概要: Learning Navigation Costs from Demonstration in Partially Observable
Environments
- arxiv url: http://arxiv.org/abs/2002.11637v1
- Date: Wed, 26 Feb 2020 17:15:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 14:42:18.885787
- Title: Learning Navigation Costs from Demonstration in Partially Observable
Environments
- Title(参考訳): 部分観測可能な環境におけるデモからナビゲーションコストを学習する
- Authors: Tianyu Wang, Vikas Dhiman, Nikolay Atanasov
- Abstract要約: 本稿では、未知の部分観測可能な環境における安全かつ効率的な自律ナビゲーションを実現するために、逆強化学習(IRL)に焦点を当てる。
本研究では, 確率的占有エンコーダと, 占有特性に繰り返し依存するコストエンコーダの2つの部分からなるコスト関数表現を開発する。
本モデルは,ロボットナビゲーションタスクにおけるベースラインIRLアルゴリズムの精度を上回り,トレーニングとテストタイム推論の効率を大幅に向上させる。
- 参考スコア(独自算出の注目度): 24.457042947946025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper focuses on inverse reinforcement learning (IRL) to enable safe and
efficient autonomous navigation in unknown partially observable environments.
The objective is to infer a cost function that explains expert-demonstrated
navigation behavior while relying only on the observations and state-control
trajectory used by the expert. We develop a cost function representation
composed of two parts: a probabilistic occupancy encoder, with recurrent
dependence on the observation sequence, and a cost encoder, defined over the
occupancy features. The representation parameters are optimized by
differentiating the error between demonstrated controls and a control policy
computed from the cost encoder. Such differentiation is typically computed by
dynamic programming through the value function over the whole state space. We
observe that this is inefficient in large partially observable environments
because most states are unexplored. Instead, we rely on a closed-form
subgradient of the cost-to-go obtained only over a subset of promising states
via an efficient motion-planning algorithm such as A* or RRT. Our experiments
show that our model exceeds the accuracy of baseline IRL algorithms in robot
navigation tasks, while substantially improving the efficiency of training and
test-time inference.
- Abstract(参考訳): 本稿では,未知の部分観測環境において安全かつ効率的な自律ナビゲーションを実現するための逆強化学習(irl)に着目した。
目的は、専門家が使用する観測と状態制御の軌跡にのみ依存しながら、専門家が実証したナビゲーション動作を説明するコスト関数を推論することである。
本研究では,観測シーケンスに繰り返し依存する確率的占有エンコーダと占有特性に基づいて定義されるコストエンコーダの2つの部分からなるコスト関数表現を開発する。
表現パラメータは、実証された制御とコストエンコーダから計算された制御ポリシーの誤差を微分することで最適化される。
このような微分は通常、状態空間全体の値関数を通して動的プログラミングによって計算される。
ほとんどの状態が探索されていないため、これは大きな部分観測可能な環境では非効率である。
代わりに、A* や RRT のような効率的なモーションプランニングアルゴリズムを通じて、有望な状態のサブセットでのみ得られるコスト・ツー・ゴーの閉形式次数に依存する。
本実験は,ロボットナビゲーションタスクにおけるベースラインIRLアルゴリズムの精度を上回り,トレーニングとテストタイム推論の効率を大幅に向上することを示した。
関連論文リスト
- Cost-Aware Query Policies in Active Learning for Efficient Autonomous Robotic Exploration [0.0]
本稿では,動作コストを考慮しつつ,ガウス過程回帰のためのALアルゴリズムを解析する。
距離制約を持つ伝統的な不確実性計量は、軌道距離上のルート平均二乗誤差を最小化する。
論文 参考訳(メタデータ) (2024-10-31T18:35:03Z) - Multistep Inverse Is Not All You Need [87.62730694973696]
実世界の制御環境では、観測空間は不要に高次元であり、時間関連ノイズにさらされることが多い。
したがって、観測空間を制御関連変数のより単純な空間にマッピングするエンコーダを学ぶことが望ましい。
本稿では,多段階逆予測と遅延フォワードモデルを組み合わせた新しいアルゴリズムACDFを提案する。
論文 参考訳(メタデータ) (2024-03-18T16:36:01Z) - Value function estimation using conditional diffusion models for control [62.27184818047923]
拡散値関数(DVF)と呼ばれる単純なアルゴリズムを提案する。
拡散モデルを用いて環境-ロボット相互作用の連成多段階モデルを学ぶ。
本稿では,DVFを用いて複数のコントローラの状態を効率よく把握する方法を示す。
論文 参考訳(メタデータ) (2023-06-09T18:40:55Z) - Can Direct Latent Model Learning Solve Linear Quadratic Gaussian
Control? [75.14973944905216]
本研究では,高次元観測から状態表現を学習する課題について検討する。
我々は,ある潜在状態空間における動的モデルを,計画に直接関連する量を予測することによって学習する,直接潜在モデル学習手法を追求する。
論文 参考訳(メタデータ) (2022-12-30T01:42:04Z) - TransPath: Learning Heuristics For Grid-Based Pathfinding via
Transformers [64.88759709443819]
探索の効率を顕著に向上させると考えられる,インスタンス依存のプロキシを学習することを提案する。
私たちが最初に学ぶことを提案するプロキシは、補正係数、すなわち、インスタンスに依存しないコスト・ツー・ゴの見積もりと完璧な見積もりの比率である。
第2のプロキシはパス確率であり、グリッドセルが最も短いパスに横たわっている可能性を示している。
論文 参考訳(メタデータ) (2022-12-22T14:26:11Z) - Value-Consistent Representation Learning for Data-Efficient
Reinforcement Learning [105.70602423944148]
本稿では,意思決定に直接関連のある表現を学習するための,VCR(Value-Consistent Expression Learning)という新しい手法を提案する。
この想像された状態と環境によって返される実状態とを一致させる代わりに、VCRは両方の状態に$Q$-valueヘッドを適用し、2つのアクション値の分布を得る。
検索不要なRLアルゴリズムに対して,提案手法が新たな最先端性能を実現することが実証された。
論文 参考訳(メタデータ) (2022-06-25T03:02:25Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Goal-Directed Planning by Reinforcement Learning and Active Inference [16.694117274961016]
ベイジアン推論を用いた新たな意思決定フレームワークを提案する。
ゴール指向の振る舞いは、計画によって$z$の後方分布から決定される。
本稿では,カメラ観測と連続運動動作を用いたセンサモレータナビゲーションタスクの実験により,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-06-18T06:41:01Z) - Inverse reinforcement learning for autonomous navigation via
differentiable semantic mapping and planning [20.66819092398541]
本稿では,距離と意味カテゴリー観測を用いた自律ナビゲーションのための逆強化学習について述べる。
観測シーケンスから意味的カテゴリ確率を推測するマップエンコーダと、意味論的特徴に対するディープニューラルネットワークとして定義されるコストエンコーダを開発している。
本研究では,建物,歩道,路面のセマンティックな観察に頼って,自律走行型CARLAシミュレータの交通ルールを追従する手法を提案する。
論文 参考訳(メタデータ) (2021-01-01T07:41:08Z) - Learning Navigation Costs from Demonstration with Semantic Observations [24.457042947946025]
本稿では,自律型ロボットナビゲーションにおける意味的観察を用いた逆強化学習(IRL)に焦点を当てた。
観測シーケンスからセマンティッククラス確率を推定するマップエンコーダと、セマンティックな特徴よりもディープニューラルネットワークとして定義されるコストエンコーダを開発する。
提案手法は,自動車,歩道,道路路面のセマンティックな観察に頼って,自律走行CARLAシミュレータにおける交通ルールに従うことを学習していることを示す。
論文 参考訳(メタデータ) (2020-06-09T04:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。