論文の概要: Benchmarking Deep Reinforcement Learning for Navigation in Denied Sensor Environments
- arxiv url: http://arxiv.org/abs/2410.14616v1
- Date: Fri, 18 Oct 2024 17:14:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-21 14:26:04.797807
- Title: Benchmarking Deep Reinforcement Learning for Navigation in Denied Sensor Environments
- Title(参考訳): 密度センサ環境におけるナビゲーションのための深部強化学習のベンチマーク
- Authors: Mariusz Wisniewski, Paraskevas Chatzithanos, Weisi Guo, Antonios Tsourdos,
- Abstract要約: センサデニアル効果を有するナビゲーションタスクにおいて、よく使われるDRLアルゴリズムと新興DRLアルゴリズムのベンチマークを示す。
本研究では,DreamerV3が視覚的エンド・ツー・エンドナビゲーションタスクにおいて,動的ゴールで他の手法よりも優れていることを示す。
頑健性を向上させるために,敵の訓練を用い,否定された環境における性能向上を実証する。
- 参考スコア(独自算出の注目度): 8.790031632022362
- License:
- Abstract: Deep Reinforcement learning (DRL) is used to enable autonomous navigation in unknown environments. Most research assume perfect sensor data, but real-world environments may contain natural and artificial sensor noise and denial. Here, we present a benchmark of both well-used and emerging DRL algorithms in a navigation task with configurable sensor denial effects. In particular, we are interested in comparing how different DRL methods (e.g. model-free PPO vs. model-based DreamerV3) are affected by sensor denial. We show that DreamerV3 outperforms other methods in the visual end-to-end navigation task with a dynamic goal - and other methods are not able to learn this. Furthermore, DreamerV3 generally outperforms other methods in sensor-denied environments. In order to improve robustness, we use adversarial training and demonstrate an improved performance in denied environments, although this generally comes with a performance cost on the vanilla environments. We anticipate this benchmark of different DRL methods and the usage of adversarial training to be a starting point for the development of more elaborate navigation strategies that are capable of dealing with uncertain and denied sensor readings.
- Abstract(参考訳): Deep Reinforcement Learning (DRL)は、未知の環境で自律的なナビゲーションを可能にするために使用される。
ほとんどの研究は完璧なセンサーデータを想定しているが、現実の環境には自然と人工のセンサーノイズと否定が含まれる可能性がある。
本稿では、ナビゲーションタスクにおいて、よく使われているDRLアルゴリズムと新しいDRLアルゴリズムの両方のベンチマークを、構成可能なセンサデニアル効果を用いて提示する。
特に,異なるDRL法(例えば,モデルフリーPPOとモデルベースDreamerV3)がセンサデニアルによってどのように影響を受けるかを比較することに興味がある。
DreamerV3は、動的ゴールで視覚的なエンドツーエンドナビゲーションタスクにおいて他のメソッドよりも優れており、他のメソッドではそれを学べないことを示す。
さらに、DreamerV3は一般的にセンサーデニド環境において他の方法よりも優れています。
堅牢性を改善するために、私たちは敵のトレーニングを使用し、否定された環境でパフォーマンスを向上させることを実証しています。
我々は、この異なるDRL手法のベンチマークと、敵の訓練の使用が、不確実かつ否定されたセンサ読み取りを扱うことができるより精巧なナビゲーション戦略の開発の出発点になることを期待している。
関連論文リスト
- MPVO: Motion-Prior based Visual Odometry for PointGoal Navigation [3.9974562667271507]
視覚計測(VO)は,室内環境におけるエンボディエージェントの正確なポイントゴールナビゲーションを可能にするために不可欠である。
近年の深層学習VO法は, 頑健な性能を示すが, トレーニング中のサンプル不効率に悩まされている。
エージェントが環境をナビゲートしている間に利用可能な動作先に基づいて、ロバストでサンプル効率の良いVOパイプラインを提案する。
論文 参考訳(メタデータ) (2024-11-07T15:36:49Z) - An Empirical Study of the Generalization Ability of Lidar 3D Object
Detectors to Unseen Domains [6.4288046828223315]
3Dオブジェクト検出器(3D-OD)は多くのロボット作業、特に自律運転における環境理解に不可欠である。
ここでは、ドメイン適応に先立って堅牢性に影響を与える基本的な要素に焦点を当て、3D-ODの詳細に焦点を当てる。
主な知見は,(1) 局地的特徴を持つトランスフォーマーバックボーンは3次元CNNよりも頑丈であり,(2) テスト時アンカーサイズ調整は地理的な位置の適応に不可欠であり,また,再トレーニングを伴わずにスコアを著しく向上させ,(4) 意外なことに,悪天候に対するロバスト性は,悪天候データを用いたトレーニングよりもクリーンな気象データを直接トレーニングする場合に向上する。
論文 参考訳(メタデータ) (2024-02-27T15:02:17Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Self-Supervised Monocular Depth Estimation by Direction-aware Cumulative
Convolution Network [80.19054069988559]
自己教師付き単眼深度推定は, 方向感度と環境依存性を示す。
本稿では2つの側面において深度表現を改善する方向対応累積畳み込みネットワーク(DaCCN)を提案する。
実験の結果,提案手法は広く使用されている3つのベンチマークにおいて大幅な改善が得られた。
論文 参考訳(メタデータ) (2023-08-10T14:32:18Z) - Analysis of LiDAR Configurations on Off-road Semantic Segmentation
Performance [0.6882042556551609]
本稿では、3次元LiDARポイントクラウドセマンティックセグメンテーションモデルの性能に及ぼすLiDAR構成シフトの影響について検討する。
Cylinder3Dモデルは、ミシシッピ州立大学自動運転車シミュレータ(MAVS)で作成したシミュレーションされた3D LiDARポイントクラウドデータセットと、実世界のオフロード環境で収集されたRELLIS-3Dデータセットの32,64チャンネルのLiDARポイントクラウドでトレーニングされ、テストされている。
論文 参考訳(メタデータ) (2023-06-28T20:41:45Z) - Modality-invariant Visual Odometry for Embodied Vision [1.7188280334580197]
ビジュアルオドメトリー(VO)は、信頼性の低いGPSとコンパスセンサーの代替品である。
最近のディープVOモデルは、数百万のサンプルをトレーニングしながら、RGBや深さなどの入力モダリティの固定セットに制限されている。
本稿では,トランスフォーマーをベースとしたモダリティ不変VOアプローチを提案する。
論文 参考訳(メタデータ) (2023-04-29T21:47:12Z) - Virtual Reality via Object Poses and Active Learning: Realizing
Telepresence Robots with Aerial Manipulation Capabilities [39.29763956979895]
本稿では,動的・非構造環境下での空中操作を進展させる新しいテレプレゼンスシステムを提案する。
提案システムは触覚デバイスだけでなく、ロボットのワークスペースのリアルタイム3Dディスプレイを提供する仮想現実(VR)インターフェースも備えている。
DLRケーブル・サスペンド・エアリアルマニピュレータ(SAM)によるピック・アンド・プレイス、フォース・アプリケーション、ペグ・イン・ホールの70以上の堅牢な実行を示す。
論文 参考訳(メタデータ) (2022-10-18T08:42:30Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - Integrating Egocentric Localization for More Realistic Point-Goal
Navigation Agents [90.65480527538723]
本研究では,ノイズ行動力学の下での自我行動の視覚的推定に依存するポイントゴールナビゲーションエージェントを開発した。
私たちのエージェントはCVPR 2020 Habitat ChallengeのPointNavトラックのランナーでした。
論文 参考訳(メタデータ) (2020-09-07T16:52:47Z) - Active Visual Information Gathering for Vision-Language Navigation [115.40768457718325]
視覚言語ナビゲーション(VLN)は、エージェントがフォトリアリスティックな環境の中でナビゲーションの指示を行うためのタスクである。
VLNの重要な課題の1つは、曖昧な指示による不確実性を緩和し、環境の観察を不十分にすることで、堅牢なナビゲーションを行う方法である。
この研究は、人間のナビゲーション行動からインスピレーションを得て、よりインテリジェントなVLNポリシーのためのアクティブな情報収集能力を持つエージェントを提供する。
論文 参考訳(メタデータ) (2020-07-15T23:54:20Z) - Improving Target-driven Visual Navigation with Attention on 3D Spatial
Relationships [52.72020203771489]
3次元屋内シーンにおける深部強化学習(DRL)を用いた目標駆動型視覚ナビゲーションについて検討した。
提案手法は視覚特徴と3次元空間表現を組み合わせてナビゲーションポリシーを学習する。
AI2-THORで実施した我々の実験は、SRとSPLの指標において、モデルがベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2020-04-29T08:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。