論文の概要: Cross-Modal Contrastive Learning of Representations for Navigation using
Lightweight, Low-Cost Millimeter Wave Radar for Adverse Environmental
Conditions
- arxiv url: http://arxiv.org/abs/2101.03525v1
- Date: Sun, 10 Jan 2021 11:21:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 04:57:34.340948
- Title: Cross-Modal Contrastive Learning of Representations for Navigation using
Lightweight, Low-Cost Millimeter Wave Radar for Adverse Environmental
Conditions
- Title(参考訳): 逆環境下における軽量低速度ミリ波レーダを用いたナビゲーション表現のクロスモーダルコントラスト学習
- Authors: Jui-Te Huang, Chen-Lung Lu, Po-Kai Chang, Ching-I Huang, Chao-Chun
Hsu, Zu Lin Ewe, Po-Jui Huang and Hsueh-Cheng Wang
- Abstract要約: 学習に基づく自律ナビゲーションのためのシングルチップミリ波(mmWave)レーダの使用を提案する。
mmWaveレーダ信号はしばしば騒がしいため、表現のためのクロスモーダルコントラスト学習(CM-CLR)法を提案します。
対比学習によるエンドツーエンドの深部RLポリシーは、煙がいっぱいの迷路環境でロボットをうまくナビゲートしました。
- 参考スコア(独自算出の注目度): 1.9822346227538585
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep reinforcement learning (RL), where the agent learns from mistakes, has
been successfully applied to a variety of tasks. With the aim of learning
collision-free policies for unmanned vehicles, deep RL has been used for
training with various types of data, such as colored images, depth images, and
LiDAR point clouds, without the use of classic map--localize--plan approaches.
However, existing methods are limited by their reliance on cameras and LiDAR
devices, which have degraded sensing under adverse environmental conditions
(e.g., smoky environments). In response, we propose the use of single-chip
millimeter-wave (mmWave) radar, which is lightweight and inexpensive, for
learning-based autonomous navigation. However, because mmWave radar signals are
often noisy and sparse, we propose a cross-modal contrastive learning for
representation (CM-CLR) method that maximizes the agreement between mmWave
radar data and LiDAR data in the training stage. We evaluated our method in
real-world robot compared with 1) a method with two separate networks using
cross-modal generative reconstruction and an RL policy and 2) a baseline RL
policy without cross-modal representation. Our proposed end-to-end deep RL
policy with contrastive learning successfully navigated the robot through
smoke-filled maze environments and achieved better performance compared with
generative reconstruction methods, in which noisy artifact walls or obstacles
were produced. All pretrained models and hardware settings are open access for
reproducing this study and can be obtained at
https://arg-nctu.github.io/projects/deeprl-mmWave.html
- Abstract(参考訳): エージェントがミスから学習する深層強化学習(RL)は、様々なタスクにうまく適用されている。
無人車両の衝突のないポリシーを学習するために、深部RLは、古典的な地図-ローカライズ-プランアプローチを使わずに、色付き画像、深度画像、LiDAR点雲などの様々な種類のデータでトレーニングするために使われてきた。
しかし、既存の手法はカメラやLiDAR機器に依存しているため、環境の悪さ(スモーキーな環境など)で感知が低下している。
そこで本研究では,シングルチップミリ波(mmWave)レーダーを軽量かつ安価に利用し,学習に基づく自律ナビゲーションを実現することを提案する。
しかし,mmWave レーダの信号はノイズが多く,疎いため,訓練段階における mmWave レーダデータと LiDAR データの一致を最大化する表現法 (CM-CLR) のクロスモーダルコントラスト学習を提案する。
本手法を実世界のロボットで評価し,1) クロスモーダル生成再構成とRLポリシーを用いた2つのネットワークを用いた手法,2) クロスモーダル表現のないベースラインRLポリシーと比較した。
逆学習によるエンドツーエンドの深層RLポリシーは,煙に満ちた迷路環境を通じてロボットをナビゲートし,ノイズの多い人工物壁や障害物を発生させる再生法に比べ,優れた性能を実現した。
事前トレーニングされたモデルとハードウェア設定はすべて、この研究を再現するためのオープンアクセスであり、https://arg-nctu.github.io/projects/deeprl-mmWave.orgで入手できる。
関連論文リスト
- LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
LiDARシミュレーションは、自動運転におけるクローズドループシミュレーションにおいて重要な役割を果たす。
都市景観におけるLiDARセンサスキャンをリアルタイムに再現するために,最初のLiDARガウス法であるLiDAR-GSを提案する。
我々の手法は、深度、強度、レイドロップチャンネルを同時に再現することに成功し、公開可能な大規模シーンデータセットにおけるフレームレートと品質の両方のレンダリング結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Towards Dense and Accurate Radar Perception Via Efficient Cross-Modal Diffusion Model [4.269423698485249]
本稿では, クロスモーダル学習による高密度かつ高精度なミリ波レーダポイント雲構築手法を提案する。
具体的には, 2組の生レーダデータからLiDARのような点雲を予測するために, 生成モデルにおける最先端性能を有する拡散モデルを提案する。
提案手法をベンチマーク比較と実世界の実験により検証し,その優れた性能と一般化能力を実証した。
論文 参考訳(メタデータ) (2024-03-13T12:20:20Z) - PathRL: An End-to-End Path Generation Method for Collision Avoidance via
Deep Reinforcement Learning [16.397594417992483]
本稿では,ロボットのナビゲーション経路を生成するためのポリシーをトレーニングする新しいDRL手法であるPathRLを提案する。
実験では,他のDRLナビゲーション法と比較して,PathRLは良好な成功率を示し,角度可変性を低下させる。
論文 参考訳(メタデータ) (2023-10-20T05:55:13Z) - NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration [57.15811390835294]
本稿では,目標指向ナビゲーションと目標非依存探索の両方を扱うために,単一の統合拡散政策をトレーニングする方法について述べる。
この統一された政策は、新しい環境における目標を視覚的に示す際に、全体的な性能が向上することを示す。
実世界の移動ロボットプラットフォーム上で実施した実験は,5つの代替手法と比較して,見えない環境における効果的なナビゲーションを示す。
論文 参考訳(メタデータ) (2023-10-11T21:07:14Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - Verifying Learning-Based Robotic Navigation Systems [61.01217374879221]
有効モデル選択に現代検証エンジンをどのように利用できるかを示す。
具体的には、検証を使用して、最適下行動を示す可能性のあるポリシーを検出し、除外する。
我々の研究は、現実世界のロボットにおける準最適DRLポリシーを認識するための検証バックエンドの使用を初めて実証したものである。
論文 参考訳(メタデータ) (2022-05-26T17:56:43Z) - An A* Curriculum Approach to Reinforcement Learning for RGBD Indoor
Robot Navigation [6.660458629649825]
最近リリースされたhabitatのようなフォトリアリスティックシミュレータは、知覚から直接制御アクションを出力するネットワークのトレーニングを可能にする。
本稿では,知覚の訓練とニューラルネットの制御を分離し,経路の複雑さを徐々に増すことにより,この問題を克服しようとする。
論文 参考訳(メタデータ) (2021-01-05T20:35:14Z) - Learning Dexterous Manipulation from Suboptimal Experts [69.8017067648129]
相対エントロピーQラーニング(Relative Entropy Q-Learning、REQ)は、オフラインおよび従来のRLアルゴリズムのアイデアを組み合わせた単純なポリシーアルゴリズムである。
本稿では、REQが、デモから一般の政治外RL、オフラインRL、およびRLにどのように有効であるかを示す。
論文 参考訳(メタデータ) (2020-10-16T18:48:49Z) - Deep Reinforcement Learning Control for Radar Detection and Tracking in
Congested Spectral Environments [8.103366584285645]
レーダは、他のシステムとの相互干渉を軽減するために、その線形周波数変調(LFM)波形の帯域幅と中心周波数を変化させることを学ぶ。
DQLベースのアプローチを拡張して、ダブルQ-ラーニングとリカレントニューラルネットワークを組み込んで、ダブルディープリカレントQ-ネットワークを形成する。
実験結果から,提案手法は集束スペクトル環境におけるレーダ検出性能を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2020-06-23T17:21:28Z) - Experimental Analysis of Reinforcement Learning Techniques for Spectrum
Sharing Radar [8.852345851445829]
本稿では,RL(Reinforcement Reinforcement)制御を,集束したスペクトル環境で動作するレーダシステムに適用するためのフレームワークについて述べる。
市販オフ・ザ・シェルフ(COTS)ハードウェアで実施した実験から,いくつかのRLアルゴリズムの有用性を比較した。
各RL技術は, 集束スペクトル環境において達成された収束性, レーダ検出性能, および100MHzスペクトルを非協調通信システムと共有する能力の観点から評価する。
論文 参考訳(メタデータ) (2020-01-06T22:32:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。