論文の概要: Deep Bayesian Future Fusion for Self-Supervised, High-Resolution, Off-Road Mapping
- arxiv url: http://arxiv.org/abs/2403.11876v2
- Date: Fri, 27 Sep 2024 14:18:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-09 03:59:24.473797
- Title: Deep Bayesian Future Fusion for Self-Supervised, High-Resolution, Off-Road Mapping
- Title(参考訳): 自己監督型高分解能オフロードマッピングのためのディープベイズフュージョン
- Authors: Shubhra Aich, Wenshan Wang, Parv Maheshwari, Matthew Sivaprakasam, Samuel Triest, Cherie Ho, Jason M. Gregory, John G. Rogers III, Sebastian Scherer,
- Abstract要約: 高速オフロードナビゲーションは、ロボットがさまざまな表面を安全に移動できるようにするために、長距離で高解像度の地図を必要とする。
オフロードマッピングへのほとんどのアプローチは、環境の粗い(20-40cm)マップを作ることに重点を置いている。
スパースセンシングデータ(30m前方2cm)から高解像度高解像度マップを生成可能なフレームワークであるFuture Fusionを提案する。
- 参考スコア(独自算出の注目度): 10.985657613900523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-speed off-road navigation requires long-range, high-resolution maps to enable robots to safely navigate over different surfaces while avoiding dangerous obstacles. However, due to limited computational power and sensing noise, most approaches to off-road mapping focus on producing coarse (20-40cm) maps of the environment. In this paper, we propose Future Fusion, a framework capable of generating dense, high-resolution maps from sparse sensing data (30m forward at 2cm). This is accomplished by - (1) the efficient realization of the well-known Bayes filtering within the standard deep learning models that explicitly accounts for the sparsity pattern in stereo and LiDAR depth data, and (2) leveraging perceptual losses common in generative image completion. The proposed methodology outperforms the conventional baselines. Moreover, the learned features and the completed dense maps lead to improvements in the downstream navigation task.
- Abstract(参考訳): 高速オフロードナビゲーションは、ロボットが危険な障害物を避けながら、さまざまな表面を安全に移動できるようにするために、長距離で高解像度の地図を必要とする。
しかし、計算能力の制限とセンサノイズのため、オフロードマッピングへのほとんどのアプローチは、環境の粗い(20-40cm)マップの作成に重点を置いている。
本稿では,スパースセンシングデータ(30m前方2cm)から高解像度高解像度マップを生成するフレームワークであるFuture Fusionを提案する。
これは,(1)ステレオおよびLiDAR深度データにおける空間パターンを明示的に考慮した標準ディープラーニングモデルにおける有名なベイズフィルタリングの効率的な実現と,(2)生成的画像補完に共通する知覚的損失の活用により達成される。
提案手法は従来の基準よりも優れている。
さらに、学習した特徴と完成された高密度マップは、下流ナビゲーションタスクの改善につながる。
関連論文リスト
- Automated Linear Disturbance Mapping via Semantic Segmentation of Sentinel-2 Imagery [0.0]
道路、地震探査線、パイプラインは、森林地帯のカリブーの人口に重大な脅威をもたらす。
本研究では、低解像度(10m)のSentinel-2衛星画像のセマンティックセグメンテーションのためのVGGNet16アーキテクチャに基づく深部畳み込みニューラルネットワークモデルを用いる。
このモデルは、無料のAlberta Institute of Biodiversity Monitoring Human Footprintデータセットから得られた、地平線ラベルマップを使って訓練されている。
論文 参考訳(メタデータ) (2024-09-19T14:42:12Z) - TopoNav: Topological Navigation for Efficient Exploration in Sparse Reward Environments [0.6597195879147555]
TopoNavは、スパース・リワード設定における効率的な目標指向の探索とナビゲーションのための新しいフレームワークである。
TopoNavは環境のトポロジカルマップを動的に構築し、主要な場所と経路をキャプチャする。
本研究では,Clearpath Jackalロボットを用いて,シミュレーションと実世界のオフロード環境におけるTopoNavの評価を行った。
論文 参考訳(メタデータ) (2024-02-06T15:05:25Z) - Pixel to Elevation: Learning to Predict Elevation Maps at Long Range using Images for Autonomous Offroad Navigation [10.898724668444125]
本稿では,車載エゴセントリック画像のみをリアルタイムに利用して,長距離の地形標高マップを予測できる学習型アプローチを提案する。
複雑で非構造的な地形における自律型オフロードロボットナビゲーションへの提案手法の適用性を実験的に検証した。
論文 参考訳(メタデータ) (2024-01-30T22:37:24Z) - Graph augmented Deep Reinforcement Learning in the GameRLand3D
environment [11.03710870581386]
強化学習で訓練された低レベルポリシーとグラフに基づく高レベル古典プランナを組み合わせたハイブリッド手法を提案する。
本研究では,広範囲な環境下でのエンドツーエンドの深部RLアプローチの限界を定量的に検証する。
また、新しいベンチマークである"GameRLand3D"を導入し、間もなくリリースされる環境では、ナビゲーションタスクのための複雑な手続き型3Dマップを生成することができる。
論文 参考訳(メタデータ) (2021-12-22T08:48:00Z) - Towards Unpaired Depth Enhancement and Super-Resolution in the Wild [121.96527719530305]
最先端のデータ駆動による深度マップの超解像法は、同じシーンの低解像度と高解像度の深度マップの登録ペアに依存している。
未経験データからの学習に基づく深度マップの強化について考察する。
論文 参考訳(メタデータ) (2021-05-25T16:19:16Z) - Convolutional Recurrent Network for Road Boundary Extraction [99.55522995570063]
我々は,LiDARとカメラ画像からの道路境界抽出の問題に取り組む。
我々は,完全畳み込みネットワークが道路境界の位置と方向をエンコードする深い特徴量を得る構造化モデルを設計する。
北米の大都市において,道路境界の完全なトポロジを99.3%の時間で得られる方法の有効性を示す。
論文 参考訳(メタデータ) (2020-12-21T18:59:12Z) - HR-Depth: High Resolution Self-Supervised Monocular Depth Estimation [14.81943833870932]
本稿では,2つの効果的な戦略を持つ改良DepthNet,HR-Depthを提案する。
resnet-18をエンコーダとして使用すると、hr-depthは、高解像度と低解像度の両方で最小パラマエターを持つ、以前の最先端(sota)メソッドをすべて上回る。
論文 参考訳(メタデータ) (2020-12-14T09:15:15Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z) - A Single Stream Network for Robust and Real-time RGB-D Salient Object
Detection [89.88222217065858]
我々は、深度マップを用いて、RGBと深度の間の早期融合と中核融合を誘導する単一ストリームネットワークを設計する。
このモデルは、現在の最も軽量なモデルよりも55.5%軽く、32 FPSのリアルタイム速度で384倍の384ドルの画像を処理している。
論文 参考訳(メタデータ) (2020-07-14T04:40:14Z) - DPANet: Depth Potentiality-Aware Gated Attention Network for RGB-D
Salient Object Detection [107.96418568008644]
そこで我々は,DPANetという新しいネットワークを提案し,深度マップの可能性を明確にモデル化し,モーダル間の相補性を効果的に統合する。
深度ポテンシャル知覚を導入することにより、ネットワークは深度情報のポテンシャルを学習ベースで知覚することができる。
論文 参考訳(メタデータ) (2020-03-19T07:27:54Z) - RoutedFusion: Learning Real-time Depth Map Fusion [73.0378509030908]
深度マップ融合のための新しいリアルタイム能動機械学習手法を提案する。
本稿では,通常の核融合エラーを考慮に入れた非線形更新を予測できるニューラルネットワークを提案する。
本ネットワークは2次元深度ルーティングネットワークと3次元深度融合ネットワークから構成されており,センサ固有のノイズや外れ値の処理を効率的に行う。
論文 参考訳(メタデータ) (2020-01-13T16:46:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。