論文の概要: Deep Bayesian Future Fusion for Self-Supervised, High-Resolution, Off-Road Mapping
- arxiv url: http://arxiv.org/abs/2403.11876v1
- Date: Mon, 18 Mar 2024 15:28:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 19:50:22.610056
- Title: Deep Bayesian Future Fusion for Self-Supervised, High-Resolution, Off-Road Mapping
- Title(参考訳): 自己監督型高分解能オフロードマッピングのためのディープベイズフュージョン
- Authors: Shubhra Aich, Wenshan Wang, Parv Maheshwari, Matthew Sivaprakasam, Samuel Triest, Cherie Ho, Jason M. Gregory, John G. Rogers III, Sebastian Scherer,
- Abstract要約: 我々は、RGB/高さの生のスパースとノイズの多い入力とマップベースの高密度ラベルのペアを含む高解像度のフューチャーフュージョンデータセットを作成する。
次に,ベイズフィルタのバニラ畳み込みネットワークへの効率的な実現を設計する。
- 参考スコア(独自算出の注目度): 10.985657613900523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The limited sensing resolution of resource-constrained off-road vehicles poses significant challenges towards reliable off-road autonomy. To overcome this limitation, we propose a general framework based on fusing the future information (i.e. future fusion) for self-supervision. Recent approaches exploit this future information alongside the hand-crafted heuristics to directly supervise the targeted downstream tasks (e.g. traversability estimation). However, in this paper, we opt for a more general line of development - time-efficient completion of the highest resolution (i.e. 2cm per pixel) BEV map in a self-supervised manner via future fusion, which can be used for any downstream tasks for better longer range prediction. To this end, first, we create a high-resolution future-fusion dataset containing pairs of (RGB / height) raw sparse and noisy inputs and map-based dense labels. Next, to accommodate the noise and sparsity of the sensory information, especially in the distal regions, we design an efficient realization of the Bayes filter onto the vanilla convolutional network via the recurrent mechanism. Equipped with the ideas from SOTA generative models, our Bayesian structure effectively predicts high-quality BEV maps in the distal regions. Extensive evaluation on both the quality of completion and downstream task on our future-fusion dataset demonstrates the potential of our approach.
- Abstract(参考訳): 資源が制限されたオフロード車両の感度の制限は、信頼性の高いオフロード自律性に重大な課題をもたらす。
この制限を克服するため、我々は将来的な情報(すなわち、将来の融合)を自己監督のために融合する一般的な枠組みを提案する。
近年のアプローチでは、この未来の情報を手作りのヒューリスティックスと共に活用して、ターゲットとする下流タスクを直接監督している(例えば、トラバーサビリティ推定)。
しかし,本稿では,高分解能(画素あたり2cm)のBEVマップを将来の融合を通じて自己監督的に作成し,より長い範囲の予測のために下流のタスクに使用できる,より一般的な開発ラインを選択する。
この目的のために、まず、RGB/高さの生のスパースとノイズの多い入力とマップベースの高密度ラベルのペアを含む高解像度のフューチャーフュージョンデータセットを作成する。
次に,特に遠位領域における知覚情報のノイズや空間性に対応するため,バニラ畳み込みネットワークへのベイズフィルタの効率よく実現する機構を設計する。
我々のベイズ構造は、SOTA生成モデルからアイデアを取り入れ、遠位領域における高品質なBEVマップを効果的に予測する。
将来の融合データセットにおける完了の質と下流タスクの双方に対する広範囲な評価は、我々のアプローチの可能性を示している。
関連論文リスト
- Automated Linear Disturbance Mapping via Semantic Segmentation of Sentinel-2 Imagery [0.0]
道路、地震探査線、パイプラインは、森林地帯のカリブーの人口に重大な脅威をもたらす。
本研究では、低解像度(10m)のSentinel-2衛星画像のセマンティックセグメンテーションのためのVGGNet16アーキテクチャに基づく深部畳み込みニューラルネットワークモデルを用いる。
このモデルは、無料のAlberta Institute of Biodiversity Monitoring Human Footprintデータセットから得られた、地平線ラベルマップを使って訓練されている。
論文 参考訳(メタデータ) (2024-09-19T14:42:12Z) - TopoNav: Topological Navigation for Efficient Exploration in Sparse Reward Environments [0.6597195879147555]
TopoNavは、スパース・リワード設定における効率的な目標指向の探索とナビゲーションのための新しいフレームワークである。
TopoNavは環境のトポロジカルマップを動的に構築し、主要な場所と経路をキャプチャする。
本研究では,Clearpath Jackalロボットを用いて,シミュレーションと実世界のオフロード環境におけるTopoNavの評価を行った。
論文 参考訳(メタデータ) (2024-02-06T15:05:25Z) - Pixel to Elevation: Learning to Predict Elevation Maps at Long Range using Images for Autonomous Offroad Navigation [10.898724668444125]
本稿では,車載エゴセントリック画像のみをリアルタイムに利用して,長距離の地形標高マップを予測できる学習型アプローチを提案する。
複雑で非構造的な地形における自律型オフロードロボットナビゲーションへの提案手法の適用性を実験的に検証した。
論文 参考訳(メタデータ) (2024-01-30T22:37:24Z) - Graph augmented Deep Reinforcement Learning in the GameRLand3D
environment [11.03710870581386]
強化学習で訓練された低レベルポリシーとグラフに基づく高レベル古典プランナを組み合わせたハイブリッド手法を提案する。
本研究では,広範囲な環境下でのエンドツーエンドの深部RLアプローチの限界を定量的に検証する。
また、新しいベンチマークである"GameRLand3D"を導入し、間もなくリリースされる環境では、ナビゲーションタスクのための複雑な手続き型3Dマップを生成することができる。
論文 参考訳(メタデータ) (2021-12-22T08:48:00Z) - Towards Unpaired Depth Enhancement and Super-Resolution in the Wild [121.96527719530305]
最先端のデータ駆動による深度マップの超解像法は、同じシーンの低解像度と高解像度の深度マップの登録ペアに依存している。
未経験データからの学習に基づく深度マップの強化について考察する。
論文 参考訳(メタデータ) (2021-05-25T16:19:16Z) - Convolutional Recurrent Network for Road Boundary Extraction [99.55522995570063]
我々は,LiDARとカメラ画像からの道路境界抽出の問題に取り組む。
我々は,完全畳み込みネットワークが道路境界の位置と方向をエンコードする深い特徴量を得る構造化モデルを設計する。
北米の大都市において,道路境界の完全なトポロジを99.3%の時間で得られる方法の有効性を示す。
論文 参考訳(メタデータ) (2020-12-21T18:59:12Z) - HR-Depth: High Resolution Self-Supervised Monocular Depth Estimation [14.81943833870932]
本稿では,2つの効果的な戦略を持つ改良DepthNet,HR-Depthを提案する。
resnet-18をエンコーダとして使用すると、hr-depthは、高解像度と低解像度の両方で最小パラマエターを持つ、以前の最先端(sota)メソッドをすべて上回る。
論文 参考訳(メタデータ) (2020-12-14T09:15:15Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z) - A Single Stream Network for Robust and Real-time RGB-D Salient Object
Detection [89.88222217065858]
我々は、深度マップを用いて、RGBと深度の間の早期融合と中核融合を誘導する単一ストリームネットワークを設計する。
このモデルは、現在の最も軽量なモデルよりも55.5%軽く、32 FPSのリアルタイム速度で384倍の384ドルの画像を処理している。
論文 参考訳(メタデータ) (2020-07-14T04:40:14Z) - DPANet: Depth Potentiality-Aware Gated Attention Network for RGB-D
Salient Object Detection [107.96418568008644]
そこで我々は,DPANetという新しいネットワークを提案し,深度マップの可能性を明確にモデル化し,モーダル間の相補性を効果的に統合する。
深度ポテンシャル知覚を導入することにより、ネットワークは深度情報のポテンシャルを学習ベースで知覚することができる。
論文 参考訳(メタデータ) (2020-03-19T07:27:54Z) - RoutedFusion: Learning Real-time Depth Map Fusion [73.0378509030908]
深度マップ融合のための新しいリアルタイム能動機械学習手法を提案する。
本稿では,通常の核融合エラーを考慮に入れた非線形更新を予測できるニューラルネットワークを提案する。
本ネットワークは2次元深度ルーティングネットワークと3次元深度融合ネットワークから構成されており,センサ固有のノイズや外れ値の処理を効率的に行う。
論文 参考訳(メタデータ) (2020-01-13T16:46:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。