論文の概要: Deep Bayesian Future Fusion for Self-Supervised, High-Resolution, Off-Road Mapping
- arxiv url: http://arxiv.org/abs/2403.11876v1
- Date: Mon, 18 Mar 2024 15:28:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 19:50:22.610056
- Title: Deep Bayesian Future Fusion for Self-Supervised, High-Resolution, Off-Road Mapping
- Title(参考訳): 自己監督型高分解能オフロードマッピングのためのディープベイズフュージョン
- Authors: Shubhra Aich, Wenshan Wang, Parv Maheshwari, Matthew Sivaprakasam, Samuel Triest, Cherie Ho, Jason M. Gregory, John G. Rogers III, Sebastian Scherer,
- Abstract要約: 我々は、RGB/高さの生のスパースとノイズの多い入力とマップベースの高密度ラベルのペアを含む高解像度のフューチャーフュージョンデータセットを作成する。
次に,ベイズフィルタのバニラ畳み込みネットワークへの効率的な実現を設計する。
- 参考スコア(独自算出の注目度): 10.985657613900523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The limited sensing resolution of resource-constrained off-road vehicles poses significant challenges towards reliable off-road autonomy. To overcome this limitation, we propose a general framework based on fusing the future information (i.e. future fusion) for self-supervision. Recent approaches exploit this future information alongside the hand-crafted heuristics to directly supervise the targeted downstream tasks (e.g. traversability estimation). However, in this paper, we opt for a more general line of development - time-efficient completion of the highest resolution (i.e. 2cm per pixel) BEV map in a self-supervised manner via future fusion, which can be used for any downstream tasks for better longer range prediction. To this end, first, we create a high-resolution future-fusion dataset containing pairs of (RGB / height) raw sparse and noisy inputs and map-based dense labels. Next, to accommodate the noise and sparsity of the sensory information, especially in the distal regions, we design an efficient realization of the Bayes filter onto the vanilla convolutional network via the recurrent mechanism. Equipped with the ideas from SOTA generative models, our Bayesian structure effectively predicts high-quality BEV maps in the distal regions. Extensive evaluation on both the quality of completion and downstream task on our future-fusion dataset demonstrates the potential of our approach.
- Abstract(参考訳): 資源が制限されたオフロード車両の感度の制限は、信頼性の高いオフロード自律性に重大な課題をもたらす。
この制限を克服するため、我々は将来的な情報(すなわち、将来の融合)を自己監督のために融合する一般的な枠組みを提案する。
近年のアプローチでは、この未来の情報を手作りのヒューリスティックスと共に活用して、ターゲットとする下流タスクを直接監督している(例えば、トラバーサビリティ推定)。
しかし,本稿では,高分解能(画素あたり2cm)のBEVマップを将来の融合を通じて自己監督的に作成し,より長い範囲の予測のために下流のタスクに使用できる,より一般的な開発ラインを選択する。
この目的のために、まず、RGB/高さの生のスパースとノイズの多い入力とマップベースの高密度ラベルのペアを含む高解像度のフューチャーフュージョンデータセットを作成する。
次に,特に遠位領域における知覚情報のノイズや空間性に対応するため,バニラ畳み込みネットワークへのベイズフィルタの効率よく実現する機構を設計する。
我々のベイズ構造は、SOTA生成モデルからアイデアを取り入れ、遠位領域における高品質なBEVマップを効果的に予測する。
将来の融合データセットにおける完了の質と下流タスクの双方に対する広範囲な評価は、我々のアプローチの可能性を示している。
関連論文リスト
- Is Ego Status All You Need for Open-Loop End-to-End Autonomous Driving? [88.398233613304]
エンドツーエンドの自動運転は、フルスタックの観点から自律性を目標とする、有望な研究の方向性として浮上している。
比較的単純な駆動シナリオを特徴とするnuScenesデータセットは、エンド・ツー・エンド・モデルにおける知覚情報の未使用化につながる。
予測軌跡が道路に付着するかどうかを評価するための新しい指標を提案する。
論文 参考訳(メタデータ) (2023-12-05T11:32:31Z) - FLODCAST: Flow and Depth Forecasting via Multimodal Recurrent
Architectures [31.879514593973195]
本研究では,両モードを同時に予測するフローおよび深さ予測モデルを提案する。
提案したモデルをトレーニングし、将来いくつかのタイムステップの予測を行う。
セグメンテーション予測の下流タスクの利点を報告し、フローベースのマスクウォーピングフレームワークに予測を注入する。
論文 参考訳(メタデータ) (2023-10-31T16:30:16Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Unsupervised Self-Driving Attention Prediction via Uncertainty Mining
and Knowledge Embedding [51.8579160500354]
本研究では、不確実性モデリングと知識統合の駆動による自動運転の注意を予測できる教師なし手法を提案する。
結果は、完全に教師された最先端のアプローチと比較して、同等またはさらに印象的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-03-17T00:28:33Z) - FusionMotion: Multi-Sensor Asynchronous Fusion for Continuous Occupancy
Prediction via Neural-ODE [8.578744819826712]
本稿では,新しい鳥眼ビュー (BEV) の占有率予測器FusionMotionを提案する。
非同期マルチセンサデータの融合を実現し、変動時間間隔と時間的地平線で将来の占有マップを予測する。
大規模なnusとLyft L5データセットの実験では、FusionMotionが従来の方法よりも大幅に優れていたことが示されている。
論文 参考訳(メタデータ) (2023-02-19T14:38:01Z) - Predicting Future Occupancy Grids in Dynamic Environment with
Spatio-Temporal Learning [63.25627328308978]
本稿では,将来の占有予測を生成するための時間的予測ネットワークパイプラインを提案する。
現在のSOTAと比較して、我々の手法は3秒の長い水平線での占有を予測している。
我々は、さらなる研究を支援するために、nulisに基づくグリッド占有データセットを公開します。
論文 参考訳(メタデータ) (2022-05-06T13:45:32Z) - Multi-View Fusion of Sensor Data for Improved Perception and Prediction
in Autonomous Driving [11.312620949473938]
本稿では,LiDARとカメラ画像の多視点表現を用いた物体検出と軌跡予測のエンドツーエンド手法を提案する。
我々のモデルは最先端のBird's-Eye View(BEV)ネットワーク上に構築され、歴史的なLiDARデータからボキセル化された特徴を融合する。
我々は、このモデルを、ネイティブな非量子化表現で生のLiDAR情報を使用する追加のLiDAR Range-View (RV)機能で拡張する。
論文 参考訳(メタデータ) (2020-08-27T03:32:25Z) - The Importance of Prior Knowledge in Precise Multimodal Prediction [71.74884391209955]
道路にはよく定義された地形、地形、交通規則がある。
本稿では,構造的事前を損失関数として組み込むことを提案する。
実世界の自動運転データセットにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-04T03:56:11Z) - RV-FuseNet: Range View Based Fusion of Time-Series LiDAR Data for Joint
3D Object Detection and Motion Forecasting [13.544498422625448]
本稿では,共同検出と軌道推定のための新しいエンドツーエンドアプローチであるRV-FuseNetを提案する。
広範に使用されている鳥眼ビュー(BEV)表現の代わりに,LiDARデータのネイティブレンジビュー(RV)表現を利用する。
提案手法は,既存の最先端技術よりも動作予測性能を著しく向上することを示す。
論文 参考訳(メタデータ) (2020-05-21T19:22:27Z) - Data Freshness and Energy-Efficient UAV Navigation Optimization: A Deep
Reinforcement Learning Approach [88.45509934702913]
我々は、移動基地局(BS)が配備される複数の無人航空機(UAV)のナビゲーションポリシーを設計する。
我々は、地上BSにおけるデータの鮮度を確保するために、エネルギーや情報年齢(AoI)の制約などの異なる文脈情報を組み込んだ。
提案したトレーニングモデルを適用することで、UAV-BSに対する効果的なリアルタイム軌道ポリシーは、時間とともに観測可能なネットワーク状態をキャプチャする。
論文 参考訳(メタデータ) (2020-02-21T07:29:15Z) - Trajectory Forecasts in Unknown Environments Conditioned on Grid-Based
Plans [6.8024015458909615]
軌跡予測はシーン構造の大きな変化と将来の軌跡のマルチモーダル分布のために難しい問題である。
最大エントロピー逆強化学習(MaxEnt IRL)を用いて学習したグリッドベースの政策から得られた計画の軌道予測条件を提案する。
我々は,MaxEntポリシからサンプリングした状態列に条件付き連続的な値付き将来の軌道を生成する,注目に基づく軌道生成器を提案する。
論文 参考訳(メタデータ) (2020-01-03T06:12:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。