論文の概要: HeightMapNet: Explicit Height Modeling for End-to-End HD Map Learning
- arxiv url: http://arxiv.org/abs/2411.01408v1
- Date: Sun, 03 Nov 2024 02:35:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:43:17.136777
- Title: HeightMapNet: Explicit Height Modeling for End-to-End HD Map Learning
- Title(参考訳): HeightMapNet: エンドツーエンドHDマップ学習のための明示的なハイトモデリング
- Authors: Wenzhao Qiu, Shanmin Pang, Hao zhang, Jianwu Fang, Jianru Xue,
- Abstract要約: 本稿では,道路面の高さ分布と画像特徴の動的関係を確立する新しいフレームワークであるHeightMapNetを紹介する。
本研究では,Bird's-Eye-View (BEV) の機能の精度を従来の手法以上の精度で改善する。
HeightMapNetは、挑戦的なnuScenesとArgoverse 2データセットに関する例外的な結果を示している。
- 参考スコア(独自算出の注目度): 22.871397412478274
- License:
- Abstract: Recent advances in high-definition (HD) map construction from surround-view images have highlighted their cost-effectiveness in deployment. However, prevailing techniques often fall short in accurately extracting and utilizing road features, as well as in the implementation of view transformation. In response, we introduce HeightMapNet, a novel framework that establishes a dynamic relationship between image features and road surface height distributions. By integrating height priors, our approach refines the accuracy of Bird's-Eye-View (BEV) features beyond conventional methods. HeightMapNet also introduces a foreground-background separation network that sharply distinguishes between critical road elements and extraneous background components, enabling precise focus on detailed road micro-features. Additionally, our method leverages multi-scale features within the BEV space, optimally utilizing spatial geometric information to boost model performance. HeightMapNet has shown exceptional results on the challenging nuScenes and Argoverse 2 datasets, outperforming several widely recognized approaches. The code will be available at \url{https://github.com/adasfag/HeightMapNet/}.
- Abstract(参考訳): 高精細化(HD)マップ構築の最近の進歩は、サラウンドビューの画像から、その展開におけるコスト効果を強調している。
しかし,道路の特徴を正確に抽出し,活用することや,ビュートランスフォーメーションの実装において,一般的な技術は不足することが多い。
そこで我々は,画像特徴と路面高さ分布の動的関係を確立する新しいフレームワークであるHeightMapNetを紹介した。
身長の先行値を統合することで,従来の手法以上のバードアイビュー(BEV)機能の精度が向上する。
HeightMapNetはまた、重要な道路要素と外部の背景コンポーネントを鮮明に区別し、詳細な道路マイクロ機能に正確にフォーカスする、フォアグラウンドとバックグラウンドの分離ネットワークも導入している。
さらに,BEV空間内のマルチスケール特徴を活用し,空間幾何学的情報を利用してモデル性能を向上させる。
HeightMapNetは、挑戦的なnuScenesとArgoverse 2データセットに関する例外的な結果を示している。
コードは \url{https://github.com/adasfag/HeightMapNet/} で入手できる。
関連論文リスト
- TopoSD: Topology-Enhanced Lane Segment Perception with SDMap Prior [70.84644266024571]
我々は、標準定義地図(SDMaps)を見るために知覚モデルを訓練することを提案する。
我々はSDMap要素をニューラル空間マップ表現やインスタンストークンにエンコードし、先行情報のような補完的な特徴を組み込む。
レーンセグメント表現フレームワークに基づいて、モデルはレーン、中心線、およびそれらのトポロジを同時に予測する。
論文 参考訳(メタデータ) (2024-11-22T06:13:42Z) - Deep Height Decoupling for Precise Vision-based 3D Occupancy Prediction [28.071645239063553]
本稿では,DHD(Deep Height Decoupling,ディープハイトデカップリング,Deep Height Decoupling,DHD)について述べる。
一般的なOcc3D-nuScenesベンチマークでは,最小入力フレームでも最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-09-12T12:12:19Z) - HeightLane: BEV Heightmap guided 3D Lane Detection [6.940660861207046]
単分子画像からの正確な3次元車線検出は、深さのあいまいさと不完全な地盤モデリングによる重要な課題を示す。
本研究は,マルチスロープ仮定に基づいてアンカーを作成することにより,単眼画像から高さマップを予測する革新的な手法であるHeightLaneを紹介する。
HeightLaneは、Fスコアの観点から最先端のパフォーマンスを実現し、現実世界のアプリケーションにおけるその可能性を強調している。
論文 参考訳(メタデータ) (2024-08-15T17:14:57Z) - TK-Planes: Tiered K-Planes with High Dimensional Feature Vectors for Dynamic UAV-based Scenes [58.180556221044235]
本研究では,無人航空機(UAV)の認識における合成データと実世界データとの領域ギャップを埋める新しい手法を提案する。
私たちの定式化は、小さな動く物体や人間の行動からなる動的なシーンのために設計されています。
我々は,Okutama ActionやUG2など,挑戦的なデータセットの性能を評価する。
論文 参考訳(メタデータ) (2024-05-04T21:55:33Z) - Multi-view Aggregation Network for Dichotomous Image Segmentation [76.75904424539543]
Dichotomous Image (DIS) は近年,高解像度自然画像からの高精度物体分割に向けて出現している。
既存の手法は、グローバルなローカライゼーションと局所的な洗練を徐々に完了させるために、退屈な複数のエンコーダ・デコーダストリームとステージに依存している。
これに触発されて、我々は多視点オブジェクト認識問題としてdisをモデル化し、擬似多視点アグリゲーションネットワーク(MVANet)を提供する。
一般的なdis-5Kデータセットの実験では、我々のMVANetは精度と速度の両方で最先端の手法を大きく上回っている。
論文 参考訳(メタデータ) (2024-04-11T03:00:00Z) - Pixel to Elevation: Learning to Predict Elevation Maps at Long Range using Images for Autonomous Offroad Navigation [10.898724668444125]
本稿では,車載エゴセントリック画像のみをリアルタイムに利用して,長距離の地形標高マップを予測できる学習型アプローチを提案する。
複雑で非構造的な地形における自律型オフロードロボットナビゲーションへの提案手法の適用性を実験的に検証した。
論文 参考訳(メタデータ) (2024-01-30T22:37:24Z) - Hi-Map: Hierarchical Factorized Radiance Field for High-Fidelity
Monocular Dense Mapping [51.739466714312805]
ニューラルラジアンス場(NeRF)に基づく新しいモノクリン高密度マッピング手法であるHi-Mapを導入する。
ハイマップは、RGB入力のみを用いた効率的かつ高忠実なマッピングを実現する能力において例外的である。
論文 参考訳(メタデータ) (2024-01-06T12:32:25Z) - Sharp Eyes: A Salient Object Detector Working The Same Way as Human
Visual Characteristics [3.222802562733787]
本稿では,まず被写体をシーンから分離し,それを細分化するシャープアイネットワーク(SENet)を提案する。
提案手法は,拡張オブジェクトを用いてネットワークを誘導し,完全な予測を行う。
論文 参考訳(メタデータ) (2023-01-18T11:00:45Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - Diff-Net: Image Feature Difference based High-Definition Map Change
Detection [13.666189678747996]
最新のハイディフィニション(HD)マップは、自動運転車にとって不可欠である。
我々は,その変化を検出するために,ディープニューラルネットワーク(DNN)Diff-Netを提案する。
その結果、Diff-Netはベースラインメソッドよりも優れたパフォーマンスを実現し、最新のHDマップを維持したマッププロダクションに統合できることがわかった。
論文 参考訳(メタデータ) (2021-07-14T22:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。