論文の概要: Improving Hierarchical Representations of Vectorized HD Maps with Perspective Clues
- arxiv url: http://arxiv.org/abs/2404.11155v2
- Date: Sat, 11 Oct 2025 15:29:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.475944
- Title: Improving Hierarchical Representations of Vectorized HD Maps with Perspective Clues
- Title(参考訳): 視点曲線を用いたベクトル化HDマップの階層表現の改善
- Authors: Chi Zhang, Qi Song, Feifei Li, Jie Li, Rui Huang,
- Abstract要約: 我々は、インスタンスとポイントの両レベルでの視点的特徴からヒントを利用するPerCMapを提案する。
PerCMapは、それぞれ67.1mAPと70.5mAPに到達し、ベンチマーク全体で強力で一貫したパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 20.730599565199935
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The construction of vectorized High-Definition (HD) maps from onboard surround-view cameras has become a significant focus in autonomous driving. However, current map vector estimation pipelines face two key limitations: input-agnostic queries struggle to capture complex map structures, and the view transformation leads to information loss. These issues often result in inaccurate shape restoration or missing instances in map predictions. To address this concern, we propose a novel approach, namely \textbf{PerCMap}, which explicitly exploits clues from perspective-view features at both instance and point level. Specifically, at instance level, we propose Cross-view Instance Activation (CIA) to activate instance queries across surround-view images, thereby helping the model recover the instance attributes of map vectors. At point level, we design Dual-view Point Embedding (DPE), which fuses features from both views to generate input-aware positional embeddings and improve the accuracy of point coordinate estimation. Extensive experiments on \textit{nuScenes} and \textit{Argoverse 2} demonstrate that PerCMap achieves strong and consistent performance across benchmarks, reaching 67.1 and 70.5 mAP, respectively.
- Abstract(参考訳): 車載サラウンドビューカメラからのベクトル化ハイディフィニション(HD)マップの構築は、自動運転において重要な焦点となっている。
しかし、現在のマップベクトル推定パイプラインは2つの重要な制限に直面している。入力に依存しないクエリは複雑なマップ構造をキャプチャするのに苦労し、ビュー変換は情報損失につながる。
これらの問題はしばしば、地図予測における不正確な形状復元や欠落例をもたらす。
この問題に対処するために、インスタンスとポイントの両レベルでの視点的特徴からヒントを明示的に活用する新しいアプローチ、すなわち、textbf{PerCMap}を提案する。
具体的には、ケースレベルでは、Cross-view Instance Activation (CIA) を提案し、サラウンドビュー画像のインスタンスクエリを活性化することにより、マップベクトルのインスタンス属性をモデルが復元するのに役立つ。
点レベルでは、両ビューの特徴を融合させて入力対応位置埋め込みを生成し、点座標推定の精度を向上させるDPE(Dual-view Point Embedding)を設計する。
textit{nuScenes} と \textit{Argoverse 2} の広範な実験により、PerCMap はベンチマーク全体で強く一貫した性能を示し、それぞれ67.1 と 70.5 mAP に達した。
関連論文リスト
- SEPT: Standard-Definition Map Enhanced Scene Perception and Topology Reasoning for Autonomous Driving [33.58763384551353]
標準定義(SD)マップ拡張知覚とトポロジー推論フレームワークを提案する。
我々のフレームワークはシーン認識とトポロジ推論の両方を著しく改善し、既存の手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2025-05-18T05:57:31Z) - Semi-Supervised 360 Layout Estimation with Panoramic Collaborative Perturbations [56.84921040837699]
協調摂動によるパノラマ配置と歪みの先行を組み込んだセミ教師付きセミ360を提案する。
提案手法が既存のSoTA(State-of-the-art (SoTA)) ソリューションに対して有意な優位性を示すことを示す。
論文 参考訳(メタデータ) (2025-03-03T02:49:20Z) - TopoSD: Topology-Enhanced Lane Segment Perception with SDMap Prior [70.84644266024571]
我々は、標準定義地図(SDMaps)を見るために知覚モデルを訓練することを提案する。
我々はSDMap要素をニューラル空間マップ表現やインスタンストークンにエンコードし、先行情報のような補完的な特徴を組み込む。
レーンセグメント表現フレームワークに基づいて、モデルはレーン、中心線、およびそれらのトポロジを同時に予測する。
論文 参考訳(メタデータ) (2024-11-22T06:13:42Z) - HeightMapNet: Explicit Height Modeling for End-to-End HD Map Learning [22.871397412478274]
本稿では,道路面の高さ分布と画像特徴の動的関係を確立する新しいフレームワークであるHeightMapNetを紹介する。
本研究では,Bird's-Eye-View (BEV) の機能の精度を従来の手法以上の精度で改善する。
HeightMapNetは、挑戦的なnuScenesとArgoverse 2データセットに関する例外的な結果を示している。
論文 参考訳(メタデータ) (2024-11-03T02:35:17Z) - Harnessing Diffusion Models for Visual Perception with Meta Prompts [68.78938846041767]
本稿では,視覚知覚タスクの拡散モデルを用いた簡易かつ効果的な手法を提案する。
学習可能な埋め込み(メタプロンプト)を事前学習した拡散モデルに導入し、知覚の適切な特徴を抽出する。
提案手法は,NYU 深度 V2 と KITTI の深度推定タスク,および CityScapes のセマンティックセグメンテーションタスクにおいて,新しい性能記録を実現する。
論文 参考訳(メタデータ) (2023-12-22T14:40:55Z) - Transcending Forgery Specificity with Latent Space Augmentation for Generalizable Deepfake Detection [57.646582245834324]
LSDAと呼ばれる簡易で効果的なディープフェイク検出器を提案する。
より多様な偽の表現は、より一般化可能な決定境界を学べるべきである。
提案手法は驚くほど有効であり, 広く使用されている複数のベンチマークで最先端の検出器を超越することを示す。
論文 参考訳(メタデータ) (2023-11-19T09:41:10Z) - Impression-Informed Multi-Behavior Recommender System: A Hierarchical
Graph Attention Approach [4.03161352925235]
textbfHierarchical textbfMulti-behavior textbfGraph Attention textbfNetwork (HMGN)を紹介する。
この先駆的なフレームワークは、注意機構を利用して、行動内および行動内の両方から情報を識別する。
従来のグラフニューラルネットワーク手法に比べて,NDCG@100で最大64%の顕著なパフォーマンス向上を登録する。
論文 参考訳(メタデータ) (2023-09-06T17:09:43Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - VS-TransGRU: A Novel Transformer-GRU-based Framework Enhanced by
Visual-Semantic Fusion for Egocentric Action Anticipation [33.41226268323332]
エゴセントリックなアクション予測は、一人称視点で将来のアクションを先進的に予測することを目的とした課題である。
既存のほとんどの手法は、視覚入力とリカレントニューラルネットワークに基づくモデルアーキテクチャと損失関数の改善に重点を置いている。
本稿では,新しいビジュアル・セマンティック融合とトランスフォーマーGRUに基づくアクション予測フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-08T06:49:54Z) - Weakly Supervised Video Salient Object Detection via Point Supervision [18.952253968878356]
本稿では,点監督に基づく強力なベースラインモデルを提案する。
経時的情報でサリエンシマップを推定するために, 短期・長期の観点から, フレーム間補完情報を抽出する。
DAVISとDAVSODデータセットを緩和することにより、P-DAVISとP-DAVSODの2つの点教師付きデータセットをラベル付けする。
論文 参考訳(メタデータ) (2022-07-15T03:31:15Z) - Consistency Regularization for Deep Face Anti-Spoofing [69.70647782777051]
顔認証システムでは、顔認証(FAS)が重要な役割を担っている。
このエキサイティングな観察によって、異なる視点の特徴整合性を促進することが、FASモデルを促進するための有望な方法かもしれないと推測する。
FASにおけるEPCR(Embeddding-level and Prediction-level Consistency Regularization)とEPCR(Embeddding-level Consistency Regularization)を併用した。
論文 参考訳(メタデータ) (2021-11-24T08:03:48Z) - Light Field Saliency Detection with Dual Local Graph Learning
andReciprocative Guidance [148.9832328803202]
我々は、グラフネットワークを介して焦点スタック内のインフォメーション融合をモデル化する。
我々は、全焦点パタンを用いて焦点スタック融合過程をガイドする新しいデュアルグラフモデルを構築した。
論文 参考訳(メタデータ) (2021-10-02T00:54:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。