論文の概要: Diff-Net: Image Feature Difference based High-Definition Map Change
Detection
- arxiv url: http://arxiv.org/abs/2107.07030v1
- Date: Wed, 14 Jul 2021 22:51:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-16 13:52:55.690787
- Title: Diff-Net: Image Feature Difference based High-Definition Map Change
Detection
- Title(参考訳): Diff-Net:画像特徴差に基づく高精細マップ変化検出
- Authors: Lei He and Shengjie Jiang and Xiaoqing Liang and Ning Wang and Shiyu
Song
- Abstract要約: 最新のハイディフィニション(HD)マップは、自動運転車にとって不可欠である。
我々は,その変化を検出するために,ディープニューラルネットワーク(DNN)Diff-Netを提案する。
その結果、Diff-Netはベースラインメソッドよりも優れたパフォーマンスを実現し、最新のHDマップを維持したマッププロダクションに統合できることがわかった。
- 参考スコア(独自算出の注目度): 13.666189678747996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Up-to-date High-Definition (HD) maps are essential for self-driving cars. To
achieve constantly updated HD maps, we present a deep neural network (DNN),
Diff-Net, to detect changes in them. Compared to traditional methods based on
object detectors, the essential design in our work is a parallel feature
difference calculation structure that infers map changes by comparing features
extracted from the camera and rasterized images. To generate these rasterized
images, we project map elements onto images in the camera view, yielding
meaningful map representations that can be consumed by a DNN accordingly. As we
formulate the change detection task as an object detection problem, we leverage
the anchor-based structure that predicts bounding boxes with different change
status categories. Furthermore, rather than relying on single frame input, we
introduce a spatio-temporal fusion module that fuses features from history
frames into the current, thus improving the overall performance. Finally, we
comprehensively validate our method's effectiveness using freshly collected
datasets. Results demonstrate that our Diff-Net achieves better performance
than the baseline methods and is ready to be integrated into a map production
pipeline maintaining an up-to-date HD map.
- Abstract(参考訳): 最新のハイディフィニション(HD)マップは、自動運転車にとって不可欠である。
常に更新されたHDマップを実現するために、ディープニューラルネットワーク(DNN)Diff-Netを提示し、それらの変化を検出する。
従来の物体検出器に基づく手法と比較して,本研究の本質的設計は,カメラとラスタ化画像から抽出した特徴を比較して地図変化を推定する並列特徴差計算構造である。
これらのラスタ化画像を生成するために、カメラビュー内の画像にマップ要素を投影し、それに応じてDNNが消費できる有意義なマップ表現を生成する。
オブジェクト検出問題として変更検出タスクを定式化する際、異なる変更ステータスカテゴリを持つバウンディングボックスを予測するアンカーベース構造を利用する。
さらに,シングルフレーム入力に頼るのではなく,ヒストリーフレームから電流に特徴を融合する時空間融合モジュールを導入し,全体的な性能向上を図る。
最後に,新たに収集したデータセットを用いて,本手法の有効性を総合的に検証する。
その結果、diff-netはベースラインメソッドよりも優れたパフォーマンスを実現し、最新のhdマップを維持するマップ生産パイプラインに統合する準備ができています。
関連論文リスト
- TopoSD: Topology-Enhanced Lane Segment Perception with SDMap Prior [70.84644266024571]
我々は、標準定義地図(SDMaps)を見るために知覚モデルを訓練することを提案する。
我々はSDMap要素をニューラル空間マップ表現やインスタンストークンにエンコードし、先行情報のような補完的な特徴を組み込む。
レーンセグメント表現フレームワークに基づいて、モデルはレーン、中心線、およびそれらのトポロジを同時に予測する。
論文 参考訳(メタデータ) (2024-11-22T06:13:42Z) - Hierarchical Graph Interaction Transformer with Dynamic Token Clustering for Camouflaged Object Detection [57.883265488038134]
本稿では,HGINetと呼ばれる階層的なグラフ相互作用ネットワークを提案する。
このネットワークは、階層的トークン化機能間の効果的なグラフ相互作用を通じて、知覚不能なオブジェクトを発見することができる。
本実験は,既存の最先端手法と比較して,HGINetの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-08-27T12:53:25Z) - Progressive Query Refinement Framework for Bird's-Eye-View Semantic Segmentation from Surrounding Images [3.495246564946556]
本稿では, 自律運転のためのバードズ・アイビュー(BEV)セマンティックセマンティックセグメンテーションにMR(Multi-Resolution)の概念を導入する。
本稿では,画像間と特徴レベル間の相互作用を促進する視覚的特徴相互作用ネットワークを提案する。
大規模な実世界のデータセットを用いて、我々のモデルを評価する。
論文 参考訳(メタデータ) (2024-07-24T05:00:31Z) - Diffusion-based Data Augmentation for Object Counting Problems [62.63346162144445]
拡散モデルを用いて広範なトレーニングデータを生成するパイプラインを開発する。
拡散モデルを用いて位置ドットマップ上に条件付き画像を生成するのはこれが初めてである。
提案した拡散モデルにおけるカウント損失は,位置ドットマップと生成した群集画像との差を効果的に最小化する。
論文 参考訳(メタデータ) (2024-01-25T07:28:22Z) - ScalableMap: Scalable Map Learning for Online Long-Range Vectorized HD
Map Construction [42.874195888422584]
オンライン長範囲ベクトル化ハイデフィニション(HD)マップ構築のための,オンボードカメラセンサを用いた新しいエンドツーエンドパイプラインを提案する。
地図要素の特性を利用して地図構築の性能を向上させる。
論文 参考訳(メタデータ) (2023-10-20T09:46:24Z) - InsMapper: Exploring Inner-instance Information for Vectorized HD
Mapping [41.59891369655983]
InsMapperは、トランスフォーマーによるベクトル化された高精細マッピングのインナーインスタンス情報を利用する。
InsMapperは従来の最先端の手法を超越し、その有効性と汎用性を示している。
論文 参考訳(メタデータ) (2023-08-16T17:58:28Z) - DisPlacing Objects: Improving Dynamic Vehicle Detection via Visual Place
Recognition under Adverse Conditions [29.828201168816243]
本研究では,3次元マップを必要とせずに,シーン内の動的物体の検出を支援するために,先行マップを活用できるかどうかを検討する。
提案手法は,対象物検出の初期セットを洗練し,事前マップを用いて高精度な検出のサブセットを生成するアルゴリズムである。
論文 参考訳(メタデータ) (2023-06-30T10:46:51Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - HM-Net: A Regression Network for Object Center Detection and Tracking on
Wide Area Motion Imagery [1.2249546377051437]
我々は、ディープニューラルネットワークに基づくオブジェクト検出と追跡の複合モデル、すなわちHeat Map Network(HM-Net)を提案する。
HM-Netは、最先端のフレーム差分法やバックグラウンドサブトラクション法よりも大幅に高速である。
WPAFBデータセット上で、最先端のWAMI移動物体の検出と追跡方法より優れています。
論文 参考訳(メタデータ) (2021-10-19T11:56:30Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Learning Spatio-Appearance Memory Network for High-Performance Visual
Tracking [79.80401607146987]
既存のオブジェクトトラッキングは通常、フレーム間の視覚的ターゲットにマッチするバウンディングボックスベースのテンプレートを学習する。
本稿では,局所時間メモリネットワークを備え,正確な時空間対応を学習するセグメンテーションに基づくトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-21T08:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。