論文の概要: Diff-Net: Image Feature Difference based High-Definition Map Change
Detection
- arxiv url: http://arxiv.org/abs/2107.07030v1
- Date: Wed, 14 Jul 2021 22:51:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-16 13:52:55.690787
- Title: Diff-Net: Image Feature Difference based High-Definition Map Change
Detection
- Title(参考訳): Diff-Net:画像特徴差に基づく高精細マップ変化検出
- Authors: Lei He and Shengjie Jiang and Xiaoqing Liang and Ning Wang and Shiyu
Song
- Abstract要約: 最新のハイディフィニション(HD)マップは、自動運転車にとって不可欠である。
我々は,その変化を検出するために,ディープニューラルネットワーク(DNN)Diff-Netを提案する。
その結果、Diff-Netはベースラインメソッドよりも優れたパフォーマンスを実現し、最新のHDマップを維持したマッププロダクションに統合できることがわかった。
- 参考スコア(独自算出の注目度): 13.666189678747996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Up-to-date High-Definition (HD) maps are essential for self-driving cars. To
achieve constantly updated HD maps, we present a deep neural network (DNN),
Diff-Net, to detect changes in them. Compared to traditional methods based on
object detectors, the essential design in our work is a parallel feature
difference calculation structure that infers map changes by comparing features
extracted from the camera and rasterized images. To generate these rasterized
images, we project map elements onto images in the camera view, yielding
meaningful map representations that can be consumed by a DNN accordingly. As we
formulate the change detection task as an object detection problem, we leverage
the anchor-based structure that predicts bounding boxes with different change
status categories. Furthermore, rather than relying on single frame input, we
introduce a spatio-temporal fusion module that fuses features from history
frames into the current, thus improving the overall performance. Finally, we
comprehensively validate our method's effectiveness using freshly collected
datasets. Results demonstrate that our Diff-Net achieves better performance
than the baseline methods and is ready to be integrated into a map production
pipeline maintaining an up-to-date HD map.
- Abstract(参考訳): 最新のハイディフィニション(HD)マップは、自動運転車にとって不可欠である。
常に更新されたHDマップを実現するために、ディープニューラルネットワーク(DNN)Diff-Netを提示し、それらの変化を検出する。
従来の物体検出器に基づく手法と比較して,本研究の本質的設計は,カメラとラスタ化画像から抽出した特徴を比較して地図変化を推定する並列特徴差計算構造である。
これらのラスタ化画像を生成するために、カメラビュー内の画像にマップ要素を投影し、それに応じてDNNが消費できる有意義なマップ表現を生成する。
オブジェクト検出問題として変更検出タスクを定式化する際、異なる変更ステータスカテゴリを持つバウンディングボックスを予測するアンカーベース構造を利用する。
さらに,シングルフレーム入力に頼るのではなく,ヒストリーフレームから電流に特徴を融合する時空間融合モジュールを導入し,全体的な性能向上を図る。
最後に,新たに収集したデータセットを用いて,本手法の有効性を総合的に検証する。
その結果、diff-netはベースラインメソッドよりも優れたパフォーマンスを実現し、最新のhdマップを維持するマップ生産パイプラインに統合する準備ができています。
関連論文リスト
- Diffusion-based Data Augmentation for Object Counting Problems [62.63346162144445]
拡散モデルを用いて広範なトレーニングデータを生成するパイプラインを開発する。
拡散モデルを用いて位置ドットマップ上に条件付き画像を生成するのはこれが初めてである。
提案した拡散モデルにおけるカウント損失は,位置ドットマップと生成した群集画像との差を効果的に最小化する。
論文 参考訳(メタデータ) (2024-01-25T07:28:22Z) - ScalableMap: Scalable Map Learning for Online Long-Range Vectorized HD
Map Construction [42.874195888422584]
オンライン長範囲ベクトル化ハイデフィニション(HD)マップ構築のための,オンボードカメラセンサを用いた新しいエンドツーエンドパイプラインを提案する。
地図要素の特性を利用して地図構築の性能を向上させる。
論文 参考訳(メタデータ) (2023-10-20T09:46:24Z) - InsMapper: Exploring Inner-instance Information for Vectorized HD
Mapping [41.59891369655983]
InsMapperは、トランスフォーマーによるベクトル化された高精細マッピングのインナーインスタンス情報を利用する。
InsMapperは従来の最先端の手法を超越し、その有効性と汎用性を示している。
論文 参考訳(メタデータ) (2023-08-16T17:58:28Z) - DisPlacing Objects: Improving Dynamic Vehicle Detection via Visual Place
Recognition under Adverse Conditions [29.828201168816243]
本研究では,3次元マップを必要とせずに,シーン内の動的物体の検出を支援するために,先行マップを活用できるかどうかを検討する。
提案手法は,対象物検出の初期セットを洗練し,事前マップを用いて高精度な検出のサブセットを生成するアルゴリズムである。
論文 参考訳(メタデータ) (2023-06-30T10:46:51Z) - Neural Map Prior for Autonomous Driving [17.198729798817094]
高精細(HD)セマンティックマップは、自動運転車が都市環境をナビゲートするために不可欠である。
オフラインのHDマップを作成する従来の方法には、労働集約的な手動アノテーションプロセスが含まれる。
近年,オンラインセンサを用いた局所地図作成手法が提案されている。
本研究では,グローバルマップのニューラル表現であるニューラルマッププライオリティ(NMP)を提案する。
論文 参考訳(メタデータ) (2023-04-17T17:58:40Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - HM-Net: A Regression Network for Object Center Detection and Tracking on
Wide Area Motion Imagery [1.2249546377051437]
我々は、ディープニューラルネットワークに基づくオブジェクト検出と追跡の複合モデル、すなわちHeat Map Network(HM-Net)を提案する。
HM-Netは、最先端のフレーム差分法やバックグラウンドサブトラクション法よりも大幅に高速である。
WPAFBデータセット上で、最先端のWAMI移動物体の検出と追跡方法より優れています。
論文 参考訳(メタデータ) (2021-10-19T11:56:30Z) - MFGNet: Dynamic Modality-Aware Filter Generation for RGB-T Tracking [72.65494220685525]
可視データと熱データ間のメッセージ通信を促進するために,新しい動的モダリティ対応フィルタ生成モジュール(MFGNet)を提案する。
我々は、2つの独立ネットワークを持つ動的モダリティ対応フィルタを生成し、その可視フィルタとサーマルフィルタをそれぞれ、対応する入力特徴写像上で動的畳み込み演算を行う。
重閉塞,高速移動,外見による問題に対処するため,新たな方向認識型目標誘導型アテンション機構を活用することで,共同で局所的・グローバル検索を行うことを提案する。
論文 参考訳(メタデータ) (2021-07-22T03:10:51Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Learning Spatio-Appearance Memory Network for High-Performance Visual
Tracking [79.80401607146987]
既存のオブジェクトトラッキングは通常、フレーム間の視覚的ターゲットにマッチするバウンディングボックスベースのテンプレートを学習する。
本稿では,局所時間メモリネットワークを備え,正確な時空間対応を学習するセグメンテーションに基づくトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-21T08:12:02Z) - Voxel Map for Visual SLAM [57.07800982410967]
視覚SLAMのための点を効率的にマッピングするボクセルマップ表現を提案する。
本手法は,カメラの視野に落下することを幾何的に保証し,隠蔽点を特定・除去できる。
実験結果から,我々のボクセルマップ表現は5sの地図と同等に効率的であり,EuRoCデータセット上での局所化精度(平均46%の改善)が有意に高いことがわかった。
論文 参考訳(メタデータ) (2020-03-04T18:39:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。