論文の概要: Fast and Robust Registration of Aerial Images and LiDAR data Based on
Structrual Features and 3D Phase Correlation
- arxiv url: http://arxiv.org/abs/2004.09811v1
- Date: Tue, 21 Apr 2020 08:19:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 07:05:13.289738
- Title: Fast and Robust Registration of Aerial Images and LiDAR data Based on
Structrual Features and 3D Phase Correlation
- Title(参考訳): 構造特徴と3次元位相相関に基づく空中画像とLiDARデータの高速かつロバストな登録
- Authors: Bai Zhu, Yuanxin Ye, Chao Yang, Liang Zhou, Huiyu Liu, Yungang Cao
- Abstract要約: 本稿では,構造的特徴と3次元位相相関に基づく自動登録手法を提案する。
空中画像とLiDARデータの2つのデータセットを用いて実験したところ、提案手法は最先端の手法よりもはるかに高速で堅牢であることがわかった。
- 参考スコア(独自算出の注目度): 6.3812295314207335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Co-Registration of aerial imagery and Light Detection and Ranging (LiDAR)
data is quilt challenging because the different imaging mechanism causes
significant geometric and radiometric distortions between such data. To tackle
the problem, this paper proposes an automatic registration method based on
structural features and three-dimension (3D) phase correlation. In the proposed
method, the LiDAR point cloud data is first transformed into the intensity map,
which is used as the reference image. Then, we employ the Fast operator to
extract uniformly distributed interest points in the aerial image by a
partition strategy and perform a local geometric correction by using the
collinearity equation to eliminate scale and rotation difference between
images. Subsequently, a robust structural feature descriptor is build based on
dense gradient features, and the 3D phase correlation is used to detect control
points (CPs) between aerial images and LiDAR data in the frequency domain,
where the image matching is accelerated by the 3D Fast Fourier Transform (FFT).
Finally, the obtained CPs are employed to correct the exterior orientation
elements, which is used to achieve co-registration of aerial images and LiDAR
data. Experiments with two datasets of aerial images and LiDAR data show that
the proposed method is much faster and more robust than state of the art
methods
- Abstract(参考訳): 航空画像とLiDAR(Light Detection and Ranging)データの同時登録は、異なる画像機構がこれらのデータ間の幾何的および放射的歪みを著しく引き起こすため、難しい。
そこで本研究では,構造的特徴と3次元位相相関に基づく自動登録手法を提案する。
提案手法では,LiDAR点雲データをまずインテンシティマップに変換し,参照画像として利用する。
次に,Fast演算子を用いて,分割戦略により空中画像中の一様分布の利子点を抽出し,コリニアリティ方程式を用いて局所的幾何補正を行い,画像間のスケールと回転差を除去する。
その後、高密度勾配特徴に基づいてロバストな構造特徴記述子を構築し、3D高速フーリエ変換(FFT)により画像マッチングが加速される周波数領域における航空画像とLiDARデータの制御点(CP)を検出するために、3D位相相関を用いる。
最後に、得られたCPを用いて外向き要素を補正し、航空画像とLiDARデータの同時登録を実現する。
空中画像とLiDARデータの2つのデータセットによる実験により、提案手法は最先端技術よりもはるかに高速で堅牢であることが示された。
関連論文リスト
- 3D Equivariant Pose Regression via Direct Wigner-D Harmonics Prediction [50.07071392673984]
既存の方法は、角度や四元数を用いて空間領域でパラメータ化された3次元回転を学習する。
本稿では,3次元回転回帰のためのWigner-D係数を直接予測する周波数領域アプローチを提案する。
提案手法は, ModelNet10-SO(3) や PASCAL3D+ などのベンチマーク上での最先端結果を実現する。
論文 参考訳(メタデータ) (2024-11-01T12:50:38Z) - DSLO: Deep Sequence LiDAR Odometry Based on Inconsistent Spatio-temporal Propagation [66.8732965660931]
本稿では,LiDAR odometry DSLO の非一貫性時間伝搬に基づく3次元点列学習モデルを提案する。
ピラミッド構造で、シーケンシャルなポーズモジュール、階層的なポーズリファインメントモジュール、時間的特徴伝搬モジュールで構成されている。
論文 参考訳(メタデータ) (2024-09-01T15:12:48Z) - FAST-LIVO2: Fast, Direct LiDAR-Inertial-Visual Odometry [28.606325312582218]
我々は,SLAMタスクにおける高精度かつ堅牢な状態推定を実現するために,高速かつ直接的LiDAR慣性・視覚的オドメトリーフレームワークであるFAST-LIVO2を提案する。
FAST-LIVO2はIMU、LiDAR、画像計測を逐次更新戦略で効率的に融合する。
本稿では,FAST-LIVO2のリアルタイムナビゲーション,空中マッピング,3次元モデルレンダリングの3つの応用例を示す。
論文 参考訳(メタデータ) (2024-08-26T06:01:54Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - Misalignment-Robust Frequency Distribution Loss for Image Transformation [51.0462138717502]
本稿では,画像強調や超解像といった深層学習に基づく画像変換手法における共通の課題に対処することを目的とする。
本稿では、周波数領域内における分布距離を計算するための、新しいシンプルな周波数分布損失(FDL)を提案する。
本手法は,周波数領域におけるグローバル情報の思慮深い活用により,トレーニング制約として実証的に有効であることが実証された。
論文 参考訳(メタデータ) (2024-02-28T09:27:41Z) - Learning transformer-based heterogeneously salient graph representation for multimodal remote sensing image classification [42.15709954199397]
本稿では,変圧器を用いたヘテロジニアサリエントグラフ表現法(THSGR)を提案する。
まず、多モード不均一グラフエンコーダを用いて、非ユークリッド構造の特徴を異種データから符号化する。
自己アテンションフリーなマルチ畳み込み変調器は、効果的かつ効率的な長期依存性モデリングのために設計されている。
論文 参考訳(メタデータ) (2023-11-17T04:06:20Z) - From One to Many: Dynamic Cross Attention Networks for LiDAR and Camera
Fusion [12.792769704561024]
既存の融合法では、キャリブレーションに基づいて、各3Dポイントを1つの投影された画像ピクセルに調整する傾向がある。
本稿では,動的クロスアテンション(DCA)モジュールを提案する。
Dynamic Cross Attention Network (DCAN) という名称の核融合アーキテクチャは、マルチレベルイメージ機能を活用し、ポイントクラウドの複数の表現に適応する。
論文 参考訳(メタデータ) (2022-09-25T16:10:14Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - Robust Registration of Multimodal Remote Sensing Images Based on
Structural Similarity [11.512088109547294]
本稿では,Histogram of Orientated Phase Congruency (HOPC) という特徴記述子を提案する。
HOPCはイメージの構造特性に基づいています。
HOPCnccという類似度メトリックが定義され、マルチモーダル登録のためにHOPCディスクリプタの正規化相関係数(NCC)を使用する。
論文 参考訳(メタデータ) (2021-03-31T07:51:21Z) - Correlation Plenoptic Imaging between Arbitrary Planes [52.77024349608834]
提案プロトコルは,処理後の集中面の変更を可能にし,画像解像度と被写界深度を前例のない組み合わせで実現可能であることを示す。
その結果、カオス光に基づく相関レンズ画像装置のコンパクト化や、絡み合った光子照明に基づく高SNRレンズ画像装置の開発への道が開かれた。
論文 参考訳(メタデータ) (2020-07-23T14:26:14Z) - Leveraging Photogrammetric Mesh Models for Aerial-Ground Feature Point
Matching Toward Integrated 3D Reconstruction [19.551088857830944]
地上・地上画像の統合は, 都市環境における表面の再構築を効果的に進めるためのアプローチとして証明されている。
幾何認識による画像補正に基づく従来の研究により,この問題は緩和された。
地上画像マッチングにフォトグラムメッシュモデルを利用する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-21T01:47:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。