論文の概要: City-scale Scene Change Detection using Point Clouds
- arxiv url: http://arxiv.org/abs/2103.14314v1
- Date: Fri, 26 Mar 2021 08:04:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 12:43:06.446037
- Title: City-scale Scene Change Detection using Point Clouds
- Title(参考訳): 点雲を用いた都市規模景観変化検出
- Authors: Zi Jian Yew and Gim Hee Lee
- Abstract要約: 2つの異なる時間にカメラを設置して撮影した画像を用いて都市の構造変化を検出する手法を提案する。
変化検出のための2点雲の直接比較は、不正確な位置情報のため理想的ではない。
この問題を回避するために,ポイントクラウド上での深層学習に基づく非厳密な登録を提案する。
提案手法は,視点や照明の違いがあっても,シーン変化を効果的に検出できることを示す。
- 参考スコア(独自算出の注目度): 71.73273007900717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a method for detecting structural changes in a city using images
captured from vehicular mounted cameras over traversals at two different times.
We first generate 3D point clouds for each traversal from the images and
approximate GNSS/INS readings using Structure-from-Motion (SfM). A direct
comparison of the two point clouds for change detection is not ideal due to
inaccurate geo-location information and possible drifts in the SfM. To
circumvent this problem, we propose a deep learning-based non-rigid
registration on the point clouds which allows us to compare the point clouds
for structural change detection in the scene. Furthermore, we introduce a dual
thresholding check and post-processing step to enhance the robustness of our
method. We collect two datasets for the evaluation of our approach. Experiments
show that our method is able to detect scene changes effectively, even in the
presence of viewpoint and illumination differences.
- Abstract(参考訳): 車両に搭載されたカメラから2つの異なる速度で撮影した画像を用いて都市の構造変化を検出する手法を提案する。
まず,画像から3次元点雲を生成し,Structure-from-Motion (SfM) を用いてGNSS/INS読み出しを近似する。
変化検出のための2点雲の直接比較は、不正確な位置情報とsfm内のドリフトのために理想的ではない。
この問題を回避するために,現場における構造変化検出のための点雲の比較を可能にする,深層学習に基づく非剛性登録を提案する。
さらに,本手法のロバスト性を高めるために,2つのしきい値チェックおよび後処理手順を導入する。
アプローチの評価には,2つのデータセットを収集する。
提案手法は,視点や照明の違いがあっても,シーン変化を効果的に検出できることを示す。
関連論文リスト
- P2P-Bridge: Diffusion Bridges for 3D Point Cloud Denoising [81.92854168911704]
私たちは、Diffusion Schr"odingerブリッジをポイントクラウドに適応させる新しいフレームワークを通じて、ポイントクラウドを飾るタスクに取り組みます。
オブジェクトデータセットの実験では、P2P-Bridgeは既存のメソッドよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-08-29T08:00:07Z) - C-NERF: Representing Scene Changes as Directional Consistency
Difference-based NeRF [3.0023333254953406]
ニューラルレイディアンスフィールド(NeRF)で表現されたシーンにおける物体の変動による変化を検出することを目的としている。
任意のビューと2セットのシーンイメージが異なるタイムスタンプでキャプチャされた場合、そのビュー内のシーン変化を予測することができる。
提案手法は,最先端の2次元変化検出法とNeRF法を有意差で上回っている。
論文 参考訳(メタデータ) (2023-12-05T13:27:12Z) - Point Cloud Denoising and Outlier Detection with Local Geometric
Structure by Dynamic Graph CNN [0.0]
ポイントクラウドは3D空間のメディアフォーマットとして注目されている。
PointCleanNetは、ポイントクラウドのデnoisingとoutlier Detectionに有効な方法である。
動的グラフCNNに基づいて設計された2種類のグラフ畳み込み層を提案する。
論文 参考訳(メタデータ) (2023-10-11T10:50:15Z) - Irregular Change Detection in Sparse Bi-Temporal Point Clouds using
Learned Place Recognition Descriptors and Point-to-Voxel Comparison [0.0]
本稿では3次元点雲における変化検出のための革新的なアプローチを提案する。
深層学習位置認識記述子とボクセル対ポイント比較に基づく不規則物体抽出を用いる。
提案手法は実世界の実地実験で評価された。
論文 参考訳(メタデータ) (2023-06-27T12:22:25Z) - (LC)$^2$: LiDAR-Camera Loop Constraints For Cross-Modal Place
Recognition [0.9449650062296824]
本稿では,先行点クラウドマップを使わずにLiDARローカライゼーションを実現するために, (LC)$2$と呼ばれる新しいクロスマッチング手法を提案する。
ネットワークは、異なる画像とレンジ画像からローカライズ記述子を抽出するために訓練される。
我々は、LiDARベースのナビゲーションシステムが画像データベースから最適化され、その逆も可能であることを実証する。
論文 参考訳(メタデータ) (2023-04-17T23:20:16Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - Deep Point Cloud Reconstruction [74.694733918351]
3Dスキャンから得られる点雲は、しばしばスパース、ノイズ、不規則である。
これらの問題に対処するため、最近の研究は別々に行われ、不正確な点雲を密度化、復調し、完全な不正確な点雲を観測している。
本研究では,1) 初期密度化とデノナイズのための3次元スパース集積時間ガラスネットワーク,2) 離散ボクセルを3Dポイントに変換するトランスフォーマーによる改良,の2段階からなる深部点雲再構成ネットワークを提案する。
論文 参考訳(メタデータ) (2021-11-23T07:53:28Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - DeepI2P: Image-to-Point Cloud Registration via Deep Classification [71.3121124994105]
DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
論文 参考訳(メタデータ) (2021-04-08T04:27:32Z) - R-AGNO-RPN: A LIDAR-Camera Region Deep Network for Resolution-Agnostic
Detection [3.4761212729163313]
3次元点雲とRGB画像を融合した領域提案ネットワークR-AGNO-RPNを提案する。
私たちのアプローチは、低点のクラウド解像度にも適用できるように設計されています。
論文 参考訳(メタデータ) (2020-12-10T15:22:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。