論文の概要: Implicit neural representation for change detection
- arxiv url: http://arxiv.org/abs/2307.15428v2
- Date: Wed, 30 Aug 2023 10:38:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 16:32:13.874649
- Title: Implicit neural representation for change detection
- Title(参考訳): 変化検出のための入射神経表現
- Authors: Peter Naylor, Diego Di Carlo, Arianna Traviglia, Makoto Yamada and
Marco Fiorucci
- Abstract要約: 点雲の変化を検出する最も一般的なアプローチは、教師付き手法に基づいている。
Inlicit Neural Representation (INR) for continuous shape reconstruction と Gaussian Mixture Model for categorising change の2つのコンポーネントからなる教師なしアプローチを提案する。
本手法を都市スプロールのためのシミュレーションLiDAR点雲からなるベンチマークデータセットに適用する。
- 参考スコア(独自算出の注目度): 15.741202788959075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Identifying changes in a pair of 3D aerial LiDAR point clouds, obtained
during two distinct time periods over the same geographic region presents a
significant challenge due to the disparities in spatial coverage and the
presence of noise in the acquisition system. The most commonly used approaches
to detecting changes in point clouds are based on supervised methods which
necessitate extensive labelled data often unavailable in real-world
applications. To address these issues, we propose an unsupervised approach that
comprises two components: Implicit Neural Representation (INR) for continuous
shape reconstruction and a Gaussian Mixture Model for categorising changes. INR
offers a grid-agnostic representation for encoding bi-temporal point clouds,
with unmatched spatial support that can be regularised to enhance
high-frequency details and reduce noise. The reconstructions at each timestamp
are compared at arbitrary spatial scales, leading to a significant increase in
detection capabilities. We apply our method to a benchmark dataset comprising
simulated LiDAR point clouds for urban sprawling. This dataset encompasses
diverse challenging scenarios, varying in resolutions, input modalities and
noise levels. This enables a comprehensive multi-scenario evaluation, comparing
our method with the current state-of-the-art approach. We outperform the
previous methods by a margin of 10% in the intersection over union metric. In
addition, we put our techniques to practical use by applying them in a
real-world scenario to identify instances of illicit excavation of
archaeological sites and validate our results by comparing them with findings
from field experts.
- Abstract(参考訳): 同じ地理的領域上の2つの異なる期間に得られた一対の3次元空中LiDAR点雲の変化を同定することは、空間被覆の相違と取得システムにおけるノイズの存在により大きな課題となる。
ポイントクラウドの変化を検出する最も一般的なアプローチは、現実世界のアプリケーションでは利用できない広範囲なラベル付きデータを必要とする教師付き手法に基づいている。
これらの問題に対処するために、連続的な形状再構成のためのインプリシトニューラルネットワーク表現(INR)と変化を分類するためのガウス混合モデルという2つのコンポーネントからなる教師なしアプローチを提案する。
INRは、二時間点雲を符号化するためのグリッドに依存しない表現を提供する。
各タイムスタンプでの再構成は任意の空間スケールで比較され、検出能力が大幅に向上する。
本手法を都市スプロールのためのシミュレーションLiDAR点雲からなるベンチマークデータセットに適用する。
このデータセットは、解像度、入力モダリティ、ノイズレベルなど、さまざまな挑戦的なシナリオを包含する。
これにより,本手法を最先端手法と比較し,総合的なマルチシナリオ評価が可能となる。
我々は、結合計量上の交叉において、従来の方法よりも10%のマージンで勝っている。
さらに,本手法を現実のシナリオに応用して,遺跡の不法発掘事例を特定し,現場専門家の知見と比較し,その結果を検証した。
関連論文リスト
- Video Anomaly Detection via Spatio-Temporal Pseudo-Anomaly Generation : A Unified Approach [49.995833831087175]
本研究は,画像のマスキング領域にペンキを塗布することにより,汎用的な映像時間PAを生成する手法を提案する。
さらに,OCC設定下での現実世界の異常を検出するための単純な統合フレームワークを提案する。
提案手法は,OCC設定下での既存のPAs生成および再構築手法と同等に動作する。
論文 参考訳(メタデータ) (2023-11-27T13:14:06Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - Frequency Perception Network for Camouflaged Object Detection [51.26386921922031]
周波数領域のセマンティック階層によって駆動される新しい学習可能かつ分離可能な周波数知覚機構を提案する。
ネットワーク全体では、周波数誘導粗い局所化ステージと細部保存の微細局在化ステージを含む2段階モデルを採用している。
提案手法は,既存のモデルと比較して,3つのベンチマークデータセットにおいて競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-17T11:30:46Z) - Irregular Change Detection in Sparse Bi-Temporal Point Clouds using
Learned Place Recognition Descriptors and Point-to-Voxel Comparison [0.0]
本稿では3次元点雲における変化検出のための革新的なアプローチを提案する。
深層学習位置認識記述子とボクセル対ポイント比較に基づく不規則物体抽出を用いる。
提案手法は実世界の実地実験で評価された。
論文 参考訳(メタデータ) (2023-06-27T12:22:25Z) - Optimal Transport for Change Detection on LiDAR Point Clouds [16.552050876277242]
空気中LiDARデータポイント間の教師なし変更検出は,取得システムからの空間的支持とノイズのアンマッチが困難である。
本稿では,2つの時間的支援による3次元LiDAR点の移動の計算に基づく教師なしアプローチを提案する。
本手法では,教師なしの階層分類が可能であり,従来の最先端の教師なし手法よりも有意な差で性能が向上する。
論文 参考訳(メタデータ) (2023-02-14T13:08:07Z) - Doubly Inhomogeneous Reinforcement Learning [4.334006170547247]
我々は、ポリシー学習のために、時間とともに個人間で類似したダイナミクスを表示する「最良のデータチャンクを決定するためのオリジナルアルゴリズム」を提案する。
提案手法は汎用的であり,クラスタリングおよび変更点検出アルゴリズムの幅広い範囲で動作する。
論文 参考訳(メタデータ) (2022-11-08T03:41:14Z) - MD-CSDNetwork: Multi-Domain Cross Stitched Network for Deepfake
Detection [80.83725644958633]
現在のディープフェイク生成法では、偽画像やビデオの周波数スペクトルに識別的アーティファクトが残されている。
MD-CSDNetwork(MD-CSDNetwork)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T14:11:53Z) - Recent Advances in Domain Adaptation for the Classification of Remote
Sensing Data [13.003241006687322]
リモートセンシングデータ分類の問題を解決するためにドメイン適応(DA)アプローチが提案されている。
本稿では,リモートセンシングにおけるDAの最近の進歩について批判的なレビューを行う。
高い空間分解能とスペクトル分解能を特徴とするリアルリモートセンシング画像に対する検討手法の適用例を紹介します。
論文 参考訳(メタデータ) (2021-04-15T21:15:48Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - Capturing scattered discriminative information using a deep architecture
in acoustic scene classification [49.86640645460706]
本研究では,識別情報を捕捉し,同時に過度に適合する問題を緩和する様々な手法について検討する。
我々は、ディープニューラルネットワークにおける従来の非線形アクティベーションを置き換えるために、Max Feature Map法を採用する。
2つのデータ拡張方法と2つの深いアーキテクチャモジュールは、システムの過度な適合を減らし、差別的なパワーを維持するためにさらに検討されている。
論文 参考訳(メタデータ) (2020-07-09T08:32:06Z) - Learning Graph-Convolutional Representations for Point Cloud Denoising [31.557988478764997]
本稿では,学習ベースのポイントクラウド処理手法で発生する置換不変問題に対処可能なディープニューラルネットワークを提案する。
ネットワークは完全に畳み込み可能で、近傍グラフを動的に構築することで、機能の複雑な階層を構築することができる。
特に高騒音レベルと実LiDARスキャンで遭遇したような構造ノイズの存在の両方において堅牢である。
論文 参考訳(メタデータ) (2020-07-06T08:11:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。