論文の概要: Multi-View Pose-Agnostic Change Localization with Zero Labels
- arxiv url: http://arxiv.org/abs/2412.03911v1
- Date: Thu, 05 Dec 2024 06:28:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:40:50.449120
- Title: Multi-View Pose-Agnostic Change Localization with Zero Labels
- Title(参考訳): ゼロラベルを用いた多視点ポンポン非依存な変化位置決め
- Authors: Chamuditha Jayanga Galappaththige, Jason Lai, Lloyd Windrim, Donald Dansereau, Niko Suenderhauf, Dimity Miller,
- Abstract要約: 複数の視点から情報を統合したラベルのないポーズに依存しない変化検出手法を提案する。
ポストチェンジシーンの5つの画像で、我々のアプローチは3DGSで追加の変更チャンネルを学習できる。
変更対応の3Dシーン表現により、見当たらない視点の正確な変更マスクの生成が可能となる。
- 参考スコア(独自算出の注目度): 4.997375878454274
- License:
- Abstract: Autonomous agents often require accurate methods for detecting and localizing changes in their environment, particularly when observations are captured from unconstrained and inconsistent viewpoints. We propose a novel label-free, pose-agnostic change detection method that integrates information from multiple viewpoints to construct a change-aware 3D Gaussian Splatting (3DGS) representation of the scene. With as few as 5 images of the post-change scene, our approach can learn additional change channels in a 3DGS and produce change masks that outperform single-view techniques. Our change-aware 3D scene representation additionally enables the generation of accurate change masks for unseen viewpoints. Experimental results demonstrate state-of-the-art performance in complex multi-object scenes, achieving a 1.7$\times$ and 1.6$\times$ improvement in Mean Intersection Over Union and F1 score respectively over other baselines. We also contribute a new real-world dataset to benchmark change detection in diverse challenging scenes in the presence of lighting variations.
- Abstract(参考訳): 自律的なエージェントは、しばしば環境の変化を正確に検出し、局所化する方法を必要とし、特に、制約のない、一貫性のない視点から観察される場合である。
本稿では,複数の視点から情報を統合し,シーンの3Dガウススティング(3DGS)表現を構築する,ラベルフリーでポーズに依存しない新しい変化検出手法を提案する。
ポストチェンジシーンの5つの画像で、3DGSで追加の変更チャネルを学習し、シングルビュー技術より優れた変更マスクを生成することができる。
変更対応の3Dシーン表現により、見当たらない視点の正確な変更マスクの生成が可能となる。
実験により、複雑な多目的シーンにおける最先端性能が示され、1.7$\times$と1.6$\times$の改善が達成され、他のベースラインよりも平均インターセクションオーバーユニオンとF1スコアが向上した。
また、照明のバリエーションの存在下で、さまざまな困難なシーンで変更検出をベンチマークするために、新しい現実世界データセットも提供します。
関連論文リスト
- Decoupling Appearance Variations with 3D Consistent Features in Gaussian Splatting [50.98884579463359]
本稿では,プラグアンドプレイ方式で外観変化を分離するDAVIGSを提案する。
ガウスレベルではなく画像レベルでレンダリング結果を変換することにより、最適化時間とメモリオーバーヘッドを最小限に抑えた外観変化をモデル化できる。
提案手法をいくつかの外観変化シーンで検証し,トレーニング時間とメモリ使用量を最小限に抑えて,最先端のレンダリング品質を実現することを実証した。
論文 参考訳(メタデータ) (2025-01-18T14:55:58Z) - Improving Zero-Shot Object-Level Change Detection by Incorporating Visual Correspondence [13.479857959236345]
既存の変更検出アプローチには3つの大きな制限がある。
本稿では,変化検出精度を向上させるために,学習中の変化対応を利用した新しい手法を提案する。
また、推定ホモグラフィーとハンガリーのアルゴリズムを用いて検出された変化のペア間の対応を予測した最初の人物である。
論文 参考訳(メタデータ) (2025-01-09T20:02:10Z) - Gaga: Group Any Gaussians via 3D-aware Memory Bank [66.54280093684427]
Gagaは、ゼロショットセグメンテーションモデルによって予測される一貫性のない2Dマスクを活用することで、オープンワールドの3Dシーンを再構築し、セグメント化する。
トレーニング画像の連続的なビュー変化の仮定を排除することで、Gagaはカメラポーズの変動に対して堅牢性を示す。
Gagaは最先端の手法に対して好意的に機能し、現実世界の応用の可能性を強調している。
論文 参考訳(メタデータ) (2024-04-11T17:57:19Z) - Living Scenes: Multi-object Relocalization and Reconstruction in Changing 3D Environments [20.890476387720483]
MoREは進化する環境における多目的再局在と再構成のための新しいアプローチである。
これらの環境を「生きたシーン」とみなし、異なる時点のスキャンをオブジェクトインスタンスの3次元再構成に変換する問題について考察する。
論文 参考訳(メタデータ) (2023-12-14T17:09:57Z) - C-NERF: Representing Scene Changes as Directional Consistency
Difference-based NeRF [3.0023333254953406]
ニューラルレイディアンスフィールド(NeRF)で表現されたシーンにおける物体の変動による変化を検出することを目的としている。
任意のビューと2セットのシーンイメージが異なるタイムスタンプでキャプチャされた場合、そのビュー内のシーン変化を予測することができる。
提案手法は,最先端の2次元変化検出法とNeRF法を有意差で上回っている。
論文 参考訳(メタデータ) (2023-12-05T13:27:12Z) - SC-GS: Sparse-Controlled Gaussian Splatting for Editable Dynamic Scenes [59.23385953161328]
動的シーンのための新しいビュー合成は、コンピュータビジョンとグラフィックスにおいて依然として難しい問題である。
本稿では,動的シーンの動作と外観を疎制御点と高密度ガウスに明示的に分解する新しい表現を提案する。
提案手法は,高忠実度な外観を維持しつつ,ユーザ制御のモーション編集を可能にする。
論文 参考訳(メタデータ) (2023-12-04T11:57:14Z) - Exchange means change: an unsupervised single-temporal change detection
framework based on intra- and inter-image patch exchange [44.845959222180866]
画像内および画像間パッチ交換(I3PE)に基づく教師なし単一時間CDフレームワークを提案する。
I3PEフレームワークは、損傷のない、ラベルなしの単一時間リモートセンシング画像上で、深い変化検出を訓練することができる。
I3PEは教師なしのアプローチよりも優れており、SOTA法では10.65%と6.99%のF1値の改善を実現している。
論文 参考訳(メタデータ) (2023-10-01T14:50:54Z) - The Change You Want to See [91.3755431537592]
同じシーンの2つのイメージが与えられた場合、その変更を自動的に検出できることは、様々な領域で実用的応用をもたらす。
画像対の「オブジェクトレベル」変化を、視点や照明の違いにかかわらず検出することを目的として、変化検出問題に取り組む。
論文 参考訳(メタデータ) (2022-09-28T18:10:09Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - City-scale Scene Change Detection using Point Clouds [71.73273007900717]
2つの異なる時間にカメラを設置して撮影した画像を用いて都市の構造変化を検出する手法を提案する。
変化検出のための2点雲の直接比較は、不正確な位置情報のため理想的ではない。
この問題を回避するために,ポイントクラウド上での深層学習に基づく非厳密な登録を提案する。
提案手法は,視点や照明の違いがあっても,シーン変化を効果的に検出できることを示す。
論文 参考訳(メタデータ) (2021-03-26T08:04:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。