論文の概要: Changes in Real Time: Online Scene Change Detection with Multi-View Fusion
- arxiv url: http://arxiv.org/abs/2511.12370v1
- Date: Sat, 15 Nov 2025 22:12:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.997315
- Title: Changes in Real Time: Online Scene Change Detection with Multi-View Fusion
- Title(参考訳): リアルタイム変化:マルチビューフュージョンによるオンラインシーン変化検出
- Authors: Chamuditha Jayanga Galappaththige, Jason Lai, Lloyd Windrim, Donald Dansereau, Niko Sünderhauf, Dimity Miller,
- Abstract要約: 既存のオンラインシーン変更検出手法は、オフラインアプローチよりもはるかに精度が低い。
ポーズに依存しない,ラベルのない,マルチビューの一貫性を保証する,最初のオンラインSCDアプローチを提案する。
- 参考スコア(独自算出の注目度): 11.395231539643603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online Scene Change Detection (SCD) is an extremely challenging problem that requires an agent to detect relevant changes on the fly while observing the scene from unconstrained viewpoints. Existing online SCD methods are significantly less accurate than offline approaches. We present the first online SCD approach that is pose-agnostic, label-free, and ensures multi-view consistency, while operating at over 10 FPS and achieving new state-of-the-art performance, surpassing even the best offline approaches. Our method introduces a new self-supervised fusion loss to infer scene changes from multiple cues and observations, PnP-based fast pose estimation against the reference scene, and a fast change-guided update strategy for the 3D Gaussian Splatting scene representation. Extensive experiments on complex real-world datasets demonstrate that our approach outperforms both online and offline baselines.
- Abstract(参考訳): オンラインシーン変化検出(Online Scene Change Detection, SCD)は、制約のない視点からシーンを観察しながら、エージェントがハエの関連する変化を検知する必要がある極めて困難な問題である。
既存のオンラインSCD手法はオフライン手法よりもはるかに精度が低い。
提案するオンラインSCD方式は,ポーズに依存しない,ラベルのない,マルチビューの一貫性を保証するとともに,10FPS以上で動作し,最新のパフォーマンスを実現し,最高のオフラインアプローチを超越した。
提案手法では,複数の手がかりと観測からシーン変化を推定するための新たな自己教師型核融合損失,参照シーンに対するPnPに基づく高速ポーズ推定,および3次元ガウススティングシーン表現のための高速な変更誘導更新戦略を導入する。
複雑な実世界のデータセットに対する大規模な実験は、我々のアプローチがオンラインベースラインとオフラインベースラインの両方を上回っていることを示している。
関連論文リスト
- Leveraging Geometric Priors for Unaligned Scene Change Detection [53.523333385654546]
Unaligned Scene Change Detectionは、視点アライメントを仮定することなく、異なるタイミングでキャプチャされた画像ペア間のシーン変化を検出することを目的としている。
非整合SCDの中核的課題に対処するために、初めて幾何学的事前を導入する。
視覚基盤モデルの強力な表現とそれらを統合した学習自由フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-14T14:31:08Z) - DEFENDCLI: {Command-Line} Driven Attack Provenance Examination [18.873697430574573]
DEFENDCLIは、コマンドラインレベルの検出に重点を置く革新的なシステムである。
頻繁なプロセス呼び出し、不審なコマンドライン実行、外部ネットワーク接続を評価することで、情報表現の精度を向上させる。
評価の結果,DeFENDCLIは最先端手法に比べて約1.6倍精度が向上していることがわかった。
論文 参考訳(メタデータ) (2025-08-18T01:13:27Z) - Multimodal LLM-Guided Semantic Correction in Text-to-Image Diffusion [52.315729095824906]
MLLM Semantic-Corrected Ping-Pong-Ahead Diffusion (PPAD) は,マルチモーダル大言語モデル(MLLM)を推論中の意味的オブザーバとして導入する新しいフレームワークである。
中間世代をリアルタイムに分析し、潜在意味的不整合を識別し、フィードバックを制御可能な信号に変換し、残りの認知ステップを積極的に導く。
大規模な実験ではPPADの大幅な改善が示されている。
論文 参考訳(メタデータ) (2025-05-26T14:42:35Z) - S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - Differencing based Self-supervised pretraining for Scene Change
Detection [12.525959293825318]
シーン変化検出(SCD)は、異なる時間に撮影されたシーンを比較して変化を特定する。
ディープニューラルネットワークベースのソリューションは、大量の注釈付きデータを必要とします。
本稿では,特徴差分を用いた識別表現学習のための自己教師付き事前学習(DSP)手法を提案する。
論文 参考訳(メタデータ) (2022-08-11T14:06:32Z) - Recursive Least-Squares Estimator-Aided Online Learning for Visual
Tracking [58.14267480293575]
オフライン学習を必要とせず、簡単な効果的なオンライン学習手法を提案する。
これは、モデルが以前見たオブジェクトに関する知識を記憶するための、内蔵されたメモリ保持メカニズムを可能にする。
我々は、RT-MDNetにおける多層パーセプトロンと、DiMPにおける畳み込みニューラルネットワークの追跡のためのオンライン学習ファミリーにおける2つのネットワークに基づくアプローチを評価する。
論文 参考訳(メタデータ) (2021-12-28T06:51:18Z) - Self-Supervised Multi-Frame Monocular Scene Flow [61.588808225321735]
自己監督学習に基づくマルチフレーム一眼的シーンフローネットワークを導入。
自己監督学習に基づく単眼的シーンフロー法における最新の精度を観察する。
論文 参考訳(メタデータ) (2021-05-05T17:49:55Z) - On Improving Temporal Consistency for Online Face Liveness Detection [43.3347240592507]
我々は、下流の顔認識システムの安全性を高めるために、オンラインの顔のライブネス検出システムの改善に重点を置いている。
この問題に対処するため,時間的整合性に基づく単純かつ効果的な解法を提案する。
トレーニング段階では、時間的一貫性の制約を統合するために、時間的自己スーパービジョンの損失とクラス一貫性の損失が提案される。
展開段階では、トレーニング不要な非パラメトリック不確実性推定モジュールが開発され、予測を適応的に円滑にする。
論文 参考訳(メタデータ) (2020-06-11T19:19:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。