論文の概要: Multi-Temporal Scene Classification and Scene Change Detection with
Correlation based Fusion
- arxiv url: http://arxiv.org/abs/2006.02176v1
- Date: Wed, 3 Jun 2020 11:24:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 18:12:47.750226
- Title: Multi-Temporal Scene Classification and Scene Change Detection with
Correlation based Fusion
- Title(参考訳): 相関型融合によるマルチテンポラルシーン分類とシーン変化検出
- Authors: Lixiang Ru, Bo Du and Chen Wu
- Abstract要約: シーン変化検出のための既存の手法は、時間的特徴の時間的相関にはほとんど注目しない。
本研究では,両時間的特徴埋め込みにおいて高相関成分を融合させるCorrFusionモジュールを提案する。
実験により,提案したCorrFusionモジュールは,複数時間シーン分類とシーン変化検出結果を大幅に改善できることが示された。
- 参考スコア(独自算出の注目度): 36.31985945889264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classifying multi-temporal scene land-use categories and detecting their
semantic scene-level changes for imagery covering urban regions could
straightly reflect the land-use transitions. Existing methods for scene change
detection rarely focus on the temporal correlation of bi-temporal features, and
are mainly evaluated on small scale scene change detection datasets. In this
work, we proposed a CorrFusion module that fuses the highly correlated
components in bi-temporal feature embeddings. We firstly extracts the deep
representations of the bi-temporal inputs with deep convolutional networks.
Then the extracted features will be projected into a lower dimension space to
computed the instance-level correlation. The cross-temporal fusion will be
performed based on the computed correlation in CorrFusion module. The final
scene classification are obtained with softmax activation layers. In the
objective function, we introduced a new formulation for calculating the
temporal correlation. The detailed derivation of backpropagation gradients for
the proposed module is also given in this paper. Besides, we presented a much
larger scale scene change detection dataset and conducted experiments on this
dataset. The experimental results demonstrated that our proposed CorrFusion
module could remarkably improve the multi-temporal scene classification and
scene change detection results.
- Abstract(参考訳): 多時期的景観土地利用カテゴリーの分類と都市部を包含する画像のセマンティックシーンレベルの変化の検出は、土地利用の変遷を直線的に反映することができる。
既存のシーン変化検出法は,バイタイム特徴の時間的相関にほとんど注目せず,小規模シーン変化検出データセットを中心に評価されている。
本研究では,両時間特徴埋め込みにおいて高相関成分を融合させるCorrFusionモジュールを提案する。
まず、両時間入力の深部表現を深部畳み込みネットワークで抽出する。
次に抽出された特徴を低次元空間に投影し、インスタンスレベルの相関を計算する。
CorrFusionモジュールの計算相関に基づいて時間的相互融合を行う。
最終シーン分類はソフトマックス活性化層を用いて行われる。
目的関数において,時間相関を計算するための新しい定式化を導入した。
本論文では,提案モジュールのバックプロパゲーション勾配の詳細な導出についても述べる。
さらに,より大規模なシーン変化検出データセットを示し,このデータセットについて実験を行った。
実験の結果,提案するcorrfusionモジュールは,多時的シーン分類とシーン変化検出結果を大幅に改善できることがわかった。
関連論文リスト
- Detecting Audio-Visual Deepfakes with Fine-Grained Inconsistencies [11.671275975119089]
空間領域と時間領域の両方において微妙なアーティファクトを検出するためのきめ細かいメカニズムを提案する。
まず,音声との不整合が生じやすい小さな空間領域を撮影できる局所視覚モデルを提案する。
第2に、トレーニングセットに微妙な時間的不整合を取り入れたサンプルを含む、時間的に局所的な擬似フェイク増強を導入する。
論文 参考訳(メタデータ) (2024-08-13T09:19:59Z) - Coarse-to-Fine Proposal Refinement Framework for Audio Temporal Forgery Detection and Localization [60.899082019130766]
本稿では、フレームレベル検出ネットワーク(FDN)と、音声の時間的偽造検出とローカライゼーションのための改良ネットワーク(PRN)を提案する。
FDNは、偽のフレーム間で情報的不整合の手がかりを抽出し、偽の領域を大まかに示すのに有用な識別的特徴を得る。
PRNは、FDNから派生した粗粒度の提案を洗練するために、信頼スコアと回帰オフセットを予測する責任がある。
論文 参考訳(メタデータ) (2024-07-23T15:07:52Z) - A Late-Stage Bitemporal Feature Fusion Network for Semantic Change Detection [32.112311027857636]
そこで本研究では,意味変化検出の課題に対処するため,新しい2段階の時間的特徴融合ネットワークを提案する。
具体的には,特徴融合を強化するため,局所的グローバルアテンショナルアグリゲーションモジュールを提案し,重要なセマンティクスを強調するために,局所的グローバルなコンテキスト拡張モジュールを提案する。
提案モデルにより,両データセットの最先端性能が向上する。
論文 参考訳(メタデータ) (2024-06-15T16:02:10Z) - STARFlow: Spatial Temporal Feature Re-embedding with Attentive Learning for Real-world Scene Flow [5.476991379461233]
両ユークリッド空間における全点対に一致する大域的注意流埋め込みを提案する。
我々は、新しいドメイン適応損失を利用して、合成から実世界への動き推論のギャップを埋める。
提案手法は,実世界のLiDARスキャンデータセットにおいて特に顕著な結果を得て,各種データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-11T04:56:10Z) - Frequency Perception Network for Camouflaged Object Detection [51.26386921922031]
周波数領域のセマンティック階層によって駆動される新しい学習可能かつ分離可能な周波数知覚機構を提案する。
ネットワーク全体では、周波数誘導粗い局所化ステージと細部保存の微細局在化ステージを含む2段階モデルを採用している。
提案手法は,既存のモデルと比較して,3つのベンチマークデータセットにおいて競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-17T11:30:46Z) - MomentDiff: Generative Video Moment Retrieval from Random to Real [71.40038773943638]
私たちは、MomentDiffという拡散に基づく生成フレームワークを提供しています。
MomentDiffは、ランダムなブラウジングから段階的なローカライゼーションまで、典型的な人間の検索プロセスをシミュレートする。
MomentDiffは3つの公開ベンチマークで最先端の手法を一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2023-07-06T09:12:13Z) - Part-guided Relational Transformers for Fine-grained Visual Recognition [59.20531172172135]
識別的特徴を学習し,特徴変換モジュールとの相関関係を探索するフレームワークを提案する。
提案手法は,3-of-the-levelオブジェクト認識において,部分ブランチの追加に頼らず,最先端の性能に達する。
論文 参考訳(メタデータ) (2022-12-28T03:45:56Z) - Spatio-Temporal Relation Learning for Video Anomaly Detection [35.59510027883497]
異常識別は、オブジェクトとシーンの関係に大きく依存する。
本稿では,ビデオ異常検出タスクに対処するための空間時間関係学習フレームワークを提案する。
3つの公開データセットで実験を行い、最先端手法よりも優れた性能を示し、本手法の有効性を実証した。
論文 参考訳(メタデータ) (2022-09-27T02:19:31Z) - Temporal Action Localization with Multi-temporal Scales [54.69057924183867]
マルチ時間スケールの特徴空間における行動を予測することを提案する。
具体的には、異なるスケールの洗練された特徴ピラミッドを使用して、高レベルのスケールから低レベルのスケールにセマンティクスを渡す。
提案手法は, それぞれ12.6%, 17.4%, 2.2%の改善を達成できる。
論文 参考訳(メタデータ) (2022-08-16T01:48:23Z) - Learning Scene Dynamics from Point Cloud Sequences [8.163697683448811]
本稿では,一列に1組の点雲に対して3次元のシーンフローを予測することを目的とした,時間的シーンフロー推定(SSFE)という新たな問題を提案する。
本稿では,SPCM-Netアーキテクチャを導入し,近隣の点群間のマルチスケール相関を計算してこの問題を解決する。
我々は,この手法を逐次点雲予測のために効果的に修正できることを実証した。
論文 参考訳(メタデータ) (2021-11-16T19:52:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。