論文の概要: Attention-Guided Deep Adversarial Temporal Subspace Clustering (A-DATSC) Model for multivariate spatiotemporal data
- arxiv url: http://arxiv.org/abs/2510.18004v1
- Date: Mon, 20 Oct 2025 18:38:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.51715
- Title: Attention-Guided Deep Adversarial Temporal Subspace Clustering (A-DATSC) Model for multivariate spatiotemporal data
- Title(参考訳): 多変量時空間データに対するA-DATSCモデル
- Authors: Francis Ndikum Nji, Vandana Janeja, Jianwu Wang,
- Abstract要約: サブスペースクラスタリングモデルは、融雪検出海氷追跡などの応用に不可欠である。
グラフアテンションに基づく自己表現型ネットワークは、局所的な空間的関係、グローバルな依存関係、短距離と長距離の両方をキャプチャする。
3つの実世界のデータセットによる実験により、A-SCSCは最先端の深層宇宙クラスタリングモデルと比較してかなり優れたクラスタリング性能を達成している。
- 参考スコア(独自算出の注目度): 0.16206783799607727
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep subspace clustering models are vital for applications such as snowmelt detection, sea ice tracking, crop health monitoring, infectious disease modeling, network load prediction, and land-use planning, where multivariate spatiotemporal data exhibit complex temporal dependencies and reside on multiple nonlinear manifolds beyond the capability of traditional clustering methods. These models project data into a latent space where samples lie in linear subspaces and exploit the self-expressiveness property to uncover intrinsic relationships. Despite their success, existing methods face major limitations: they use shallow autoencoders that ignore clustering errors, emphasize global features while neglecting local structure, fail to model long-range dependencies and positional information, and are rarely applied to 4D spatiotemporal data. To address these issues, we propose A-DATSC (Attention-Guided Deep Adversarial Temporal Subspace Clustering), a model combining a deep subspace clustering generator and a quality-verifying discriminator. The generator, inspired by U-Net, preserves spatial and temporal integrity through stacked TimeDistributed ConvLSTM2D layers, reducing parameters and enhancing generalization. A graph attention transformer based self-expressive network captures local spatial relationships, global dependencies, and both short- and long-range correlations. Experiments on three real-world multivariate spatiotemporal datasets show that A-DATSC achieves substantially superior clustering performance compared to state-of-the-art deep subspace clustering models.
- Abstract(参考訳): 深部部分空間クラスタリングモデルは、融雪の検出、海氷追跡、作物の健康モニタリング、伝染病のモデリング、ネットワーク負荷予測、土地利用計画といった応用には不可欠である。
これらのモデルは、サンプルが線形部分空間にある潜在空間にデータを投影し、本質的な関係を明らかにするために自己表現性を利用する。
クラスタリングエラーを無視した浅いオートエンコーダを使用し、局所構造を無視しながらグローバルな特徴を強調し、長距離依存や位置情報をモデル化できず、4D時空間データにはほとんど適用されない。
これらの問題に対処するため,我々は,深層空間クラスタリングジェネレータと品質検証器を組み合わせたモデルであるA-DATSC(Attention-Guided Deep Adversarial Subspace Clustering)を提案する。
U-Netにインスパイアされたジェネレータは、スタック化されたTimeDistributed ConvLSTM2D層を通して空間的および時間的整合性を保ち、パラメータを減らし、一般化を向上させる。
グラフアテンショントランスフォーマーに基づく自己表現型ネットワークは、局所的な空間関係、大域的依存関係、短距離および長距離の相関をキャプチャする。
3つの実世界の多変量時空間データセットによる実験により、A-DATSCは最先端の深部サブスペースクラスタリングモデルと比較して、かなり優れたクラスタリング性能が得られることが示された。
関連論文リスト
- RainDiff: End-to-end Precipitation Nowcasting Via Token-wise Attention Diffusion [64.49056527678606]
本稿では,U-Net拡散モデルだけでなく,レーダ時間エンコーダにも統合されたトークンワイドアテンションを提案する。
従来の手法とは異なり,本手法は,画素空間拡散の典型的な高資源コストを発生させることなく,アーキテクチャに注意を集中させる。
実験と評価により,提案手法は複雑な降水予測シナリオにおいて,最先端の手法,ロバストネスの局所的忠実度,一般化,優位性を著しく上回ることを示した。
論文 参考訳(メタデータ) (2025-10-16T17:59:13Z) - B-TGAT: A Bi-directional Temporal Graph Attention Transformer for Clustering Multivariate Spatiotemporal Data [0.15763762230817438]
本稿では,2次元グラフ注意変換器(B-TGAT)を統合した時間分散ハイブリッドU-Netオートコーダを提案する。
エンコーダとデコーダは、共同時空間特徴を抽出するConvLSTM2Dモジュールを備えている。
実験は、最先端のベースラインと比較して、クラスター分離性、時間的安定性、既知の気候遷移との整合性が優れていることを示した。
論文 参考訳(メタデータ) (2025-09-16T16:08:21Z) - Multivariate Long-term Time Series Forecasting with Fourier Neural Filter [42.60778405812048]
我々はFNFをバックボーンとして、DBDをアーキテクチャとして導入し、空間時間モデルのための優れた学習能力と最適な学習経路を提供する。
FNFは、局所時間領域とグローバル周波数領域の情報処理を単一のバックボーン内で統合し、空間的モデリングに自然に拡張することを示す。
論文 参考訳(メタデータ) (2025-06-10T18:40:20Z) - Spatial-Temporal-Spectral Unified Modeling for Remote Sensing Dense Prediction [20.1863553357121]
リモートセンシングのための現在のディープラーニングアーキテクチャは、基本的に堅固である。
本稿では,統合モデリングのための空間時間スペクトル統一ネットワーク(STSUN)について紹介する。
STSUNは任意の空間サイズ、時間長、スペクトル帯域で入力および出力データに適応することができる。
様々な密集した予測タスクと多様な意味クラス予測を統一する。
論文 参考訳(メタデータ) (2025-05-18T07:39:17Z) - Reduced Spatial Dependency for More General Video-level Deepfake Detection [9.51656628987442]
本稿では,複数の空間的摂動クラスタから共通の時間的整合性を統合した空間依存削減法を提案する。
大規模なベンチマークとアブレーション研究は、我々のアプローチの有効性と合理性を示している。
論文 参考訳(メタデータ) (2025-03-05T08:51:55Z) - Anchor-based Multi-view Subspace Clustering with Hierarchical Feature Descent [46.86939432189035]
階層的特徴Descentを用いたアンカーベースマルチビューサブスペースクラスタリングを提案する。
提案手法は最先端技術より一貫して優れている。
論文 参考訳(メタデータ) (2023-10-11T03:29:13Z) - SARN: Structurally-Aware Recurrent Network for Spatio-Temporal Disaggregation [8.636014676778682]
オープンデータは、通常プライバシーポリシーに従うために、しばしば空間的に集約される。しかし、粗い、異質な集約は、下流のAI/MLシステムに対する一貫性のある学習と統合を複雑にする。
本稿では,空間的注意層をGRU(Gated Recurrent Unit)モデルに統合したSARN(Structurely-Aware Recurrent Network)を提案する。
履歴学習データに制限のあるシナリオでは、ある都市変数に事前学習したモデルを、数百のサンプルのみを用いて、他の都市変数に対して微調整できることを示す。
論文 参考訳(メタデータ) (2023-06-09T21:01:29Z) - Deep Spatiotemporal Clustering: A Temporal Clustering Approach for
Multi-dimensional Climate Data [0.353122873734926]
教師なし深層学習法を用いて,データの高次元時間表現のための新しいアルゴリズムを提案する。
U-netアーキテクチャにインスパイアされたアルゴリズムでは,CNN-RNN層を統合したオートエンコーダを用いて潜在表現を学習する。
実験の結果,従来のクラスタリングアルゴリズムと深層学習に基づくクラスタリングアルゴリズムのどちらよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-27T21:45:21Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。