論文の概要: A Copula-Guided Temporal Dependency Method for Multitemporal Hyperspectral Images Unmixing
- arxiv url: http://arxiv.org/abs/2509.11096v1
- Date: Sun, 14 Sep 2025 05:19:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.917089
- Title: A Copula-Guided Temporal Dependency Method for Multitemporal Hyperspectral Images Unmixing
- Title(参考訳): Copula-Guided Temporal Dependency Method for Multitemporal Hyperspectral Image Unmixing
- Authors: Ruiying Li, Bin Pan, Qiaoying Qu, Xia Xu, Zhenwei Shi,
- Abstract要約: マルチテンポラルハイパースペクトルアンミックスのためのコプラ誘導時間依存性法(Cog-TD)を提案する。
Copula-guided frameworkはコプラ関数を利用するために構築され、時間的依存を伴う動的エンドメンバーとアバンダンスを推定する。
合成と実世界の両方のデータセットに対する実験結果から,提案手法の有用性が示された。
- 参考スコア(独自算出の注目度): 25.398481016694756
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Multitemporal hyperspectral unmixing (MTHU) aims to model variable endmembers and dynamical abundances, which emphasizes the critical temporal information. However, existing methods have limitations in modeling temporal dependency, thus fail to capture the dynamical material evolution. Motivated by the ability of copula theory in modeling dependency structure explicitly, in this paper, we propose a copula-guided temporal dependency method (Cog-TD) for multitemporal hyperspectral unmixing. Cog-TD defines new mathematical model, constructs copula-guided framework and provides two key modules with theoretical support. The mathematical model provides explicit formulations for MTHU problem definition, which describes temporal dependency structure by incorporating copula theory. The copula-guided framework is constructed for utilizing copula function, which estimates dynamical endmembers and abundances with temporal dependency. The key modules consist of copula function estimation and temporal dependency guidance, which computes and employs temporal information to guide unmixing process. Moreover, the theoretical support demonstrates that estimated copula function is valid and the represented temporal dependency exists in hyperspectral images. The major contributions of this paper include redefining MTHU problem with temporal dependency, proposing a copula-guided framework, developing two key modules and providing theoretical support. Our experimental results on both synthetic and real-world datasets demonstrate the utility of the proposed method.
- Abstract(参考訳): MTHU(Multitemporal hyperspectral unmixing)は、時間的重要な情報を強調する可変終端員と動的存在をモデル化することを目的としている。
しかし、既存の手法は時間的依存をモデル化するのに限界があり、したがって動的物質進化を捉えることができない。
本稿では,マルチテンポラルハイパースペクトルアンミックスのためのコプラ誘導時間依存性法(Cog-TD)を提案する。
Cog-TDは新しい数学的モデルを定義し、コプラ誘導フレームワークを構築し、2つの重要なモジュールに理論的なサポートを提供する。
数学的モデルは、MTHU問題定義のための明示的な定式化を提供し、コプラ理論を取り入れた時間的依存構造を記述する。
コプラ誘導フレームワークはコプラ関数を利用するために構築され、時間的依存を伴う動的エンドメンバーとアバンダンスを推定する。
鍵となるモジュールは、コプラ関数の推定と時間依存性のガイダンスから成り、未混合プロセスを導くために時間的情報を計算し、利用する。
さらに、この理論的な支持は、推定されたコプラ関数が有効であり、表される時間依存性がハイパースペクトル画像に存在することを示す。
本論文の主な貢献は,MTHU問題を時間依存性で再定義すること,コプラ誘導フレームワークの提案,2つの重要なモジュールの開発,理論的支援などである。
合成と実世界の両方のデータセットに対する実験結果から,提案手法の有用性が示された。
関連論文リスト
- Foundation Model for Skeleton-Based Human Action Understanding [56.89025287217221]
本稿では,統一骨格に基づくDense Representation Learningフレームワークを提案する。
USDRLはトランスフォーマーベースのDense Spatio-Temporal (DSTE)、Multi-Grained Feature Deorrelation (MG-FD)、Multi-Perspective Consistency Training (MPCT)で構成されている。
論文 参考訳(メタデータ) (2025-08-18T02:42:16Z) - AsyReC: A Multimodal Graph-based Framework for Spatio-Temporal Asymmetric Dyadic Relationship Classification [8.516886985159928]
ダイアドの社会的関係は、空間的経験と時間的経験の共有によって形成される。
これらの関係をモデル化するための現在の計算手法は3つの大きな課題に直面している。
非対称なダイアド関係分類のための多モードグラフベースのフレームワークAsyReCを提案する。
論文 参考訳(メタデータ) (2025-04-07T12:52:23Z) - Exploring the Role of Explicit Temporal Modeling in Multimodal Large Language Models for Video Understanding [23.477954901326978]
既存のアプローチでは、デコーダのみに依存する暗黙の時間的モデリングと、補助的な時間的エンコーダを使用する明示的な時間的モデリングが採用されている。
適応性のある時間場とトークン圧縮比を持つフレキシブルな時間的モデリングを実現するための明示的時空間(STE)を提案する。
本研究は、ビデオMLLMの進行に有効な洞察を提供する、明示的な時間的モデリングの重要な役割を強調した。
論文 参考訳(メタデータ) (2025-01-28T08:30:58Z) - Community-Aware Temporal Walks: Parameter-Free Representation Learning on Continuous-Time Dynamic Graphs [3.833708891059351]
Community-Aware Temporal Walks (CTWalks)は、連続時間動的グラフ上での表現学習のための新しいフレームワークである。
CTWalksは、コミュニティベースのパラメータフリー時間ウォークサンプリング機構、コミュニティラベルに富んだ匿名化戦略、エンコーディングプロセスを統合する。
ベンチマークデータセットの実験では、CTWalksは時間リンク予測タスクにおいて確立された手法よりも優れていた。
論文 参考訳(メタデータ) (2025-01-21T04:16:46Z) - TemporalPaD: a reinforcement-learning framework for temporal feature representation and dimension reduction [10.765457133033435]
この研究は、時間パターンデータセット用に設計された新しいエンドツーエンドのディープラーニングフレームワークであるTemporalPaDを紹介する。
フレームワークは、ポリシーモジュール、表現モジュール、分類モジュールの3つの協調モジュールで構成されている。
29のUCIデータセットを用いてTemporalPaDを総合的に評価した。
論文 参考訳(メタデータ) (2024-09-27T09:56:20Z) - A Decoupled Spatio-Temporal Framework for Skeleton-based Action
Segmentation [89.86345494602642]
既存の手法は、弱い時間的モデリング能力に制限されている。
この問題に対処するために、Decoupled Scoupled Framework (DeST)を提案する。
DeSTは計算量が少なく、現在の最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-12-10T09:11:39Z) - USTEP: Spatio-Temporal Predictive Learning under A Unified View [62.58464029270846]
UTEP(Unified S-Temporal Predictive Learning)は,マイクロテンポラリスケールとマクロテンポラリスケールを統合した再帰的および再帰的フリーな手法を再構築する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2023-10-09T16:17:42Z) - SpatioTemporal Focus for Skeleton-based Action Recognition [66.8571926307011]
グラフ畳み込みネットワーク(GCN)は骨格に基づく行動認識において広く採用されている。
近年提案されている骨格に基づく行動認識法の性能は以下の要因によって制限されていると論じる。
近年の注目機構に着想を得て,アクション関連関係情報を取得するためのマルチグラインド・コンテキスト集中モジュール MCF を提案する。
論文 参考訳(メタデータ) (2022-03-31T02:45:24Z) - Temporal Graph Modeling for Skeleton-based Action Recognition [25.788239844759246]
複雑な時間的ダイナミクスを捉えるための時間拡張グラフ畳み込みネットワーク(TE-GCN)を提案する。
構築された時間関係グラフは、意味的に関連する時間的特徴間の接続を明示的に構築する。
2つの大規模データセットで実験を行う。
論文 参考訳(メタデータ) (2020-12-16T09:02:47Z) - Supporting Optimal Phase Space Reconstructions Using Neural Network
Architecture for Time Series Modeling [68.8204255655161]
位相空間特性を暗黙的に学習する機構を持つ人工ニューラルネットワークを提案する。
私たちのアプローチは、ほとんどの最先端戦略と同じくらいの競争力があるか、あるいは優れているかのどちらかです。
論文 参考訳(メタデータ) (2020-06-19T21:04:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。