論文の概要: Transformer-Guided Content-Adaptive Graph Learning for Hyperspectral Unmixing
- arxiv url: http://arxiv.org/abs/2509.03376v1
- Date: Wed, 03 Sep 2025 14:53:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.561072
- Title: Transformer-Guided Content-Adaptive Graph Learning for Hyperspectral Unmixing
- Title(参考訳): Transformer-Guided Content-Adaptive Graph Learning for Hyperspectral Unmixing
- Authors: Hui Chen, Liangyu Liu, Xianchao Xiu, Wanquan Liu,
- Abstract要約: ハイパースペクトルアンミックス(HU)ターゲットは、リモートセンシング画像中の各混合画素を、一組のエンドメンバーとその対応するアブリダンスに分解する。
本文は, トランスフォーマー誘導型コンテンツ適応グラフアンミックスフレームワーク(T-CAGU)を提案する。
T-CAGUは複数の伝搬順序を統合してグラフ構造を動的に学習し、ノイズに対する堅牢性を保証する。
- 参考スコア(独自算出の注目度): 14.732511023726715
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hyperspectral unmixing (HU) targets to decompose each mixed pixel in remote sensing images into a set of endmembers and their corresponding abundances. Despite significant progress in this field using deep learning, most methods fail to simultaneously characterize global dependencies and local consistency, making it difficult to preserve both long-range interactions and boundary details. This letter proposes a novel transformer-guided content-adaptive graph unmixing framework (T-CAGU), which overcomes these challenges by employing a transformer to capture global dependencies and introducing a content-adaptive graph neural network to enhance local relationships. Unlike previous work, T-CAGU integrates multiple propagation orders to dynamically learn the graph structure, ensuring robustness against noise. Furthermore, T-CAGU leverages a graph residual mechanism to preserve global information and stabilize training. Experimental results demonstrate its superiority over the state-of-the-art methods. Our code is available at https://github.com/xianchaoxiu/T-CAGU.
- Abstract(参考訳): ハイパースペクトルアンミックス(HU)ターゲットは、リモートセンシング画像中の各混合画素を、一組のエンドメンバーとその対応するアブリダンスに分解する。
深層学習によるこの分野の著しい進歩にもかかわらず、ほとんどの手法はグローバルな依存関係と局所的な一貫性を同時に特徴付けることができず、長距離の相互作用と境界の詳細の両方を維持することは困難である。
本稿では,トランスフォーマーを用いてグローバルな依存関係をキャプチャし,ローカルな関係を強化するためのコンテント適応グラフニューラルネットワークを導入することにより,これらの課題を克服する,トランスフォーマー誘導型コンテント適応グラフアンミックスフレームワークを提案する。
従来の作業とは異なり、T-CAGUは複数の伝搬順序を統合してグラフ構造を動的に学習し、ノイズに対する堅牢性を保証する。
さらに、T-CAGUは、グローバル情報を保存し、トレーニングを安定させるためにグラフ残留機構を利用する。
実験結果から, 最先端手法よりも優れた結果が得られた。
私たちのコードはhttps://github.com/xianchaoxiu/T-CAGU.comで公開されています。
関連論文リスト
- Towards Improving Long-Tail Entity Predictions in Temporal Knowledge Graphs through Global Similarity and Weighted Sampling [53.11315884128402]
時間知識グラフ(TKG)補完モデルは、伝統的にトレーニング中にグラフ全体へのアクセスを前提としている。
本稿では,TKGに特化して設計されたインクリメンタルトレーニングフレームワークを提案する。
提案手法は,モデルに依存しない拡張層と加重サンプリング戦略を組み合わせることで,既存のTKG補完手法を拡張および改善することができる。
論文 参考訳(メタデータ) (2025-07-25T06:02:48Z) - Structural Alignment Improves Graph Test-Time Adaptation [17.564393890432193]
グラフテスト時間適応(GTTA)のための新しいアルゴリズムであるテスト時間構造アライメント(TSA)を導入する。
TSAは、ソースデータにアクセスすることなく、推論中にグラフ構造を整列する。
合成および実世界のデータセットの実験は、TSAが非グラフTTA法と最先端GTTAベースラインの両方で一貫した性能を実証している。
論文 参考訳(メタデータ) (2025-02-25T16:26:25Z) - FedRGL: Robust Federated Graph Learning for Label Noise [5.296582539751589]
Federated Graph Learning(FGL)は、グラフニューラルネットワークに基づく分散機械学習パラダイムである。
本稿では,FedRGLと呼ばれるラベルノイズを用いた頑健なグラフ学習手法を提案する。
FedRGLは、様々なノイズ率、タイプ、クライアント数で12のベースライン手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-11-28T04:37:04Z) - SGFormer: Single-Layer Graph Transformers with Approximation-Free Linear Complexity [74.51827323742506]
グラフ上でのトランスフォーマーにおける多層アテンションの導入の必要性を評価する。
本研究では,一層伝播を一層伝播に還元できることを示す。
これは、グラフ上で強力で効率的なトランスフォーマーを構築するための新しい技術パスを示唆している。
論文 参考訳(メタデータ) (2024-09-13T17:37:34Z) - Graph Context Transformation Learning for Progressive Correspondence
Pruning [26.400567961735234]
本稿では,プログレッシブ対応プルーニングのためのコンセンサスガイダンスを行うために,文脈情報を強化するグラフコンテキスト変換ネットワーク(GCT-Net)を提案する。
具体的には、まずグラフネットワークを生成し、次にマルチブランチグラフコンテキストに変換するグラフコンテキストエンハンス変換器を設計する。
そこで本稿では,グラフ・コンテキスト・ガイダンス・トランスフォーマ(Graph Context Guidance Transformer)を提案する。
論文 参考訳(メタデータ) (2023-12-26T09:43:30Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - TcGAN: Semantic-Aware and Structure-Preserved GANs with Individual
Vision Transformer for Fast Arbitrary One-Shot Image Generation [11.207512995742999]
画像の内部パッチから学習する生成的敵ネットワークを持つワンショット画像生成(OSG)は、世界中で注目を集めている。
本稿では,既存のワンショット画像生成手法の欠点を克服するために,個々の視覚変換器を用いた構造保存方式TcGANを提案する。
論文 参考訳(メタデータ) (2023-02-16T03:05:59Z) - Representing Long-Range Context for Graph Neural Networks with Global
Attention [37.212747564546156]
本稿では,トランスフォーマーに基づく自己認識を用いて,長距離ペア関係の学習を提案する。
提案手法はGraphTransと呼ばれ,標準のGNNモジュールに代えて置換不変なTransformerモジュールを適用している。
その結果,グラフ構造を持たない純粋学習に基づくアプローチは,グラフ上の高レベルな長距離関係を学習するのに適している可能性が示唆された。
論文 参考訳(メタデータ) (2022-01-21T18:16:21Z) - Multi-Level Graph Convolutional Network with Automatic Graph Learning
for Hyperspectral Image Classification [63.56018768401328]
HSI分類のための自動グラフ学習法(MGCN-AGL)を用いたマルチレベルグラフ畳み込みネットワーク(GCN)を提案する。
空間的に隣接する領域における重要度を特徴付けるために注意機構を利用することで、最も関連性の高い情報を適応的に組み込んで意思決定を行うことができる。
MGCN-AGLは局所的に生成した表現表現に基づいて画像領域間の長距離依存性を符号化する。
論文 参考訳(メタデータ) (2020-09-19T09:26:20Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。