論文の概要: MOB-GCN: A Novel Multiscale Object-Based Graph Neural Network for Hyperspectral Image Classification
- arxiv url: http://arxiv.org/abs/2502.16289v1
- Date: Sat, 22 Feb 2025 16:37:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:56:47.565351
- Title: MOB-GCN: A Novel Multiscale Object-Based Graph Neural Network for Hyperspectral Image Classification
- Title(参考訳): MOB-GCN:ハイパースペクトル画像分類のための新しいマルチスケールオブジェクトベースグラフニューラルネットワーク
- Authors: Tuan-Anh Yang, Truong-Son Hy, Phuong D. Dao,
- Abstract要約: 本稿では、ハイパースペクトル画像(HSI)分類のためのMOB-GCNと呼ばれる新しいマルチスケールオブジェクトベースグラフニューラルネットワークを提案する。
本研究の中心的な目的は,マルチスケールオブジェクトベース画像解析(OBIA)を利用した特徴抽出と分類性能の向上である。
実験の結果,MOB-GCNは分類精度,計算効率,ノイズ低減の点で,単一スケールグラフ畳み込みネットワーク(GCN)より一貫して優れていた。
- 参考スコア(独自算出の注目度): 1.515687944002438
- License:
- Abstract: This paper introduces a novel multiscale object-based graph neural network called MOB-GCN for hyperspectral image (HSI) classification. The central aim of this study is to enhance feature extraction and classification performance by utilizing multiscale object-based image analysis (OBIA). Traditional pixel-based methods often suffer from low accuracy and speckle noise, while single-scale OBIA approaches may overlook crucial information of image objects at different levels of detail. MOB-GCN overcomes these challenges by extracting and integrating features from multiple segmentation scales, leveraging the Multiresolution Graph Network (MGN) architecture to capture both fine-grained and global spatial patterns. MOB-GCN addresses this issue by extracting and integrating features from multiple segmentation scales to improve classification results using the Multiresolution Graph Network (MGN) architecture that can model fine-grained and global spatial patterns. By constructing a dynamic multiscale graph hierarchy, MOB-GCN offers a more comprehensive understanding of the intricate details and global context of HSIs. Experimental results demonstrate that MOB-GCN consistently outperforms single-scale graph convolutional networks (GCNs) in terms of classification accuracy, computational efficiency, and noise reduction, particularly when labeled data is limited. The implementation of MOB-GCN is publicly available at https://github.com/HySonLab/MultiscaleHSI
- Abstract(参考訳): 本稿では、ハイパースペクトル画像(HSI)分類のためのMOB-GCNと呼ばれる新しいマルチスケールオブジェクトベースグラフニューラルネットワークを提案する。
本研究の目的は,マルチスケールオブジェクトベース画像解析(OBIA)を用いて特徴抽出と分類性能を向上させることである。
従来のピクセルベースの手法は、低い精度とスペックルノイズに悩まされることが多いが、単一スケールのOBIAアプローチは、様々な詳細レベルで画像オブジェクトの重要な情報を見落としてしまうことがある。
MOB-GCNは、複数のセグメンテーションスケールから機能を抽出し、統合することでこれらの課題を克服し、Multi resolution Graph Network(MGN)アーキテクチャを利用して、微細な空間パターンとグローバルな空間パターンの両方をキャプチャする。
MOB-GCNは、細粒度で大域的な空間パターンをモデル化できるMulti resolution Graph Network (MGN)アーキテクチャを用いて、複数のセグメンテーションスケールから特徴を抽出して統合し、分類結果を改善することでこの問題に対処する。
動的マルチスケールグラフ階層を構築することで、MOB-GCNは複雑な詳細とHSIのグローバルコンテキストをより包括的に理解することができる。
実験の結果,MOB-GCNは分類精度,計算効率,ノイズ低減の点で,特にラベル付きデータが限定された場合において,単一スケールのグラフ畳み込みネットワーク(GCN)よりも一貫して優れていた。
MOB-GCNの実装はhttps://github.com/HySonLab/MultiscaleHSIで公開されている。
関連論文リスト
- Mamba-Based Graph Convolutional Networks: Tackling Over-smoothing with Selective State Space [33.677431350509224]
本稿では,Mambaパラダイムからインスピレーションを得た新しいグラフ畳み込みアーキテクチャであるMbaGCNを紹介する。
MbaGCNは、Message Aggregation Layer、Selective State Space Transition Layer、Node State Prediction Layerという3つの重要なコンポーネントで構成されるGNNの新しいバックボーンを提供する。
論文 参考訳(メタデータ) (2025-01-26T09:09:44Z) - Hi-GMAE: Hierarchical Graph Masked Autoencoders [90.30572554544385]
階層型グラフマスク付きオートエンコーダ(Hi-GMAE)
Hi-GMAEは、グラフ内の階層構造を扱うために設計された、新しいマルチスケールGMAEフレームワークである。
15のグラフデータセットに対する実験は、Hi-GMAEが17の最先端の自己管理競合より優れていることを一貫して示している。
論文 参考訳(メタデータ) (2024-05-17T09:08:37Z) - Integrating multiscale topology in digital pathology with pyramidal graph convolutional networks [0.10995326465245926]
グラフ畳み込みネットワーク(GCN)は、デジタル病理学における畳み込みニューラルネットワークを用いた複数インスタンス学習の強力な代替手段として登場した。
提案するマルチスケールGCN (MS-GCN) は,スライド画像全体において複数の倍率レベルにまたがる情報を活用することでこの問題に対処する。
MS-GCNは、既存の単一磁化GCN法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-22T09:48:50Z) - DGCLUSTER: A Neural Framework for Attributed Graph Clustering via
Modularity Maximization [5.329981192545312]
本稿では,グラフニューラルネットワークを用いてモジュラリティの目的を最適化し,グラフサイズと線形にスケールする新しい手法DGClusterを提案する。
私たちはDGClusterを、さまざまなサイズの実世界のデータセットで、複数の一般的なクラスタ品質メトリクスで広範囲にテストしています。
われわれの手法は最先端の手法よりも一貫して優れており、ほぼすべての設定で顕著な性能向上を示している。
論文 参考訳(メタデータ) (2023-12-20T01:43:55Z) - Dual Information Enhanced Multi-view Attributed Graph Clustering [11.624319530337038]
本稿では,Dual Information enhanced Multi-view Attributed Graph Clustering (DIAGC)法を提案する。
提案手法では,複数の視点からのコンセンサスと特定情報の探索を阻害する特定情報再構成(SIR)モジュールを提案する。
相互情報最大化(MIM)モジュールは、潜在高レベル表現と低レベル表現との合意を最大化し、高レベル表現が所望のクラスタリング構造を満たすことを可能にする。
論文 参考訳(メタデータ) (2022-11-28T01:18:04Z) - Deep Image Clustering with Contrastive Learning and Multi-scale Graph
Convolutional Networks [58.868899595936476]
コントラスト学習とマルチスケールグラフ畳み込みネットワーク(IcicleGCN)を用いた画像クラスタリング手法を提案する。
複数の画像データセットの実験は、最先端のIcicleGCNよりも優れたクラスタリング性能を示している。
論文 参考訳(メタデータ) (2022-07-14T19:16:56Z) - Hyperspectral Image Segmentation based on Graph Processing over
Multilayer Networks [51.15952040322895]
ハイパースペクトル画像(HSI)処理の1つの重要な課題は、スペクトル空間的特徴の抽出である。
M-GSP特徴抽出に基づくHSIセグメンテーションへのいくつかのアプローチを提案する。
HSI処理とスペクトル空間情報抽出におけるM-GSPの強度を実験的に検証した。
論文 参考訳(メタデータ) (2021-11-29T23:28:18Z) - Attention-Driven Dynamic Graph Convolutional Network for Multi-Label
Image Recognition [53.17837649440601]
本稿では,各画像の特定のグラフを動的に生成するアテンション駆動型動的グラフ畳み込みネットワーク(ADD-GCN)を提案する。
パブリックなマルチラベルベンチマーク実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-12-05T10:10:12Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Multi-Level Graph Convolutional Network with Automatic Graph Learning
for Hyperspectral Image Classification [63.56018768401328]
HSI分類のための自動グラフ学習法(MGCN-AGL)を用いたマルチレベルグラフ畳み込みネットワーク(GCN)を提案する。
空間的に隣接する領域における重要度を特徴付けるために注意機構を利用することで、最も関連性の高い情報を適応的に組み込んで意思決定を行うことができる。
MGCN-AGLは局所的に生成した表現表現に基づいて画像領域間の長距離依存性を符号化する。
論文 参考訳(メタデータ) (2020-09-19T09:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。