論文の概要: GAUSS: Guided Encoder-Decoder Architecture for Hyperspectral Unmixing
with Spatial Smoothness
- arxiv url: http://arxiv.org/abs/2204.07713v1
- Date: Sat, 16 Apr 2022 04:23:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 11:13:43.801257
- Title: GAUSS: Guided Encoder-Decoder Architecture for Hyperspectral Unmixing
with Spatial Smoothness
- Title(参考訳): GAUSS:ハイパースペクトルアンミックスと空間平滑性のためのガイドエンコーダデコーダアーキテクチャ
- Authors: Yasiru Ranasinghe, Kavinga Weerasooriya, Roshan Godaliyadda, Vijitha
Herath, Parakrama Ekanayake, Dhananjaya Jayasundara, Lakshitha Ramanayake,
Neranjan Senarath and Dulantha Wickramasinghe
- Abstract要約: 近年のハイパースペクトルアンミキシング (HU) 文学において, 深層学習 (DL) の応用が注目されている。
分割アーキテクチャを提案し、擬似地下真理を用いてアンミックスネットワーク(UN)最適化を導出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent hyperspectral unmixing (HU) literature, the application of deep
learning (DL) has become more prominent, especially with the autoencoder (AE)
architecture. We propose a split architecture and use a pseudo-ground truth for
abundances to guide the `unmixing network' (UN) optimization. Preceding the UN,
an `approximation network' (AN) is proposed, which will improve the association
between the centre pixel and its neighbourhood. Hence, it will accentuate
spatial correlation in the abundances as its output is the input to the UN and
the reference for the `mixing network' (MN). In the Guided Encoder-Decoder
Architecture for Hyperspectral Unmixing with Spatial Smoothness (GAUSS), we
proposed using one-hot encoded abundances as the pseudo-ground truth to guide
the UN; computed using the k-means algorithm to exclude the use of prior HU
methods. Furthermore, we release the single-layer constraint on MN by
introducing the UN generated abundances in contrast to the standard AE for HU.
Secondly, we experimented with two modifications on the pre-trained network
using the GAUSS method. In GAUSS$_\textit{blind}$, we have concatenated the UN
and the MN to back-propagate the reconstruction error gradients to the encoder.
Then, in the GAUSS$_\textit{prime}$, abundance results of a signal processing
(SP) method with reliable abundance results were used as the pseudo-ground
truth with the GAUSS architecture. According to quantitative and graphical
results for four experimental datasets, the three architectures either
transcended or equated the performance of existing HU algorithms from both DL
and SP domains.
- Abstract(参考訳): 近年のハイパースペクトルアンミキシング (HU) 文学において、特にオートエンコーダ (AE) アーキテクチャでは、ディープラーニング (DL) の適用が顕著になっている。
分割アーキテクチャを提案し、擬似地下真理を用いて「混合ネットワーク」最適化(UN)を導出する。
国連に先立ち、中心画素とその近傍との間の関係を改善する「近似ネットワーク」 (an) が提案されている。
したがって、その出力がunへの入力であり、 'mixing network' (mn) の参照であるので、豊富な空間的相関を強調する。
空間的平滑度(gauss)を伴う超スペクトルアンミキシングのための誘導エンコーダ・デコーダアーキテクチャにおいて、一ホットエンコード量(英語版)を国連を導く擬似基底真理として用いることを提案し、k-meansアルゴリズムを用いて以前のhu法の使用を除外した。
さらに,huの標準aeとは対照的に,un生成量を導入することでmnの単層制約を解除する。
第2に,GAUSS法による事前学習ネットワークの2つの改良実験を行った。
GAUSS$_\textit{blind}$ では、UN と MN を結合して、エンコーダへの再構成エラー勾配をバックプロパレートする。
次に,gauss$_\textit{prime}$において,gaussアーキテクチャを用いた疑似基底真理として信頼性の高い信号処理(sp)法の存在量結果を用いた。
4つの実験データセットの定量的およびグラフィカルな結果によると、3つのアーキテクチャはdlとspドメインの両方の既存のhuアルゴリズムのパフォーマンスを超越または同等にしていた。
関連論文リスト
- Introducing a microstructure-embedded autoencoder approach for reconstructing high-resolution solution field data from a reduced parametric space [0.0]
我々は,パラメトリック空間情報を標準オートエンコーダアーキテクチャに組み込むことで,低忠実度解写像を高忠実度に変換する新しい多忠実深層学習手法を開発した。
パラメトリック空間情報の統合により、低忠実度から高忠実度解を効果的に予測するためのトレーニングデータの必要性が大幅に低減される。
論文 参考訳(メタデータ) (2024-05-03T10:00:36Z) - Information-Theoretic Generalization Bounds for Deep Neural Networks [22.87479366196215]
ディープニューラルネットワーク(DNN)は、実用的な応用において、非常に優れた一般化能力を示す。
本研究の目的は,情報理論の一般化境界による教師あり学習における深度の影響とメリットを捉えることである。
論文 参考訳(メタデータ) (2024-04-04T03:20:35Z) - UGMAE: A Unified Framework for Graph Masked Autoencoders [67.75493040186859]
グラフマスク付きオートエンコーダのための統一フレームワークであるUGMAEを提案する。
まず,ノードの特異性を考慮した適応型特徴マスク生成器を開発した。
次に,階層型構造再構成と特徴再構成を併用し,総合的なグラフ情報を取得する。
論文 参考訳(メタデータ) (2024-02-12T19:39:26Z) - CMG-Net: Robust Normal Estimation for Point Clouds via Chamfer Normal
Distance and Multi-scale Geometry [23.86650228464599]
この研究は、点雲から正規度を推定するための正確で堅牢な方法を示す。
まず,この問題に対処するため,シャンファー正規距離(Chamfer Normal Distance)と呼ばれる新しい尺度を提案する。
マルチスケールな局所的特徴集約と階層的幾何情報融合を含む革新的なアーキテクチャを考案する。
論文 参考訳(メタデータ) (2023-12-14T17:23:16Z) - Sparse-Inductive Generative Adversarial Hashing for Nearest Neighbor
Search [8.020530603813416]
本稿では,Sparsity-induced Generative Adversarial Hashing (SiGAH)と呼ばれる新しい教師なしハッシュ法を提案する。
SiGAHは、大規模な高次元特徴をバイナリコードにエンコードする。
Tiny100K、GIST1M、Deep1M、MNISTの4つのベンチマーク実験の結果、提案されたSiGAHは最先端のアプローチよりも優れた性能を示している。
論文 参考訳(メタデータ) (2023-06-12T08:07:23Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - Momentum Contrastive Autoencoder: Using Contrastive Learning for Latent
Space Distribution Matching in WAE [51.09507030387935]
Wasserstein autoencoder (WAE) は、2つの分布が一致することは、このAEの潜在空間が予め指定された事前分布と一致するという制約の下で、単純なオートエンコーダ(AE)損失を最小限にすることと同値であることを示している。
本稿では,この問題を解決する手段として,自己指導型表現学習に有効であることを示すコントラスト学習フレームワークを提案する。
WAEの損失を最適化するために、対照的な学習フレームワークを使用することで、WAEの一般的なアルゴリズムと比較して、より高速に収束し、より安定した最適化が達成できることを示す。
論文 参考訳(メタデータ) (2021-10-19T22:55:47Z) - Spatial Dependency Networks: Neural Layers for Improved Generative Image
Modeling [79.15521784128102]
画像生成装置(デコーダ)を構築するための新しいニューラルネットワークを導入し、可変オートエンコーダ(VAE)に適用する。
空間依存ネットワーク(sdns)では、ディープニューラルネットの各レベルにおける特徴マップを空間的にコヒーレントな方法で計算する。
空間依存層による階層型vaeのデコーダの強化は密度推定を大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-03-16T07:01:08Z) - Recent Developments Combining Ensemble Smoother and Deep Generative
Networks for Facies History Matching [58.720142291102135]
本研究は、ファシズムモデルのための連続パラメータ化を構築するためのオートエンコーダネットワークの利用に焦点を当てる。
本稿では,VAE,GAN,Wasserstein GAN,変分自動符号化GAN,サイクルGANの主成分分析(PCA),転送スタイルネットワークのPCA,スタイル損失のVAEの7種類の定式化をベンチマークする。
論文 参考訳(メタデータ) (2020-05-08T21:32:42Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - TopologyGAN: Topology Optimization Using Generative Adversarial Networks
Based on Physical Fields Over the Initial Domain [2.0263791972068628]
そこで我々はTopologyGANと呼ばれる新しいデータ駆動トポロジ最適化モデルを提案する。
位相GANは、条件付き生成逆数ネットワーク(cGAN)のジェネレータへの入力として、元の未最適化物質領域で計算された様々な物理場を利用する
ベースラインのcGANと比較すると、TopologyGANは平均二乗誤差を約3ドル、平均絶対誤差を2.5ドル削減する。
論文 参考訳(メタデータ) (2020-03-05T14:40:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。