論文の概要: Learning Interpretable Deep Disentangled Neural Networks for
Hyperspectral Unmixing
- arxiv url: http://arxiv.org/abs/2310.02340v1
- Date: Tue, 3 Oct 2023 18:21:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 18:13:51.240752
- Title: Learning Interpretable Deep Disentangled Neural Networks for
Hyperspectral Unmixing
- Title(参考訳): ハイパースペクトルアンミックスのための解釈可能な遠絡ニューラルネットワークの学習
- Authors: Ricardo Augusto Borsoi, Deniz Erdo\u{g}mu\c{s}, Tales Imbiriba
- Abstract要約: 非線形性および終端変動を考慮した高スペクトルアンミックスのための新しい解釈可能な深層学習法を提案する。
モデルは、バックプロパゲーションを使用してエンドツーエンドに学習され、セルフ教師付き戦略を使用してトレーニングされる。
合成および実データを用いた実験結果から,提案手法の性能が示唆された。
- 参考スコア(独自算出の注目度): 16.02193274044797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although considerable effort has been dedicated to improving the solution to
the hyperspectral unmixing problem, non-idealities such as complex radiation
scattering and endmember variability negatively impact the performance of most
existing algorithms and can be very challenging to address. Recently, deep
learning-based frameworks have been explored for hyperspectral umixing due to
their flexibility and powerful representation capabilities. However, such
techniques either do not address the non-idealities of the unmixing problem, or
rely on black-box models which are not interpretable. In this paper, we propose
a new interpretable deep learning method for hyperspectral unmixing that
accounts for nonlinearity and endmember variability. The proposed method
leverages a probabilistic variational deep-learning framework, where
disentanglement learning is employed to properly separate the abundances and
endmembers. The model is learned end-to-end using stochastic backpropagation,
and trained using a self-supervised strategy which leverages benefits from
semi-supervised learning techniques. Furthermore, the model is carefully
designed to provide a high degree of interpretability. This includes modeling
the abundances as a Dirichlet distribution, the endmembers using
low-dimensional deep latent variable representations, and using two-stream
neural networks composed of additive piecewise-linear/nonlinear components.
Experimental results on synthetic and real datasets illustrate the performance
of the proposed method compared to state-of-the-art algorithms.
- Abstract(参考訳): ハイパースペクトルアンミックス問題に対する解法の改善に多大な努力が注がれているが、複雑な放射散乱や終端変動のような非イデアル性は既存のアルゴリズムの性能に悪影響を及ぼし、対処が非常に困難である。
近年,その柔軟性と強力な表現能力から,ハイパースペクトルの表記のためにディープラーニングベースのフレームワークが検討されている。
しかし、そのような手法は混合問題の不理想性に対処しないか、解釈できないブラックボックスモデルに依存する。
本稿では,非線形性および終端変動を考慮したハイパースペクトルアンミックスのための新しい解釈可能な深層学習法を提案する。
提案手法は確率的変分深層学習の枠組みを応用し, アンタングルメント学習を用いてアマンダンスとエンドメンバーを適切に分離する。
このモデルは確率的バックプロパゲーションを用いてエンドツーエンドに学習され、半教師付き学習技術の利点を利用する自己教師型戦略を用いて訓練される。
さらに、モデルは高い解釈可能性を提供するよう慎重に設計されている。
これには、ディリクレ分布、低次元の深層潜伏変数表現を用いたエンドメンバー、加法的ピースワイド線形/非線形成分からなる2ストリームニューラルネットワークなどが含まれる。
合成および実データを用いた実験結果は,最先端アルゴリズムと比較して提案手法の性能を示す。
関連論文リスト
- Deep Nonlinear Hyperspectral Unmixing Using Multi-task Learning [0.0]
本稿では,ディープラーニングに基づく非教師なし非線形アンミックス手法を提案する。
2つのブランチを連携させる補助的なタスクを導入します。
この手法はオーバーフィッティングを緩和する正規化器と見なすことができ、ネットワーク全体の性能が向上する。
論文 参考訳(メタデータ) (2024-02-05T02:52:25Z) - Batch Active Learning from the Perspective of Sparse Approximation [12.51958241746014]
アクティブな学習は、機械学習エージェントと人間のアノテーションとのインタラクションを活用することで、効率的なモデルトレーニングを可能にする。
スパース近似の観点からバッチアクティブラーニングを定式化する新しいフレームワークを提案し,提案する。
我々のアクティブラーニング手法は、ラベルのないデータプールから、対応するトレーニング損失関数が、そのフルデータプールに近似するように、情報的サブセットを見つけることを目的としている。
論文 参考訳(メタデータ) (2022-11-01T03:20:28Z) - Bayesian Spline Learning for Equation Discovery of Nonlinear Dynamics
with Quantified Uncertainty [8.815974147041048]
本研究では,非線形(時空間)力学の擬似的支配方程式を,定量化された不確実性を伴うスパースノイズデータから同定する枠組みを開発した。
提案アルゴリズムは、正準常微分方程式と偏微分方程式によって制御される複数の非線形力学系に対して評価される。
論文 参考訳(メタデータ) (2022-10-14T20:37:36Z) - Deep Equilibrium Assisted Block Sparse Coding of Inter-dependent
Signals: Application to Hyperspectral Imaging [71.57324258813675]
相互依存信号のデータセットは、列が強い依存を示す行列として定義される。
ニューラルネットワークは、事前に構造として機能し、基礎となる信号相互依存性を明らかにするために使用される。
ディープ・アンローリングとディープ・平衡に基づくアルゴリズムが開発され、高度に解釈可能で簡潔なディープ・ラーニング・ベース・アーキテクチャを形成する。
論文 参考訳(メタデータ) (2022-03-29T21:00:39Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Influence Estimation and Maximization via Neural Mean-Field Dynamics [60.91291234832546]
本稿では,ニューラル平均場(NMF)ダイナミクスを用いた新しい学習フレームワークを提案する。
我々のフレームワークは拡散ネットワークの構造とノード感染確率の進化を同時に学習することができる。
論文 参考訳(メタデータ) (2021-06-03T00:02:05Z) - Ada-SISE: Adaptive Semantic Input Sampling for Efficient Explanation of
Convolutional Neural Networks [26.434705114982584]
畳み込みニューラルネットワークの効率的な解釈手法を提案する。
実験の結果,提案手法は実行時間を最大30%削減できることがわかった。
論文 参考訳(メタデータ) (2021-02-15T19:10:00Z) - Deep Unfolding Network for Image Super-Resolution [159.50726840791697]
本稿では,学習に基づく手法とモデルに基づく手法の両方を活用する,エンドツーエンドのトレーニング可能なアンフォールディングネットワークを提案する。
提案するネットワークは, モデルベース手法の柔軟性を継承し, 一つのモデルを用いて, 異なるスケール要因に対する, 曖昧でノイズの多い画像の超解像化を行う。
論文 参考訳(メタデータ) (2020-03-23T17:55:42Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。