論文の概要: Deep Nonlinear Hyperspectral Unmixing Using Multi-task Learning
- arxiv url: http://arxiv.org/abs/2402.03398v1
- Date: Mon, 5 Feb 2024 02:52:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 18:38:00.882491
- Title: Deep Nonlinear Hyperspectral Unmixing Using Multi-task Learning
- Title(参考訳): マルチタスク学習を用いた深部非線形ハイパースペクトルアンミックス
- Authors: Saeid Mehrdad, Seyed AmirHossein Janani
- Abstract要約: 本稿では,ディープラーニングに基づく非教師なし非線形アンミックス手法を提案する。
2つのブランチを連携させる補助的なタスクを導入します。
この手法はオーバーフィッティングを緩和する正規化器と見なすことができ、ネットワーク全体の性能が向上する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nonlinear hyperspectral unmixing has recently received considerable
attention, as linear mixture models do not lead to an acceptable resolution in
some problems. In fact, most nonlinear unmixing methods are designed by
assuming specific assumptions on the nonlinearity model which subsequently
limits the unmixing performance. In this paper, we propose an unsupervised
nonlinear unmixing approach based on deep learning by incorporating a general
nonlinear model with no special assumptions. This model consists of two
branches. In the first branch, endmembers are learned by reconstructing the
rows of hyperspectral images using some hidden layers, and in the second
branch, abundance values are learned based on the columns of respective images.
Then, using multi-task learning, we introduce an auxiliary task to enforce the
two branches to work together. This technique can be considered as a
regularizer mitigating overfitting, which improves the performance of the total
network. Extensive experiments on synthetic and real data verify the
effectiveness of the proposed method compared to some state-of-the-art
hyperspectral unmixing methods.
- Abstract(参考訳): 非線形ハイパースペクトルアンミキシングは、線形混合モデルがいくつかの問題において許容可能な解決に導かないため、最近かなりの注目を集めている。
実際、ほとんどの非線形アンミックス法は、非混合性能を制限する非線形性モデルに関する特定の仮定を仮定して設計されている。
本稿では,特別な仮定を持たない一般非線形モデルを用いて,ディープラーニングに基づく教師なし非混合手法を提案する。
このモデルは2つの枝からなる。
第1のブランチでは、いくつかの隠れたレイヤを用いてハイパースペクトル画像の行を再構成してエンドメンバーを学習し、第2のブランチでは、各イメージの列に基づいて存在量値を学ぶ。
次に、マルチタスク学習を用いて、2つのブランチを連携させる補助タスクを導入する。
この手法は、オーバーフィッティングを緩和する正規化器と見なすことができ、ネットワーク全体の性能が向上する。
合成データおよび実データに関する広範な実験により,提案手法の有効性が検証された。
関連論文リスト
- Nonlinear denoising score matching for enhanced learning of structured distributions [12.428200977408817]
非線形ドリフトに一般化することで、追加構造を力学に組み込むことができる。
本手法の有効性をいくつかの例で示す。
論文 参考訳(メタデータ) (2024-05-24T15:14:23Z) - Fast Semi-supervised Unmixing using Non-convex Optimization [85.95119207126292]
半/ライブラリベースのアンミックスのための新しい凸凸モデルを提案する。
スパース・アンミキシングの代替手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-01-23T10:07:41Z) - Learning Interpretable Deep Disentangled Neural Networks for
Hyperspectral Unmixing [16.02193274044797]
非線形性および終端変動を考慮した高スペクトルアンミックスのための新しい解釈可能な深層学習法を提案する。
モデルは、バックプロパゲーションを使用してエンドツーエンドに学習され、セルフ教師付き戦略を使用してトレーニングされる。
合成および実データを用いた実験結果から,提案手法の性能が示唆された。
論文 参考訳(メタデータ) (2023-10-03T18:21:37Z) - Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - Nonlinear Hyperspectral Unmixing based on Multilinear Mixing Model using
Convolutional Autoencoders [6.867229549627128]
リフレクションに基づく教師なしアンミキシングのための新しいオートエンコーダネットワークを提案する。
合成データと実データの両方を用いた実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-03-14T18:11:52Z) - MixupE: Understanding and Improving Mixup from Directional Derivative
Perspective [86.06981860668424]
理論上は、バニラ・ミックスアップよりも優れた一般化性能を実現するために、Mixupの改良版を提案する。
提案手法は,様々なアーキテクチャを用いて,複数のデータセットにまたがるMixupを改善した。
論文 参考訳(メタデータ) (2022-12-27T07:03:52Z) - Mixture-Net: Low-Rank Deep Image Prior Inspired by Mixture Models for
Spectral Image Recovery [22.0246327137227]
本稿では,スペクトル画像復元問題に対する非データ駆動型ディープニューラルネットワークを提案する。
提案手法はMixture-Netと呼ばれ,ネットワークを通じて事前情報を暗黙的に学習する。
実験により、MixtureNetは、アーキテクチャの解釈可能性を利用して、回復品質における最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-11-05T21:32:25Z) - Hessian Eigenspectra of More Realistic Nonlinear Models [73.31363313577941]
私たちは、非線形モデルの広いファミリーのためのヘッセン固有スペクトルの言語的特徴付けを行います。
我々の分析は、より複雑な機械学習モデルで観察される多くの顕著な特徴の起源を特定するために一歩前進する。
論文 参考訳(メタデータ) (2021-03-02T06:59:52Z) - Nonlinear Independent Component Analysis for Continuous-Time Signals [85.59763606620938]
このプロセスの混合物の観察から多次元音源過程を復元する古典的問題を考察する。
このリカバリは、この混合物が十分に微分可能で可逆な関数によって与えられる場合、多くの一般的なプロセスのモデル(座標の順序と単調スケーリングまで)に対して可能であることを示す。
論文 参考訳(メタデータ) (2021-02-04T20:28:44Z) - On the Treatment of Optimization Problems with L1 Penalty Terms via
Multiobjective Continuation [0.0]
本稿では,線形・非線形最適化におけるスパース性の影響を詳細に把握するアルゴリズムを提案する。
本手法は非線形の場合に対する線形回帰問題に対するよく知られたホモトピー法の一般化と見なすことができる。
論文 参考訳(メタデータ) (2020-12-14T13:00:50Z) - Learning Mixtures of Low-Rank Models [89.39877968115833]
低ランクモデルの計算混合を学習する問題について検討する。
ほぼ最適サンプルを用いて未知の行列を復元することが保証されるアルゴリズムを開発する。
さらに,提案アルゴリズムはランダムノイズに対して確実に安定である。
論文 参考訳(メタデータ) (2020-09-23T17:53:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。