論文の概要: Hyperspectral Unmixing Network Inspired by Unfolding an Optimization
Problem
- arxiv url: http://arxiv.org/abs/2005.10856v2
- Date: Sat, 30 May 2020 10:14:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 00:04:22.758370
- Title: Hyperspectral Unmixing Network Inspired by Unfolding an Optimization
Problem
- Title(参考訳): 最適化問題の展開に触発されたハイパースペクトルアンミックスネットワーク
- Authors: Chao Zhou
- Abstract要約: ハイパースペクトル画像(HSI)アンミックスタスクは本質的に逆問題であり、最適化アルゴリズムによってよく解決される。
本稿では,U-ADMM-AENetとU-ADMM-BUNetという2つの新しいネットワークアーキテクチャを提案する。
本研究は,機械学習の文献において,展開された構造が対応する解釈を見つけることを示し,提案手法の有効性をさらに示すものである。
- 参考スコア(独自算出の注目度): 2.4016406737205753
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The hyperspectral image (HSI) unmixing task is essentially an inverse
problem, which is commonly solved by optimization algorithms under a predefined
(non-)linear mixture model. Although these optimization algorithms show
impressive performance, they are very computational demanding as they often
rely on an iterative updating scheme. Recently, the rise of neural networks has
inspired lots of learning based algorithms in unmixing literature. However,
most of them lack of interpretability and require a large training dataset. One
natural question then arises: can one leverage the model based algorithm and
learning based algorithm to achieve interpretable and fast algorithm for HSI
unmixing problem? In this paper, we propose two novel network architectures,
named U-ADMM-AENet and U-ADMM-BUNet, for abundance estimation and blind
unmixing respectively, by combining the conventional optimization-model based
unmixing method and the rising learning based unmixing method. We first
consider a linear mixture model with sparsity constraint, then we unfold
Alternating Direction Method of Multipliers (ADMM) algorithm to construct the
unmixing network structures. We also show that the unfolded structures can find
corresponding interpretations in machine learning literature, which further
demonstrates the effectiveness of proposed methods. Benefit from the
interpretation, the proposed networks can be initialized by incorporating prior
information about the HSI data. Different from traditional unfolding networks,
we propose a new training strategy for proposed networks to better fit in the
HSI applications. Extensive experiments show that the proposed methods can
achieve much faster convergence and competitive performance even with very
small size of training data, when compared with state-of-art algorithms.
- Abstract(参考訳): hyperspectral image (hsi) unmixing taskは本質的に逆問題であり、事前定義された(非)線形混合モデルの下で最適化アルゴリズムによってよく解かれる。
これらの最適化アルゴリズムは印象的な性能を示すが、反復更新方式に依存することが多いため、非常に計算量を要する。
近年、ニューラルネットワークの台頭は、多くの学習ベースのアルゴリズムに影響を与えている。
しかし、そのほとんどは解釈性がなく、大規模なトレーニングデータセットを必要とする。
モデルに基づくアルゴリズムと学習に基づくアルゴリズムを利用して、HSIアンミックス問題に対する解釈可能かつ高速なアルゴリズムを実現できるか?
本稿では,従来の最適化モデルに基づく解混和法と上昇学習に基づく解混和法を組み合わせたネットワークアーキテクチャであるu-admm-aenetとu-admm-bunetを提案する。
まず,スパルシリティ制約を持つ線形混合モデルについて検討し,次に乗算器(admm)アルゴリズムの交互方向法を展開し,非混合ネットワーク構造を構築する。
また,未解決の構造は機械学習文献に対応する解釈を見出すことができ,提案手法の有効性がさらに示された。
この解釈から、提案したネットワークは、HSIデータに関する事前情報を組み込むことで初期化することができる。
従来の展開型ネットワークとは違って,提案するネットワークがhsiアプリケーションに適合する新たなトレーニング戦略を提案する。
広範な実験により,最先端アルゴリズムと比較して,トレーニングデータのサイズが極めて小さい場合でも,提案手法はより高速にコンバージェンスと競合性能を達成できることが示された。
関連論文リスト
- Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - AskewSGD : An Annealed interval-constrained Optimisation method to train
Quantized Neural Networks [12.229154524476405]
我々は、深層ニューラルネットワーク(DNN)を量子化重みでトレーニングするための新しいアルゴリズム、Annealed Skewed SGD - AskewSGDを開発した。
アクティブなセットと実行可能な方向を持つアルゴリズムとは異なり、AskewSGDは実行可能な全セットの下でのプロジェクションや最適化を避けている。
実験結果から,AskewSGDアルゴリズムは古典的ベンチマークの手法と同等以上の性能を示した。
論文 参考訳(メタデータ) (2022-11-07T18:13:44Z) - Deep Equilibrium Assisted Block Sparse Coding of Inter-dependent
Signals: Application to Hyperspectral Imaging [71.57324258813675]
相互依存信号のデータセットは、列が強い依存を示す行列として定義される。
ニューラルネットワークは、事前に構造として機能し、基礎となる信号相互依存性を明らかにするために使用される。
ディープ・アンローリングとディープ・平衡に基づくアルゴリズムが開発され、高度に解釈可能で簡潔なディープ・ラーニング・ベース・アーキテクチャを形成する。
論文 参考訳(メタデータ) (2022-03-29T21:00:39Z) - Distributed Optimization, Averaging via ADMM, and Network Topology [0.0]
センサローカライゼーションの現実問題において,ネットワークトポロジと異なるアルゴリズムの収束率の関係について検討する。
また、ADMMと持ち上げマルコフ連鎖の間の興味深い関係を示すとともに、その収束を明示的に特徴づける。
論文 参考訳(メタデータ) (2020-09-05T21:44:39Z) - Deep unfolding of the weighted MMSE beamforming algorithm [9.518010235273783]
MISOダウンリンクチャネルに対するWMMSEアルゴリズムに対する深部展開の新たな適用法を提案する。
深層展開は、自然に専門家の知識を取り入れており、即時かつしっかりとしたアーキテクチャ選択の利点、トレーニング可能なパラメータの少ないこと、説明可能性の向上がある。
シミュレーションにより、ほとんどの設定において、展開されたWMMSEは、一定回数の反復に対して、WMMSEよりも優れているか、等しく動作することを示す。
論文 参考訳(メタデータ) (2020-06-15T14:51:20Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。