論文の概要: Fast and Structured Block-Term Tensor Decomposition For Hyperspectral
Unmixing
- arxiv url: http://arxiv.org/abs/2205.03798v1
- Date: Sun, 8 May 2022 06:58:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 17:09:10.420306
- Title: Fast and Structured Block-Term Tensor Decomposition For Hyperspectral
Unmixing
- Title(参考訳): ハイパースペクトルアンミキシングのための高速かつ構造的ブロック項テンソル分解
- Authors: Meng Ding, Xiao Fu, Xi-Le Zhao
- Abstract要約: 多階数$(L_r,L_magnituder,1)$のブロック項テンソル分解モデルは、ハイパースペクトルアンミックスの有効な代替手段を提供する。
既存のLL1ベースのHUアルゴリズムはテンソルの3要素パラメータ化を用いる。
HUに対して2ブロック交互勾配投影(GP)に基づくLL1アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 18.87968896845686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The block-term tensor decomposition model with multilinear rank-$(L_r,L_r,1)$
terms (or, the "LL1 tensor decomposition" in short) offers a valuable
alternative for hyperspectral unmixing (HU) under the linear mixture model.
Particularly, the LL1 decomposition ensures the endmember/abundance
identifiability in scenarios where such guarantees are not supported by the
classic matrix factorization (MF) approaches. However, existing LL1-based HU
algorithms use a three-factor parameterization of the tensor (i.e., the
hyperspectral image cube), which leads to a number of challenges including high
per-iteration complexity, slow convergence, and difficulties in incorporating
structural prior information. This work puts forth an LL1 tensor
decomposition-based HU algorithm that uses a constrained two-factor
re-parameterization of the tensor data. As a consequence, a two-block
alternating gradient projection (GP)-based LL1 algorithm is proposed for HU.
With carefully designed projection solvers, the GP algorithm enjoys a
relatively low per-iteration complexity. Like in MF-based HU, the factors under
our parameterization correspond to the endmembers and abundances. Thus, the
proposed framework is natural to incorporate physics-motivated priors that
arise in HU. The proposed algorithm often attains orders-of-magnitude speedup
and substantial HU performance gains compared to the existing three-factor
parameterization-based HU algorithms.
- Abstract(参考訳): 多線形階数-$(L_r,L_r,1)$項(または略して「LL1テンソル分解」)を持つブロック項テンソル分解モデルは、線形混合モデルの下での超スペクトルアンミックス(HU)に対する貴重な代替手段を提供する。
特に、LL1分解は、古典行列分解(MF)アプローチでそのような保証がサポートされないシナリオにおいて、エンドメンバー/アバンダンス識別性を保証する。
しかし、既存のLL1ベースのHUアルゴリズムはテンソルの3要素パラメータ化(すなわちハイパースペクトル画像立方体)を使用しており、高い点当たりの複雑性、収束の遅さ、構造的事前情報の導入の難しさなど多くの課題をもたらす。
この研究は、テンソルデータの制約付き2要素再パラメータ化を用いたLL1テンソル分解に基づくHUアルゴリズムを提案する。
その結果、HUに対して2ブロック交互勾配投影(GP)に基づくLL1アルゴリズムが提案される。
慎重に設計された射影解法により、GPアルゴリズムは比較的低い解像単位の複雑さを享受する。
MFベースのHUと同様に、パラメータ化の下の因子は、エンドメンバーとアブリダンスに対応する。
したがって、提案するフレームワークは、HUで生じる物理学的動機を持つ先行を組み込むのが自然である。
提案アルゴリズムは,既存の3要素パラメタライゼーションに基づくHUアルゴリズムと比較して,オーダー・オブ・マグニチュード・スピードアップと実質的なHU性能向上を実現する。
関連論文リスト
- A Sample Efficient Alternating Minimization-based Algorithm For Robust Phase Retrieval [56.67706781191521]
そこで本研究では,未知の信号の復元を課題とする,ロバストな位相探索問題を提案する。
提案するオラクルは、単純な勾配ステップと外れ値を用いて、計算学的スペクトル降下を回避している。
論文 参考訳(メタデータ) (2024-09-07T06:37:23Z) - ADMM-MM Algorithm for General Tensor Decomposition [7.0326155922512275]
提案アルゴリズムは3つの基本損失関数(ell$-loss, $ell$-loss, KL divergence)と様々な低ランクテンソル分解モデル(CP, Tucker, TT, TR)をサポートする。
提案したアルゴリズムにより広帯域のアプリケーションを解くことができ、プラグイン・アンド・プレイ方式で既存のテンソル分解モデルに容易に拡張できることを示す。
論文 参考訳(メタデータ) (2023-12-19T00:17:34Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Fast Learnings of Coupled Nonnegative Tensor Decomposition Using Optimal Gradient and Low-rank Approximation [7.265645216663691]
交互勾配法(CoNCPD-APG)により最適化された新しい非負のCANDECOMP/PARAFAC分解アルゴリズムを提案する。
提案手法は,低ランク近似をCONCPD-APG法と組み合わせることで,分解品質を損なうことなく計算負担を大幅に削減することができる。
論文 参考訳(メタデータ) (2023-02-10T08:49:36Z) - Dictionary-based Low-Rank Approximations and the Mixed Sparse Coding
problem [7.132368785057316]
本稿では、LASSOに基づく効率的なMSC解法を用いて、辞書に基づく行列分解と正準多進分解を計算する方法を示す。
超スペクトル画像処理と化学計測の文脈における辞書に基づく行列分解と正準多進分解の計算に、LASSOに基づく効率的なMSC解法を適用する方法を示す。
論文 参考訳(メタデータ) (2021-11-24T10:32:48Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z) - Accelerated Message Passing for Entropy-Regularized MAP Inference [89.15658822319928]
離散値のランダムフィールドにおけるMAP推論の最大化は、機械学習の基本的な問題である。
この問題の難しさから、特殊メッセージパッシングアルゴリズムの導出には線形プログラミング(LP)緩和が一般的である。
古典的加速勾配の根底にある手法を活用することにより,これらのアルゴリズムを高速化するランダム化手法を提案する。
論文 参考訳(メタデータ) (2020-07-01T18:43:32Z) - Dualize, Split, Randomize: Toward Fast Nonsmooth Optimization Algorithms [21.904012114713428]
第一のFが滑らかで第二のFが非滑らかで近似可能な3つの凸函数の和を考える。
このテンプレート問題には、画像処理や機械学習など、多くの応用がある。
この問題に対して PDDY と呼ぶ新しい原始双対アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-04-03T10:48:01Z) - Optimal Randomized First-Order Methods for Least-Squares Problems [56.05635751529922]
このアルゴリズムのクラスは、最小二乗問題に対する最も高速な解法のうち、いくつかのランダム化手法を含んでいる。
我々は2つの古典的埋め込み、すなわちガウス射影とアダマール変換のサブサンプリングに焦点を当てる。
得られたアルゴリズムは条件数に依存しない最小二乗問題の解法として最も複雑である。
論文 参考訳(メタデータ) (2020-02-21T17:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。