論文の概要: Deep Deterministic Independent Component Analysis for Hyperspectral
Unmixing
- arxiv url: http://arxiv.org/abs/2202.02951v1
- Date: Mon, 7 Feb 2022 05:26:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 17:25:49.696745
- Title: Deep Deterministic Independent Component Analysis for Hyperspectral
Unmixing
- Title(参考訳): ハイパースペクトルアンミックスのための深部決定論的独立成分分析
- Authors: Hongming Li, Shujian Yu, Jose C. Principe
- Abstract要約: 抽出された全ての成分間の依存性を直接最小化することにより,ニューラルネットワークに基づく独立成分分析(ICA)手法を開発した。
ハイパースペクトルアンミキシング(HU)問題におけるICAを評価し、"emphICAはハイパースペクトルデータをアンミキシングする役割を果たさない"という声明を反論する。
- 参考スコア(独自算出の注目度): 12.82521953179345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a new neural network based independent component analysis (ICA)
method by directly minimizing the dependence amongst all extracted components.
Using the matrix-based R{\'e}nyi's $\alpha$-order entropy functional, our
network can be directly optimized by stochastic gradient descent (SGD), without
any variational approximation or adversarial training. As a solid application,
we evaluate our ICA in the problem of hyperspectral unmixing (HU) and refute a
statement that "\emph{ICA does not play a role in unmixing hyperspectral
data}", which was initially suggested by~\cite{nascimento2005does}. Code and
additional remarks of our DDICA is available at
https://github.com/hongmingli1995/DDICA.
- Abstract(参考訳): 抽出した成分間の依存性を直接最小化することにより,ニューラルネットワークに基づく独立成分分析(ICA)手法を開発した。
行列ベースの r{\'e}nyi の $\alpha$-order entropy functional を使って、ネットワークは変分近似や逆のトレーニングなしに確率勾配降下 (sgd) によって直接最適化することができる。
強固な応用として,超スペクトルアンミックス問題(hu)におけるicaを評価し,-\cite{nascimento2005does} によって最初に示唆された "\emph{ica は超スペクトルデータのアンミックスにおいて役割を果たさない" という主張を反論する。
DDICAのコードと追加のコメントはhttps://github.com/hongmingli1995/DDICA.orgで公開されている。
関連論文リスト
- Preconditioned Gradient Descent Finds Over-Parameterized Neural Networks with Sharp Generalization for Nonparametric Regression [8.130817534654089]
本稿では、勾配降下(GD)またはその変種により訓練された2層ニューラルネットワークによる非パラメトリック回帰を考察する。
ニューラルネットワークが早期停止を伴う新しいプレコンディション付きグラディエント・ディフレクション(PGD)でトレーニングされ、ターゲット関数がディープラーニング文献において広く研究されているスペクトルバイアスを持つ場合、トレーニングされたネットワークは、特に、極小値の最大速度が$cO(1/n4alpha/(4alpha+1)$で制限されたシャープな一般化をレンダリングする。
論文 参考訳(メタデータ) (2024-07-16T03:38:34Z) - Multi-Irreducible Spectral Synchronization for Robust Rotation Averaging [1.2289361708127877]
雑音の測定値として、SO$における未知の向きの集合を$R_1, ..., R_Nで推定する方法を示す。
その結果, 正確な推定を実現するために, エフェクトが保証される計測ネットワークを考案する方法が示唆された。
論文 参考訳(メタデータ) (2023-11-28T06:25:26Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Entropic Wasserstein Component Analysis [8.744017403796406]
次元減少(DR)の鍵となる要件は、元のサンプルと組込みサンプルの間にグローバルな依存関係を組み込むことである。
最適輸送(OT)と主成分分析(PCA)の原理を組み合わせる。
提案手法は, サンプルの近傍情報を自然に符号化するエントロピーOTを用いて, 復元誤差を最小化する最適線形部分空間を求める。
論文 参考訳(メタデータ) (2023-03-09T08:59:33Z) - Entropic Descent Archetypal Analysis for Blind Hyperspectral Unmixing [45.82374977939355]
我々は、ブラインド・ハイパースペクトル・アンミックスのためのアーチティパル解析に基づく新しいアルゴリズムを提案する。
6つの標準実データセットを用いて、我々の手法は最先端の行列分解や最近のディープラーニング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-09-22T13:34:21Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Shared Independent Component Analysis for Multi-Subject Neuroimaging [107.29179765643042]
本稿では,ShICA (Shared Independent Component Analysis) を導入し,各ビューを加法ガウス雑音によって汚染された共有独立成分の線形変換としてモデル化する。
このモデルは、成分がガウス的でないか、あるいはノイズ分散に十分な多様性がある場合、同定可能であることを示す。
我々は,fMRIおよびMEGデータセットの実証的証拠として,ShICAが代替品よりも正確な成分推定を行うことを示す。
論文 参考訳(メタデータ) (2021-10-26T08:54:41Z) - Deep Deterministic Information Bottleneck with Matrix-based Entropy
Functional [9.637714330461037]
本手法は,変分推論や分布推定を避けるため,本手法をDIB(Deep Deterministic Information Bottleneck)と呼ぶ。
DIBでトレーニングされたディープニューラルネットワークは、変動目標と他の形式の正規化でトレーニングされたニューラルネットワークよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-01-31T20:54:49Z) - Stochastic Approximation for Online Tensorial Independent Component
Analysis [98.34292831923335]
独立成分分析(ICA)は統計機械学習や信号処理において一般的な次元削減ツールである。
本稿では,各独立成分を推定する副産物オンライン時系列アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-28T18:52:37Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z) - WICA: nonlinear weighted ICA [72.02008296553318]
独立成分分析(ICA)は、データのコンポーネントが独立している座標系を見つけることを目的としている。
我々は、WICAと呼ばれる新しい非線形ICAモデルを構築し、他のアルゴリズムよりも優れた、より安定した結果を得る。
論文 参考訳(メタデータ) (2020-01-13T10:38:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。