論文の概要: Spectral Unmixing With Multinomial Mixture Kernel and Wasserstein
Generative Adversarial Loss
- arxiv url: http://arxiv.org/abs/2012.06859v1
- Date: Sat, 12 Dec 2020 16:49:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 06:37:29.643084
- Title: Spectral Unmixing With Multinomial Mixture Kernel and Wasserstein
Generative Adversarial Loss
- Title(参考訳): 多項混合核とワッサースタイン生成逆損失を用いたスペクトルアンミックス
- Authors: Savas Ozkan, Gozde Bozdagi Akar
- Abstract要約: 本研究では1次元畳み込みカーネルとスペクトル不確実性を用いたスペクトルアンミックスのための新しいフレームワークを提案する。
高レベルの表現はデータから計算され、さらに多項混合モデルでモデル化される。
実データと合成データの両方で実験を行う。
- 参考スコア(独自算出の注目度): 4.56877715768796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study proposes a novel framework for spectral unmixing by using 1D
convolution kernels and spectral uncertainty. High-level representations are
computed from data, and they are further modeled with the Multinomial Mixture
Model to estimate fractions under severe spectral uncertainty. Furthermore, a
new trainable uncertainty term based on a nonlinear neural network model is
introduced in the reconstruction step. All uncertainty models are optimized by
Wasserstein Generative Adversarial Network (WGAN) to improve stability and
capture uncertainty. Experiments are performed on both real and synthetic
datasets. The results validate that the proposed method obtains
state-of-the-art performance, especially for the real datasets compared to the
baselines. Project page at: https://github.com/savasozkan/dscn.
- Abstract(参考訳): 本研究では1次元畳み込みカーネルとスペクトル不確実性を用いたスペクトルアンミックスのための新しいフレームワークを提案する。
高レベル表現はデータから計算され、重度のスペクトル不確かさの下で分数を推定するために多項混合モデルでさらにモデル化される。
さらに、再構成工程において非線形ニューラルネットワークモデルに基づく新しいトレーニング可能な不確実性項を導入する。
すべての不確実性モデルはwasserstein generative adversarial network (wgan) によって最適化され、安定性が向上し不確実性が捕捉される。
実データと合成データの両方で実験を行う。
その結果,本手法は,特に実際のデータセットに対して,ベースラインと比較して最先端の性能が得られることを確認した。
プロジェクトページ: https://github.com/savasozkan/dscn。
関連論文リスト
- Diffusion posterior sampling for simulation-based inference in tall data settings [53.17563688225137]
シミュレーションベース推論(SBI)は、入力パラメータを所定の観測に関連付ける後部分布を近似することができる。
本研究では、モデルのパラメータをより正確に推測するために、複数の観測値が利用できる、背の高いデータ拡張について考察する。
提案手法を,最近提案した各種数値実験の競合手法と比較し,数値安定性と計算コストの観点から,その優位性を実証した。
論文 参考訳(メタデータ) (2024-04-11T09:23:36Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - DiffHybrid-UQ: Uncertainty Quantification for Differentiable Hybrid
Neural Modeling [4.76185521514135]
本稿では,ハイブリッドニューラル微分可能モデルにおける有効かつ効率的な不確実性伝播と推定のための新しい手法DiffHybrid-UQを提案する。
具体的には,データノイズとてんかんの不確かさから生じるアレタリック不確かさと,モデル形状の相違やデータ空間のばらつきから生じるエピステマティック不確かさの両方を効果的に識別し,定量化する。
論文 参考訳(メタデータ) (2023-12-30T07:40:47Z) - FiMReSt: Finite Mixture of Multivariate Regulated Skew-t Kernels -- A
Flexible Probabilistic Model for Multi-Clustered Data with
Asymmetrically-Scattered Non-Gaussian Kernels [0.0]
本研究では,混合モデルを学習し,スキューをモデル化するための一般化可能性とパワーを高めるために,正規化された反復最適化プロセスを提案する。
得られた混合モデルは、マルチレギュレーションスキュート(FiMStss)の有限混合と呼ばれる。
この性能を検証するため,複数の実世界のデータセットと合成データセットに関する総合的な実験を行った。
論文 参考訳(メタデータ) (2023-05-15T23:53:59Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - A Robust and Flexible EM Algorithm for Mixtures of Elliptical
Distributions with Missing Data [71.9573352891936]
本稿では、ノイズや非ガウス的なデータに対するデータ計算の欠如に対処する。
楕円分布と潜在的な欠落データを扱う特性を混合した新しいEMアルゴリズムについて検討した。
合成データの実験的結果は,提案アルゴリズムが外れ値に対して頑健であり,非ガウスデータで使用可能であることを示す。
論文 参考訳(メタデータ) (2022-01-28T10:01:37Z) - Information Theoretic Structured Generative Modeling [13.117829542251188]
構造生成モデル (Structured Generative Model, SGM) と呼ばれる新しい生成モデルフレームワークが提案され, 簡単な最適化が可能となった。
この実装では、無限のガウス混合モデルを学習するために適合した単一白色ノイズ源への正則入力によって駆動される1つのニューラルネットワークを採用している。
予備的な結果は、SGMがデータ効率と分散、従来のガウス混合モデルと変分混合モデル、および敵ネットワークのトレーニングにおいてMINE推定を著しく改善することを示している。
論文 参考訳(メタデータ) (2021-10-12T07:44:18Z) - A Nonconvex Framework for Structured Dynamic Covariance Recovery [24.471814126358556]
時間変化のある2次統計量を持つ高次元データに対するフレキシブルで解釈可能なモデルを提案する。
文献によって動機付けられ,因子化とスムーズな時間データの定量化を行う。
私たちのアプローチは,既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-11-11T07:09:44Z) - Identification of Probability weighted ARX models with arbitrary domains [75.91002178647165]
PieceWise Affineモデルは、ハイブリッドシステムの他のクラスに対する普遍近似、局所線型性、同値性を保証する。
本研究では,任意の領域を持つ固有入力モデル(NPWARX)を用いたPieceWise Auto Regressiveの同定に着目する。
このアーキテクチャは、機械学習の分野で開発されたMixture of Expertの概念に従って考案された。
論文 参考訳(メタデータ) (2020-09-29T12:50:33Z) - Learning Mixtures of Low-Rank Models [89.39877968115833]
低ランクモデルの計算混合を学習する問題について検討する。
ほぼ最適サンプルを用いて未知の行列を復元することが保証されるアルゴリズムを開発する。
さらに,提案アルゴリズムはランダムノイズに対して確実に安定である。
論文 参考訳(メタデータ) (2020-09-23T17:53:48Z) - Learning Generative Models using Denoising Density Estimators [29.068491722778827]
縮退密度推定器(DDE)に基づく新しい生成モデルを提案する。
我々の主な貢献は、KL分割を直接最小化することで生成モデルを得る新しい技術である。
実験結果から, 生成モデル学習における密度推定と競争性能が大幅に向上した。
論文 参考訳(メタデータ) (2020-01-08T20:30:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。