論文の概要: Sparse encoding for more-interpretable feature-selecting representations
in probabilistic matrix factorization
- arxiv url: http://arxiv.org/abs/2012.04171v3
- Date: Tue, 29 Dec 2020 19:08:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 12:06:14.113957
- Title: Sparse encoding for more-interpretable feature-selecting representations
in probabilistic matrix factorization
- Title(参考訳): 確率行列分解におけるより解釈可能な特徴選択表現のためのスパース符号化
- Authors: Joshua C. Chang, Patrick Fletcher, Jungmin Han, Ted L. Chang,
Shashaank Vattikuti, Bart Desmet, Ayah Zirikly, Carson C. Chow
- Abstract要約: 階層的ポアソン行列ファクタリゼーション(HPF)およびその他の疎確率非負行列ファクタリゼーション(NMF)法は、解釈可能な生成モデルであると考えられている。
HPFはしばしば、エンコーダの間隔を持つかのように、文献で誤って解釈される。
一般化加法モデル (GAM) を用いて, エンコーダ空間を自己整合的に拡張することで, この欠陥に対処する。
- 参考スコア(独自算出の注目度): 0.5570192369031546
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Dimensionality reduction methods for count data are critical to a wide range
of applications in medical informatics and other fields where model
interpretability is paramount. For such data, hierarchical Poisson matrix
factorization (HPF) and other sparse probabilistic non-negative matrix
factorization (NMF) methods are considered to be interpretable generative
models. They consist of sparse transformations for decoding their learned
representations into predictions. However, sparsity in representation decoding
does not necessarily imply sparsity in the encoding of representations from the
original data features. HPF is often incorrectly interpreted in the literature
as if it possesses encoder sparsity. The distinction between decoder sparsity
and encoder sparsity is subtle but important. Due to the lack of encoder
sparsity, HPF does not possess the column-clustering property of classical NMF
-- the factor loading matrix does not sufficiently define how each factor is
formed from the original features. We address this deficiency by
self-consistently enforcing encoder sparsity, using a generalized additive
model (GAM), thereby allowing one to relate each representation coordinate to a
subset of the original data features. In doing so, the method also gains the
ability to perform feature selection. We demonstrate our method on simulated
data and give an example of how encoder sparsity is of practical use in a
concrete application of representing inpatient comorbidities in Medicare
patients.
- Abstract(参考訳): 数量データの次元性低減法は、モデル解釈が最重要である医療情報学やその他の分野の幅広い応用に不可欠である。
このようなデータに対して,階層的ポアソン行列分解 (hpf) および他のスパース確率的非負行列分解 (nmf) 法は解釈可能な生成モデルであると考えられる。
これらは、学習した表現を予測にデコードするためのスパース変換からなる。
しかし、表現デコードにおけるスパーシティは、必ずしも元のデータ特徴から表現のエンコーディングにスパーシティを伴わない。
HPFはしばしば、エンコーダの間隔を持つかのように、文献で誤って解釈される。
デコーダ空間とエンコーダ空間の区別は微妙だが重要である。
エンコーダの間隔が不足しているため、HPFは古典的NMFのカラムクラスタリング特性を持っていない。
一般化加法モデル (GAM) を用いてエンコーダ空間を自己整合的に拡張することで, それぞれの表現座標を元のデータ特徴のサブセットに関連付けることができる。
その際、このメソッドは機能選択を行う能力も得る。
本手法をシミュレーションデータに応用し,医療従事者における患者共生表現の具体的応用として,エンコーダ空間がいかに実用的かを示す。
関連論文リスト
- Unsupervised Representation Learning from Sparse Transformation Analysis [79.94858534887801]
本稿では,潜在変数のスパース成分への変換を分解し,シーケンスデータから表現を学習することを提案する。
入力データは、まず潜伏活性化の分布として符号化され、その後確率フローモデルを用いて変換される。
論文 参考訳(メタデータ) (2024-10-07T23:53:25Z) - Learning incomplete factorization preconditioners for GMRES [1.1519724914285523]
本稿では,大規模スパース行列の不完全LU分解を生成するためのデータ駆動手法を開発する。
GMRES法において, 学習された近似因数分解を対応する線形方程式系のプレコンディショナーとして利用する。
私たちは、通常手動のアルゴリズムを、データに対してトレーニングされたグラフニューラルネットワークベースのアプローチに置き換えます。
論文 参考訳(メタデータ) (2024-09-12T17:55:44Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Posterior Collapse and Latent Variable Non-identifiability [54.842098835445]
柔軟性を犠牲にすることなく識別性を強制する深層生成モデルである,潜時同定可能な変分オートエンコーダのクラスを提案する。
合成および実データ全体にわたって、潜在識別可能な変分オートエンコーダは、後方崩壊を緩和し、データの有意義な表現を提供する既存の方法より優れている。
論文 参考訳(メタデータ) (2023-01-02T06:16:56Z) - Unitary Approximate Message Passing for Matrix Factorization [90.84906091118084]
行列分解 (MF) を一定の制約で考慮し, 様々な分野の応用を見いだす。
我々は,効率の良いメッセージパッシング実装であるUAMPMFを用いて,MFに対するベイズ的アプローチを開発する。
UAMPMFは、回復精度、ロバスト性、計算複雑性の観点から、最先端のアルゴリズムを著しく上回ることを示す。
論文 参考訳(メタデータ) (2022-07-31T12:09:32Z) - A Sparsity-promoting Dictionary Model for Variational Autoencoders [16.61511959679188]
深層生成モデルにおける潜伏空間の構造化は、より表現力のあるモデルと解釈可能な表現を得るために重要である。
本稿では,空間の空間構造をスパーシティ・プロモーティング・辞書・モデルを用いて簡易かつ効果的に構築する手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T17:13:11Z) - Dictionary-based Low-Rank Approximations and the Mixed Sparse Coding
problem [7.132368785057316]
本稿では、LASSOに基づく効率的なMSC解法を用いて、辞書に基づく行列分解と正準多進分解を計算する方法を示す。
超スペクトル画像処理と化学計測の文脈における辞書に基づく行列分解と正準多進分解の計算に、LASSOに基づく効率的なMSC解法を適用する方法を示す。
論文 参考訳(メタデータ) (2021-11-24T10:32:48Z) - Feature Weighted Non-negative Matrix Factorization [92.45013716097753]
本稿では,FNMF(Feature weighted Non- negative Matrix Factorization)を提案する。
FNMFはその重要性に応じて特徴の重みを適応的に学習する。
提案する最適化アルゴリズムを用いて効率的に解くことができる。
論文 参考訳(メタデータ) (2021-03-24T21:17:17Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z) - Deterministic Decoding for Discrete Data in Variational Autoencoders [5.254093731341154]
サンプリングの代わりに最上位のトークンを選択するシーケンシャルデータに対して,決定論的デコーダ(DD-VAE)を用いたVAEモデルについて検討する。
分子生成や最適化問題を含む複数のデータセット上でのDD-VAEの性能を示す。
論文 参考訳(メタデータ) (2020-03-04T16:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。