論文の概要: Variational Interpretable Learning from Multi-view Data
- arxiv url: http://arxiv.org/abs/2202.13503v2
- Date: Tue, 1 Mar 2022 20:35:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 11:49:21.401712
- Title: Variational Interpretable Learning from Multi-view Data
- Title(参考訳): 多視点データからの変分解釈可能学習
- Authors: Lin Qiu, Lynn Lin, Vernon M. Chinchilli
- Abstract要約: DICCAは、多視点データの共有とビュー固有のバリエーションの両方を分離するように設計されている。
実世界のデータセットにおける実証的な結果は、我々の手法がドメイン間で競合していることを示している。
- 参考スコア(独自算出の注目度): 2.687817337319978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The main idea of canonical correlation analysis (CCA) is to map different
views onto a common latent space with maximum correlation. We propose a deep
interpretable variational canonical correlation analysis (DICCA) for multi-view
learning. The developed model extends the existing latent variable model for
linear CCA to nonlinear models through the use of deep generative networks.
DICCA is designed to disentangle both the shared and view-specific variations
for multi-view data. To further make the model more interpretable, we place a
sparsity-inducing prior on the latent weight with a structured variational
autoencoder that is comprised of view-specific generators. Empirical results on
real-world datasets show that our methods are competitive across domains.
- Abstract(参考訳): 標準相関解析(CCA)の主な考え方は、異なるビューを最大相関を持つ共通の潜在空間にマッピングすることである。
多視点学習のためのDICCA(Deep Interpretable Variational Canonical correlation analysis)を提案する。
開発したモデルでは, 線形CCAの潜在変数モデルから非線形モデルまで, 深層生成ネットワークを用いて拡張する。
DICCAは、多視点データの共有とビュー固有のバリエーションの両方を分離するように設計されている。
さらに,モデルをより解釈しやすくするため,ビュー固有生成器からなる構造的変分オートエンコーダを用いて,潜在重量に先立ってスパーシティ誘導を行う。
実世界のデータセットにおける実証的な結果は、我々の手法がドメイン間で競合していることを示している。
関連論文リスト
- Learning Divergence Fields for Shift-Robust Graph Representations [73.11818515795761]
本研究では,相互依存データに対する問題に対して,学習可能な分散場を持つ幾何学的拡散モデルを提案する。
因果推論によって新たな学習目標が導出され、ドメイン間で無神経な相互依存の一般化可能なパターンを学習するためのモデルが導出される。
論文 参考訳(メタデータ) (2024-06-07T14:29:21Z) - Learning multi-modal generative models with permutation-invariant encoders and tighter variational objectives [5.549794481031468]
マルチモーダルデータに対する深い潜伏変数モデルの開発は、機械学習研究において長年のテーマであった。
本研究では,データログ類似度を厳密に近似できる変動目標について考察する。
我々は,PoE や MoE のアプローチにおける帰納バイアスを回避するために,より柔軟なアグリゲーション手法を開発した。
論文 参考訳(メタデータ) (2023-09-01T10:32:21Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Encoding Domain Knowledge in Multi-view Latent Variable Models: A
Bayesian Approach with Structured Sparsity [7.811916700683125]
MuVI はドメインインフォームド・マルチビュー潜在変数モデルのための新しいアプローチである。
私たちのモデルは、機能セットの形でノイズの多いドメインの専門知識を統合することができることを実証しています。
論文 参考訳(メタデータ) (2022-04-13T08:22:31Z) - Dynamically-Scaled Deep Canonical Correlation Analysis [77.34726150561087]
カノニカル相関解析 (CCA) は, 2つのビューの特徴抽出手法である。
本稿では,入力依存の正準相関モデルをトレーニングするための新しい動的スケーリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T12:52:49Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Bayesian Sparse Factor Analysis with Kernelized Observations [67.60224656603823]
多視点問題は潜在変数モデルに直面することができる。
高次元問題と非線形問題は伝統的にカーネルメソッドによって扱われる。
両アプローチを単一モデルにマージすることを提案する。
論文 参考訳(メタデータ) (2020-06-01T14:25:38Z) - Variational Inference for Deep Probabilistic Canonical Correlation
Analysis [49.36636239154184]
線形多視点層と深層生成ネットワークを観測モデルとして構成した深部確率的多視点モデルを提案する。
潜在確率多視点層の後方分布を近似した効率的な変分推論法を開発した。
任意の数のビューを持つモデルへの一般化も提案されている。
論文 参考訳(メタデータ) (2020-03-09T17:51:15Z) - Multiview Representation Learning for a Union of Subspaces [38.68763142172997]
提案したモデルと単純な混合物の集合が標準CCAよりも改良されていることを示す。
我々の相関に基づく目的は、CCAの目的をCCAモデルの混合に有意に一般化する。
論文 参考訳(メタデータ) (2019-12-30T00:44:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。