論文の概要: Private-Shared Disentangled Multimodal VAE for Learning of Hybrid Latent
Representations
- arxiv url: http://arxiv.org/abs/2012.13024v1
- Date: Wed, 23 Dec 2020 23:33:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 18:17:44.977807
- Title: Private-Shared Disentangled Multimodal VAE for Learning of Hybrid Latent
Representations
- Title(参考訳): ハイブリッドラテント表現学習のためのプライベート共有分散マルチモーダルVAE
- Authors: Mihee Lee, Vladimir Pavlovic
- Abstract要約: 本稿では,複数モードのプライベートおよび共有潜在空間を分離するために,分散VAE戦略を利用した分散マルチモーダル変分オートエンコーダ(DMVAE)を提案する。
DMVAEの有用性を半教師付き学習タスクで実証し、モダリティの1つに部分的なデータラベルが含まれている。
いくつかのベンチマークで行った実験は、プライベートシェードな絡み合いとハイブリッドな潜伏表現の重要性を示している。
- 参考スコア(独自算出の注目度): 24.3033562693679
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multi-modal generative models represent an important family of deep models,
whose goal is to facilitate representation learning on data with multiple views
or modalities. However, current deep multi-modal models focus on the inference
of shared representations, while neglecting the important private aspects of
data within individual modalities. In this paper, we introduce a disentangled
multi-modal variational autoencoder (DMVAE) that utilizes disentangled VAE
strategy to separate the private and shared latent spaces of multiple
modalities. We specifically consider the instance where the latent factor may
be of both continuous and discrete nature, leading to the family of general
hybrid DMVAE models. We demonstrate the utility of DMVAE on a semi-supervised
learning task, where one of the modalities contains partial data labels, both
relevant and irrelevant to the other modality. Our experiments on several
benchmarks indicate the importance of the private-shared disentanglement as
well as the hybrid latent representation.
- Abstract(参考訳): マルチモーダル生成モデルは、複数のビューやモダリティを持つデータの表現学習を容易にすることを目的としているディープモデルの重要なファミリーを表す。
しかし、現在の深層マルチモーダルモデルは共有表現の推論にフォーカスしているが、個々のモダリティ内のデータの重要なプライベートな側面は無視している。
本稿では,複数のモードのプライベートかつ共有の潜在空間を分離するために,分散VAE戦略を利用する分散マルチモーダル変分オートエンコーダ(DMVAE)を提案する。
特に、潜在因子が連続的かつ離散的性質を持つ可能性がある場合を考察し、一般的なハイブリッドdmvaeモデルの族へと導く。
半教師付き学習タスクにおけるdmvaeの有用性を実証し,一方のモダリティが部分的データラベルを含み,他方のモダリティと無関係であることを示す。
いくつかのベンチマークで行った実験は、プライベートシェードな絡み合いとハイブリッドな潜伏表現の重要性を示している。
関連論文リスト
- Learning Multimodal Latent Generative Models with Energy-Based Prior [3.6648642834198797]
EBMに潜時生成モデルを統合する新しいフレームワークを提案する。
このアプローチは、より表現力があり、情報的であり、複数のモダリティにまたがる情報のより良いキャプチャをもたらす。
論文 参考訳(メタデータ) (2024-09-30T01:38:26Z) - U3M: Unbiased Multiscale Modal Fusion Model for Multimodal Semantic Segmentation [63.31007867379312]
U3M: An Unbiased Multiscale Modal Fusion Model for Multimodal Semanticsを紹介する。
我々は,グローバルな特徴とローカルな特徴の効果的な抽出と統合を保証するために,複数のスケールで機能融合を採用している。
実験により,本手法は複数のデータセットにまたがって優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-05-24T08:58:48Z) - Leveraging Diffusion Disentangled Representations to Mitigate Shortcuts
in Underspecified Visual Tasks [92.32670915472099]
拡散確率モデル(DPM)を用いた合成カウンターファクトの生成を利用したアンサンブルの多様化フレームワークを提案する。
拡散誘導型分散化は,データ収集を必要とする従来の手法に匹敵するアンサンブル多様性を達成し,ショートカットからの注意を回避できることを示す。
論文 参考訳(メタデータ) (2023-10-03T17:37:52Z) - Learning multi-modal generative models with permutation-invariant encoders and tighter variational objectives [5.549794481031468]
マルチモーダルデータに対する深い潜伏変数モデルの開発は、機械学習研究において長年のテーマであった。
本研究では,データログ類似度を厳密に近似できる変動目標について考察する。
我々は,PoE や MoE のアプローチにおける帰納バイアスを回避するために,より柔軟なアグリゲーション手法を開発した。
論文 参考訳(メタデータ) (2023-09-01T10:32:21Z) - Multi-modal Contrastive Representation Learning for Entity Alignment [57.92705405276161]
マルチモーダルなエンティティアライメントは、2つの異なるマルチモーダルな知識グラフ間で等価なエンティティを識別することを目的としている。
マルチモーダルコントラスト学習に基づくエンティティアライメントモデルであるMCLEAを提案する。
特に、MCLEAはまず複数のモダリティから複数の個別表現を学習し、その後、モダリティ内およびモダリティ間相互作用を共同でモデル化するコントラスト学習を行う。
論文 参考訳(メタデータ) (2022-09-02T08:59:57Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Learning Multimodal VAEs through Mutual Supervision [72.77685889312889]
MEMEは、相互監督を通じて暗黙的にモダリティ間の情報を結合する。
我々は、MEMEが、部分的および完全観察スキームの双方で標準メトリクスのベースラインを上回ることを実証する。
論文 参考訳(メタデータ) (2021-06-23T17:54:35Z) - Self-Supervised Multimodal Domino: in Search of Biomarkers for
Alzheimer's Disease [19.86082635340699]
自己監督型表現学習アルゴリズムを編成する合理的な方法の分類法を提案する。
まず,おもちゃのマルチモーダルMNISTデータセットのモデルを評価し,アルツハイマー病患者を用いたマルチモーダル・ニューロイメージングデータセットに適用した。
提案手法は,従来の自己教師付きエンコーダデコーダ法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:28:13Z) - Relating by Contrasting: A Data-efficient Framework for Multimodal
Generative Models [86.9292779620645]
生成モデル学習のための対照的なフレームワークを開発し、モダリティ間の共通性だけでなく、「関連」と「関連しない」マルチモーダルデータの区別によってモデルを訓練することができる。
提案手法では, 生成モデルを用いて, 関係のないサンプルから関連サンプルを正確に識別し, ラベルのない多モードデータの利用が可能となる。
論文 参考訳(メタデータ) (2020-07-02T15:08:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。