論文の概要: Multi-View Causal Representation Learning with Partial Observability
- arxiv url: http://arxiv.org/abs/2311.04056v2
- Date: Fri, 8 Mar 2024 15:43:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 23:03:09.353297
- Title: Multi-View Causal Representation Learning with Partial Observability
- Title(参考訳): 部分可観測性を用いた多視点因果表現学習
- Authors: Dingling Yao, Danru Xu, S\'ebastien Lachapelle, Sara Magliacane,
Perouz Taslakian, Georg Martius, Julius von K\"ugelgen and Francesco
Locatello
- Abstract要約: 同時に観察された視点から学習した表現の識別可能性を研究するための統一的な枠組みを提案する。
任意のビューのすべてのサブセット間で共有される情報は、コントラスト学習を用いてスムーズなビジェクションまで学習できることを実証する。
数値、画像、マルチモーダルデータセットに関する我々の主張を実験的に検証する。
- 参考スコア(独自算出の注目度): 36.37049791756438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a unified framework for studying the identifiability of
representations learned from simultaneously observed views, such as different
data modalities. We allow a partially observed setting in which each view
constitutes a nonlinear mixture of a subset of underlying latent variables,
which can be causally related. We prove that the information shared across all
subsets of any number of views can be learned up to a smooth bijection using
contrastive learning and a single encoder per view. We also provide graphical
criteria indicating which latent variables can be identified through a simple
set of rules, which we refer to as identifiability algebra. Our general
framework and theoretical results unify and extend several previous works on
multi-view nonlinear ICA, disentanglement, and causal representation learning.
We experimentally validate our claims on numerical, image, and multi-modal data
sets. Further, we demonstrate that the performance of prior methods is
recovered in different special cases of our setup. Overall, we find that access
to multiple partial views enables us to identify a more fine-grained
representation, under the generally milder assumption of partial observability.
- Abstract(参考訳): 本稿では,データモダリティの相違など,同時観測されたビューから学習した表現の識別性を研究するための統一フレームワークを提案する。
各ビューが基礎となる潜在変数のサブセットの非線形混合を構成する部分的観測設定を可能とし、因果的に関連付けることができる。
任意のビューのすべてのサブセット間で共有される情報は、コントラスト学習とビュー毎の単一エンコーダを用いて、スムーズなビジェクションまで学習できることを実証する。
また,任意の潜在変数を単純なルールセットで識別できることを示すグラフィカルな基準を提供し,これを識別可能代数学と呼ぶ。
我々の一般的な枠組みと理論的結果は、多視点非線形ICA、非絡み合い、因果表現学習に関する過去の研究を統一し拡張する。
数値、画像、マルチモーダルデータセットに関する我々の主張を実験的に検証する。
さらに,従来手法の性能が,設定の特別な場合に異なる場合に回復できることを実証する。
全体として、複数の部分ビューへのアクセスによって、部分的可観測性という仮定の下で、よりきめ細かい表現を識別できることが分かっています。
関連論文リスト
- Revealing Multimodal Contrastive Representation Learning through Latent
Partial Causal Models [85.67870425656368]
マルチモーダルデータに特化して設計された統一因果モデルを提案する。
マルチモーダル・コントラスト表現学習は潜在結合変数の同定に優れていることを示す。
実験では、仮定が破られたとしても、我々の発見の堅牢性を示す。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - Multi-view Fuzzy Representation Learning with Rules based Model [25.997490574254172]
教師なしマルチビュー表現学習は、マルチビューデータをマイニングするために広く研究されている。
本稿では,MVRL_FSを用いた多視点ファジィ表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-09-20T17:13:15Z) - TCGF: A unified tensorized consensus graph framework for multi-view
representation learning [27.23929515170454]
本稿では,Consensus Graph Framework (TCGF) という汎用多視点表現学習フレームワークを提案する。
まず、個々のビューの表現を利用するために、既存のマルチビューワークに統一されたフレームワークを提供する。
そして、それらを高次表現としてアライメント基本の下でテンソルに積み上げ、一貫性の滑らかな伝播を可能にする。
論文 参考訳(メタデータ) (2023-09-14T19:29:14Z) - Disentangling Multi-view Representations Beyond Inductive Bias [32.15900989696017]
本稿では,表現の解釈可能性と一般化性を両立させる新しい多視点表現分離手法を提案する。
提案手法は,クラスタリングと分類性能において,12種類の比較手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-08-03T09:09:28Z) - Identifiability Results for Multimodal Contrastive Learning [72.15237484019174]
本研究では,以前研究したマルチビュー設定よりも,より一般的な設定で共有要因を復元可能であることを示す。
本研究は,マルチモーダル表現学習の理論的基盤を提供し,マルチモーダルコントラスト学習を実践的に効果的に設定する方法を説明する。
論文 参考訳(メタデータ) (2023-03-16T09:14:26Z) - Cross-view Graph Contrastive Representation Learning on Partially
Aligned Multi-view Data [52.491074276133325]
マルチビュー表現学習は、過去数十年間で急速に発展し、多くの分野に応用されてきた。
本稿では,多視点情報を統合してデータアライメントを行い,潜在表現を学習する,新しいクロスビューグラフコントラスト学習フレームワークを提案する。
複数の実データを用いて実験を行い,クラスタリングおよび分類作業における提案手法の有効性を示した。
論文 参考訳(メタデータ) (2022-11-08T09:19:32Z) - Latent Heterogeneous Graph Network for Incomplete Multi-View Learning [57.49776938934186]
非完全多視点学習のための新しい遅延不均質グラフネットワーク(LHGN)を提案する。
統一された潜在表現を学習することにより、異なる視点間の一貫性と相補性の間のトレードオフが暗黙的に実現される。
学習とテストフェーズの不整合を回避するため,分類タスクのグラフ学習に基づくトランスダクティブ学習手法を適用した。
論文 参考訳(メタデータ) (2022-08-29T15:14:21Z) - Multi-VAE: Learning Disentangled View-common and View-peculiar Visual
Representations for Multi-view Clustering [20.412896884905496]
VAEベースのマルチビュークラスタリングフレームワーク(Multi-VAE)を提案する。
生成モデルにおいて、ビュー-共通変数と複数のビュー-ペキュリアル変数を定義する。
複数のビューの連続的な視覚情報を切り離すために相互情報容量を制御することにより、複数のビューの連続的な視覚情報を分離することができる。
論文 参考訳(メタデータ) (2021-06-21T16:23:28Z) - Latent Correlation-Based Multiview Learning and Self-Supervision: A
Unifying Perspective [41.80156041871873]
この研究は、教師なしのマルチビュー学習のための理論支援フレームワークを提供する。
私たちの開発は、各ビューが共有コンポーネントとプライベートコンポーネントの非線形混合であるマルチビューモデルの提案から始まります。
さらに、各ビュー内のプライベート情報を適切な正規化設計を用いて共有から確実に切り離すことができる。
論文 参考訳(メタデータ) (2021-06-14T00:12:36Z) - Deep Partial Multi-View Learning [94.39367390062831]
クロスパーシャル・マルチビュー・ネットワーク(CPM-Nets)と呼ばれる新しいフレームワークを提案する。
我々はまず、多視点表現に対する完全性と汎用性の形式的な定義を提供する。
そして、理論的に学習された潜在表現の多元性を証明する。
論文 参考訳(メタデータ) (2020-11-12T02:29:29Z) - Weakly-Supervised Disentanglement Without Compromises [53.55580957483103]
インテリジェントエージェントは、環境の変化を観察することで、有用な表現を学べるべきである。
変動の要因の少なくとも1つを共有する非I.d.画像のペアとしてそのような観測をモデル化する。
我々は,どの因子が変化したかのみを知るだけで,非絡み合った表現を学ぶのに十分であることを示す。
論文 参考訳(メタデータ) (2020-02-07T16:39:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。