論文の概要: Counterfactual Generation with Identifiability Guarantees
- arxiv url: http://arxiv.org/abs/2402.15309v1
- Date: Fri, 23 Feb 2024 13:24:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 14:31:21.031641
- Title: Counterfactual Generation with Identifiability Guarantees
- Title(参考訳): Identifiability Guarantees によるファクトファクトジェネレーション
- Authors: Hanqi Yan, Lingjing Kong, Lin Gui, Yuejie Chi, Eric Xing, Yulan He,
Kun Zhang
- Abstract要約: 我々は,MATTE (doMain AdapTive counTerfactual gEneration model) を開発した。
本研究は, 対物生成タスクに係わるコンテンツとスタイル変数の領域依存性に対処する。
本フレームワークは,教師なし型転送タスクにおける最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 41.894343061841084
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual generation lies at the core of various machine learning tasks,
including image translation and controllable text generation. This generation
process usually requires the identification of the disentangled latent
representations, such as content and style, that underlie the observed data.
However, it becomes more challenging when faced with a scarcity of paired data
and labeling information. Existing disentangled methods crucially rely on
oversimplified assumptions, such as assuming independent content and style
variables, to identify the latent variables, even though such assumptions may
not hold for complex data distributions. For instance, food reviews tend to
involve words like tasty, whereas movie reviews commonly contain words such as
thrilling for the same positive sentiment. This problem is exacerbated when
data are sampled from multiple domains since the dependence between content and
style may vary significantly over domains. In this work, we tackle the
domain-varying dependence between the content and the style variables inherent
in the counterfactual generation task. We provide identification guarantees for
such latent-variable models by leveraging the relative sparsity of the
influences from different latent variables. Our theoretical insights enable the
development of a doMain AdapTive counTerfactual gEneration model, called
(MATTE). Our theoretically grounded framework achieves state-of-the-art
performance in unsupervised style transfer tasks, where neither paired data nor
style labels are utilized, across four large-scale datasets. Code is available
at https://github.com/hanqi-qi/Matte.git
- Abstract(参考訳): counterfactual generationは、画像翻訳や制御可能なテキスト生成など、さまざまな機械学習タスクの中核にある。
この生成プロセスは、通常、観測されたデータの基盤となる内容やスタイルなどの非絡み合った潜在表現を識別する必要がある。
しかし、ペアデータやラベル情報の不足に直面した場合には、さらに困難になる。
既存の非絡み合ったメソッドは、独立したコンテンツやスタイル変数を仮定するなど、過度に単純化された仮定に依存して、複雑なデータ分布には当てはまらないが、潜伏変数を識別する。
例えば、フードレビューは美味しい言葉を含む傾向があるが、映画レビューは概して同じポジティブな感情に対するスリルのような言葉を含んでいる。
コンテンツとスタイル間の依存性がドメインによって大きく異なる可能性があるため、複数のドメインからデータがサンプリングされると、この問題は悪化する。
本研究では,コンテンツと,反事実生成タスクに内在するスタイル変数間のドメイン変動の依存性について検討する。
このような潜伏変数モデルに対する識別保証は、異なる潜伏変数からの影響の相対的空間性を利用する。
我々の理論的な洞察は、doMain AdapTive counTerfactual gEneration model(MATTE)の開発を可能にする。
理論上は,4つの大規模データセットにおいて,ペアデータもスタイルラベルも使用せず,教師なし型転送タスクの最先端性能を実現する。
コードはhttps://github.com/hanqi-qi/Matte.gitで入手できる。
関連論文リスト
- Self-Supervised Disentanglement by Leveraging Structure in Data Augmentations [63.73044203154743]
自己教師付き表現学習は、しばしばデータの「スタイル」属性を誘導するためにデータ拡張を使用する。
データの属性が実際に"スタイル"であり、安全に破棄されるような先入観を推論することは困難である。
スタイル機能を捨てるよりも、スタイル機能を切り離そうとする、より原則化されたアプローチを導入します。
論文 参考訳(メタデータ) (2023-11-15T09:34:08Z) - Counterfactual Generation Under Confounding [24.503075567519048]
機械学習モデルは、トレーニングデータにおける観察または観測されていない共同創設者の影響下で、素早い相関関係を学習することができる。
本稿では,画像中の任意の属性の値を変更し,観測された属性の集合を与えられた新しい画像を生成することを学習する対実生成法を提案する。
本手法は, 計算効率が高く, 実装も簡単で, 生成因子の多さや変数の整合性にも有効である。
論文 参考訳(メタデータ) (2022-10-22T06:39:22Z) - DOT-VAE: Disentangling One Factor at a Time [1.6114012813668934]
本稿では,変分オートエンコーダの潜伏空間を乱交空間で拡張し,Wake-Sleep-inspireed two-step algorithm for unsupervised disentanglementを用いて学習する手法を提案する。
我々のネットワークは、解釈可能な独立した因子を一度に1つのデータから切り離すことを学び、それを非絡み合った潜在空間の異なる次元にエンコードし、因子の数やそれらの共同分布について事前の仮定をしない。
論文 参考訳(メタデータ) (2022-10-19T22:53:02Z) - Identifiable Latent Causal Content for Domain Adaptation under Latent Covariate Shift [82.14087963690561]
マルチソースドメイン適応(MSDA)は、ラベル付き対象ドメインのラベル予測関数を学習する際の課題に対処する。
本稿では,潜在コンテンツ変数と潜時スタイル変数とともに,ドメイン間の潜時雑音を導入し,複雑な因果生成モデルを提案する。
提案手法は、シミュレーションと実世界の両方のデータセットに対して、例外的な性能と有効性を示す。
論文 参考訳(メタデータ) (2022-08-30T11:25:15Z) - Learning Conditional Invariance through Cycle Consistency [60.85059977904014]
本稿では,データセットの変動の有意義な要因と独立な要因を識別する新しい手法を提案する。
提案手法は,対象プロパティと残りの入力情報に対する2つの別個の潜在部分空間を含む。
我々は,より意味のある因子を同定し,よりスペーサーや解釈可能なモデルに導く合成および分子データについて実証する。
論文 参考訳(メタデータ) (2021-11-25T17:33:12Z) - Towards Understanding Sample Variance in Visually Grounded Language
Generation: Evaluations and Observations [67.4375210552593]
視覚的基盤言語生成において,重要だがしばしば無視される問題を理解するために実験を設計する。
人間にはさまざまなユーティリティと視覚的注意があるので、マルチ参照データセットのサンプルのばらつきはモデルの性能にどのように影響しますか?
人為的な参照は、異なるデータセットやタスクで大きく変化する可能性があり、それぞれのタスクの性質が明らかになる。
論文 参考訳(メタデータ) (2020-10-07T20:45:14Z) - What Should Not Be Contrastive in Contrastive Learning [110.14159883496859]
本稿では,タスク依存不変性に関する事前知識を必要としない,対照的な学習フレームワークを提案する。
我々のモデルは、異なる埋め込み空間を構築することで、視覚表現の様々な要因や不変要素を捉えることを学習する。
我々は、共有バックボーンを持つマルチヘッドネットワークを使用し、各オーグメンテーションにまたがる情報をキャプチャし、ダウンストリームタスクにおけるすべてのベースラインより優れている。
論文 参考訳(メタデータ) (2020-08-13T03:02:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。