論文の概要: SCADI: Self-supervised Causal Disentanglement in Latent Variable Models
- arxiv url: http://arxiv.org/abs/2311.06567v1
- Date: Sat, 11 Nov 2023 13:33:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 17:56:33.949105
- Title: SCADI: Self-supervised Causal Disentanglement in Latent Variable Models
- Title(参考訳): SCADI:潜在変数モデルにおける自己教師付き因果解離
- Authors: Heejeong Nam
- Abstract要約: そこで本研究では,意味的要因の発見と,その因果関係の学習を可能にする新しいモデルであるSCADI(Self-supervised CAusal DIsentanglement)を提案する。
本モデルでは, マスク型構造因果モデル (SCM) と疑似ラベル生成器を組み合わせることで, 自己監督型因果解離モデルに新たな方向性を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal disentanglement has great potential for capturing complex situations.
However, there is a lack of practical and efficient approaches. It is already
known that most unsupervised disentangling methods are unable to produce
identifiable results without additional information, often leading to randomly
disentangled output. Therefore, most existing models for disentangling are
weakly supervised, providing information about intrinsic factors, which incurs
excessive costs. Therefore, we propose a novel model, SCADI(SElf-supervised
CAusal DIsentanglement), that enables the model to discover semantic factors
and learn their causal relationships without any supervision. This model
combines a masked structural causal model (SCM) with a pseudo-label generator
for causal disentanglement, aiming to provide a new direction for
self-supervised causal disentanglement models.
- Abstract(参考訳): 因果的な絡み合いは複雑な状況を取り込む大きな可能性を秘めている。
しかし、実用的で効率的なアプローチが欠けている。
教師なしの解離解離法の多くは、追加情報なしでは識別可能な結果が得られず、しばしばランダムに解離する出力をもたらすことが知られている。
したがって、既存の解離モデルのほとんどは、過大なコストを発生させる内在的要因に関する情報を提供する弱教師付きモデルである。
そこで本研究では,意味的要因の発見と因果関係の学習を可能にする新しいモデルであるSCADI(Self-supervised CAusal DIsentanglement)を提案する。
本モデルでは, マスク型構造因果モデル (SCM) と疑似ラベル生成器を組み合わせることで, 自己監督型因果解離モデルに新たな方向性を提供する。
関連論文リスト
- Generative Intervention Models for Causal Perturbation Modeling [80.72074987374141]
多くの応用において、システムのメカニズムが外部の摂動によって変更されるかは未定である。
本稿では、これらの摂動特徴を原子間干渉による分布にマッピングする方法を学習する生成的介入モデル(GIM)を提案する。
論文 参考訳(メタデータ) (2024-11-21T10:37:57Z) - Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Enabling Causal Discovery in Post-Nonlinear Models with Normalizing Flows [6.954510776782872]
非線形後因果モデル(PNL)は因果関係をモデル化するための汎用的で適応可能なフレームワークとして際立っている。
CAF-PoNoを導入し、正規化フローアーキテクチャのパワーを活用し、PNLモデルにおいて重要な可逆性制約を強制する。
本手法は,原因-影響同定において重要な役割を担う隠れ雑音を正確に再構成する。
論文 参考訳(メタデータ) (2024-07-06T07:19:21Z) - Causal Disentangled Variational Auto-Encoder for Preference
Understanding in Recommendation [50.93536377097659]
本稿では,コメンテータシステムにおける対話データから因果不整合表現を学習するためのCaD-VAE(Causal Disentangled Variational Auto-Encoder)を提案する。
この手法は構造因果モデルを用いて、潜在因子間の因果関係を記述する因果表現を生成する。
論文 参考訳(メタデータ) (2023-04-17T00:10:56Z) - De-Biasing Generative Models using Counterfactual Methods [0.0]
我々はCausal Counterfactual Generative Model (CCGM) と呼ばれる新しいデコーダベースのフレームワークを提案する。
提案手法は,因果関係の忠実さを強調するために,因果関係の潜在空間VAEモデルと特定の修正を加えたものである。
因果的学習と符号化/復号化が因果的介入の質をいかに高めるかを検討する。
論文 参考訳(メタデータ) (2022-07-04T16:53:20Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - Restricted Hidden Cardinality Constraints in Causal Models [0.0]
観測されていない変数を持つ因果モデルは、観測された変数上の分布に非自明な制約を課す。
我々は、観測されていない変数が既知の濃度を持つことを約束する因果モデルを考える。
論文 参考訳(メタデータ) (2021-09-13T00:52:08Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - Weakly Supervised Disentangled Generative Causal Representation Learning [21.392372783459013]
本研究は, 従来手法では, 監督下においても, 因果関係の要因を解消できないことを示す。
本稿では、因果制御可能な生成と因果表現学習を可能にする、新たな非絡み合い学習法を提案する。
論文 参考訳(メタデータ) (2020-10-06T11:38:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。