論文の概要: Do learned representations respect causal relationships?
- arxiv url: http://arxiv.org/abs/2204.00762v1
- Date: Sat, 2 Apr 2022 04:53:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 14:44:36.035626
- Title: Do learned representations respect causal relationships?
- Title(参考訳): 学習表現は因果関係を尊重するのか?
- Authors: Lan Wang and Vishnu Naresh Boddeti
- Abstract要約: 我々は,高次元データから観測因果発見を行うNCINetを紹介する。
第2に、NCINetを用いて、ラベル間の未知の因果関係と異なる属性対の画像表現の因果関係を同定する。
第三に、表現学習における様々な設計選択によって引き起こされる学習表現の因果関係に対する影響を解析する。
- 参考スコア(独自算出の注目度): 30.36097461828338
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data often has many semantic attributes that are causally associated with
each other. But do attribute-specific learned representations of data also
respect the same causal relations? We answer this question in three steps.
First, we introduce NCINet, an approach for observational causal discovery from
high-dimensional data. It is trained purely on synthetically generated
representations and can be applied to real representations, and is specifically
designed to mitigate the domain gap between the two. Second, we apply NCINet to
identify the causal relations between image representations of different pairs
of attributes with known and unknown causal relations between the labels. For
this purpose, we consider image representations learned for predicting
attributes on the 3D Shapes, CelebA, and the CASIA-WebFace datasets, which we
annotate with multiple multi-class attributes. Third, we analyze the effect on
the underlying causal relation between learned representations induced by
various design choices in representation learning. Our experiments indicate
that (1) NCINet significantly outperforms existing observational causal
discovery approaches for estimating the causal relation between pairs of random
samples, both in the presence and absence of an unobserved confounder, (2)
under controlled scenarios, learned representations can indeed satisfy the
underlying causal relations between their respective labels, and (3) the causal
relations are positively correlated with the predictive capability of the
representations.
- Abstract(参考訳): データはしばしば、相互に因果関係を持つ多くのセマンティック属性を持つ。
しかし、属性固有のデータ表現は、同じ因果関係をも尊重するのか?
私たちはこの質問に3つのステップで答える。
まず,高次元データから観測因果探索を行うNCINetを提案する。
純粋に合成的に生成された表現に基づいて訓練され、実際の表現に適用でき、この2つの間のドメインギャップを軽減するために特別に設計されている。
第二に、ncinet をラベル間の既知の因果関係と未知の因果関係を持つ異なる属性の対の画像表現間の因果関係の同定に適用する。
本研究では,複数の属性をアノテートした3次元形状,CelebA,CASIA-WebFaceデータセットの属性予測のための画像表現について考察する。
第3に,様々なデザイン選択によって引き起こされる学習表現間の因果関係が,表現学習に与える影響を分析した。
実験の結果,(1)ncinetは,無作為標本のペア間の因果関係を推定する既存の観測因果関係発見手法と,(2)制御されたシナリオでは,学習された表現がそれぞれのラベル間の因果関係を実際に満たすことができ,(3)因果関係はそれらの表現の予測能力と正の相関関係にあることが示唆された。
関連論文リスト
- Look, Learn and Leverage (L$^3$): Mitigating Visual-Domain Shift and Discovering Intrinsic Relations via Symbolic Alignment [19.700374722227107]
学習過程を3つの相に分解する新しい学習フレームワークであるLook, Learn and Leverage (L$3$)を提案する。
関係発見モデルは、ソースドメイン上でトレーニングすることができ、視覚領域シフトや本質的な関係が欠如している場合には、事前学習された関係発見モデルを直接再利用し、良好な性能を維持することができる。
論文 参考訳(メタデータ) (2024-08-30T15:53:48Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Towards Causal Representation Learning and Deconfounding from Indefinite
Data [17.793702165499298]
非統計データ(画像、テキストなど)は、従来の因果データとプロパティやメソッドの点で重大な対立に遭遇する。
2つの新しい視点から因果データを再定義し、3つのデータパラダイムを提案する。
非定値データから因果表現を学習するための動的変分推論モデルとして,上記の設計を実装した。
論文 参考訳(メタデータ) (2023-05-04T08:20:37Z) - DOMINO: Visual Causal Reasoning with Time-Dependent Phenomena [59.291745595756346]
本研究では,時間遅延のウィンドウに関連する因果関係の発見に人間が参加できる視覚分析手法を提案する。
具体的には、論理に基づく因果関係の確立した手法を活用し、分析者が潜在的な原因の重要性を検証できるようにする。
効果は他の効果の原因となりうるので,本手法で検出した時間的要因と効果の関係を視覚フロー図にまとめることができる。
論文 参考訳(メタデータ) (2023-03-12T03:40:21Z) - Identifying Weight-Variant Latent Causal Models [82.14087963690561]
推移性は潜在因果表現の識別性を阻害する重要な役割を担っている。
いくつかの軽微な仮定の下では、潜伏因果表現が自明な置換とスケーリングまで特定可能であることを示すことができる。
本稿では,その間の因果関係や因果関係を直接学習する構造的caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - Causal Transportability for Visual Recognition [70.13627281087325]
画像とラベルの関連性は、設定間では転送できないため、標準分類器がフェールすることを示す。
次に、すべての共起源を摂食する因果効果が、ドメイン間で不変であることを示す。
これにより、画像分類における因果効果を推定するアルゴリズムを開発する動機付けとなる。
論文 参考訳(メタデータ) (2022-04-26T15:02:11Z) - Learning latent causal relationships in multiple time series [0.0]
多くの系では、因果関係は観測データに線形混合として表される潜在空間に埋め込まれる。
潜伏源を盲目的に識別する手法を提示する。
提案手法は教師なしで、任意の時系列に容易に適用でき、データの背後にある因果関係に光を当てることができる。
論文 参考訳(メタデータ) (2022-03-21T00:20:06Z) - Generalizable Information Theoretic Causal Representation [37.54158138447033]
本稿では,観測データから因果表現を学習するために,仮説因果グラフに基づいて相互情報量で学習手順を規則化することを提案する。
この最適化は、因果性に着想を得た学習がサンプルの複雑さを減らし、一般化能力を向上させるという理論的保証を導出する反ファクト的損失を伴う。
論文 参考訳(メタデータ) (2022-02-17T00:38:35Z) - Fuzzy Stochastic Timed Petri Nets for Causal properties representation [68.8204255655161]
因果関係はしばしば有向グラフで表され、原因を示すノードと因果関係を表すリンクがある。
因果シナリオをグラフィカルに表現するために使われる一般的な方法は、ニューロン、真理表、因果ベイズネットワーク、認知地図、ペトリネットである。
従来のモデルは、前述のプロパティのいくつかを別々に表現できるが、それら全てをはっきりと説明しようとはしないことを示す。
論文 参考訳(メタデータ) (2020-11-24T13:22:34Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。