論文の概要: On Causally Disentangled Representations
- arxiv url: http://arxiv.org/abs/2112.05746v1
- Date: Fri, 10 Dec 2021 18:56:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 14:40:23.766700
- Title: On Causally Disentangled Representations
- Title(参考訳): 因果解離表現について
- Authors: Abbavaram Gowtham Reddy, Benin Godfrey L, Vineeth N Balasubramanian
- Abstract要約: 本稿では,不整合因果過程の概念を用いて,不整合表現の分析を行う。
我々の測定値が不整合因果過程のデシダラタを捉えていることが示される。
本研究では,このメトリクスとデータセットを用いて,非絡み合った表現学習者の状態に関する実証的研究を行い,因果的視点から評価する。
- 参考スコア(独自算出の注目度): 18.122893077772993
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Representation learners that disentangle factors of variation have already
proven to be important in addressing various real world concerns such as
fairness and interpretability. Initially consisting of unsupervised models with
independence assumptions, more recently, weak supervision and correlated
features have been explored, but without a causal view of the generative
process. In contrast, we work under the regime of a causal generative process
where generative factors are either independent or can be potentially
confounded by a set of observed or unobserved confounders. We present an
analysis of disentangled representations through the notion of disentangled
causal process. We motivate the need for new metrics and datasets to study
causal disentanglement and propose two evaluation metrics and a dataset. We
show that our metrics capture the desiderata of disentangled causal process.
Finally, we perform an empirical study on state of the art disentangled
representation learners using our metrics and dataset to evaluate them from
causal perspective.
- Abstract(参考訳): 変動の偏角因子は、フェアネスや解釈可能性といった様々な現実世界の懸念に対処する上ですでに重要であることが証明されている。
当初、独立仮定を持つ教師なしモデルからなるが、より近年では、弱い監督と相関した特徴が研究されているが、生成過程の因果的な見解は得られていない。
対照的に、私たちは、生成因子が独立しているか、あるいは観測されたあるいは観測されていない共同設立者によって構成できる可能性のある因果生成プロセスの体制の下で働いている。
本稿では, 因果過程の非絡み合いという概念を通して, 絡み合い表現の分析を行う。
我々は,因果関係の絡み合いを研究するための新しい指標とデータセットの必要性を動機付け,二つの評価指標とデータセットを提案する。
我々の測定値が不整合因果過程のデシダラタを捉えることを示す。
最後に,実測とデータセットを用いて,芸術的異種表現学習者の実態に関する実証研究を行い,因果的視点から評価する。
関連論文リスト
- Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Causal Fair Metric: Bridging Causality, Individual Fairness, and
Adversarial Robustness [7.246701762489971]
モデル内の脆弱性の特定や、類似した個人を公平に扱うことを目的とした個々の公正性に使用される対向的摂動は、どちらも同等の入力データインスタンスを生成するためのメトリクスに依存している。
このような共同メトリクスを定義する以前の試みは、データや構造因果モデルに関する一般的な仮定を欠くことが多く、反事実的近接を反映できなかった。
本稿では, 因果的属性と保護された因果的摂動を含む因果的構造に基づいて定式化された因果的公正度について紹介する。
論文 参考訳(メタデータ) (2023-10-30T09:53:42Z) - C-Disentanglement: Discovering Causally-Independent Generative Factors
under an Inductive Bias of Confounder [35.09708249850816]
我々は,共同設立者の帰納的バイアスを明示する最初のフレームワークである,C-Disentanglement(C-Disentanglement)というフレームワークを紹介した。
我々は、合成データセットと実世界のデータセットの両方について広範な実験を行う。
論文 参考訳(メタデータ) (2023-10-26T11:44:42Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - A Causal Ordering Prior for Unsupervised Representation Learning [27.18951912984905]
因果表現学習(Causal representation learning)は、データセットの変動の要因は、実際には因果関係にあると主張している。
本稿では,遅延付加雑音モデルを用いたデータ生成過程を考慮した,教師なし表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-11T18:12:05Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。