論文の概要: VACA: Design of Variational Graph Autoencoders for Interventional and
Counterfactual Queries
- arxiv url: http://arxiv.org/abs/2110.14690v1
- Date: Wed, 27 Oct 2021 18:16:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-30 12:24:41.710451
- Title: VACA: Design of Variational Graph Autoencoders for Interventional and
Counterfactual Queries
- Title(参考訳): VACA: インターベンショナルおよび非現実的クエリのための変分グラフオートエンコーダの設計
- Authors: Pablo Sanchez-Martin, Miriam Rateike and Isabel Valera
- Abstract要約: 本稿では,隠れた共同設立者がいない場合に,因果推論のための変分グラフオートエンコーダのクラスであるVacAを紹介する。
公平な分類問題における対実的公正性の評価にVacAを適用し,性能を損なうことなく公平な分類法を学習する。
- 参考スコア(独自算出の注目度): 11.35838396538348
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we introduce VACA, a novel class of variational graph
autoencoders for causal inference in the absence of hidden confounders, when
only observational data and the causal graph are available. Without making any
parametric assumptions, VACA mimics the necessary properties of a Structural
Causal Model (SCM) to provide a flexible and practical framework for
approximating interventions (do-operator) and abduction-action-prediction
steps. As a result, and as shown by our empirical results, VACA accurately
approximates the interventional and counterfactual distributions on diverse
SCMs. Finally, we apply VACA to evaluate counterfactual fairness in fair
classification problems, as well as to learn fair classifiers without
compromising performance.
- Abstract(参考訳): 本稿では,隠れた共同創設者がいない場合に因果推論のための変分グラフオートエンコーダであるVACAについて,観察データと因果グラフのみが利用可能である場合に紹介する。
VACAはパラメトリックな仮定をせずに、構造因果モデル(Structure Causal Model, SCM)の必要な性質を模倣し、介入(do-operator)を近似するための柔軟で実用的なフレームワークを提供する。
その結果, VACAは多種多様なSCMの介入分布と反事実分布を正確に近似した。
最後に,公平な分類問題における対実的公正性を評価するためにVACAを適用し,性能を損なうことなく公平な分類法を学ぶ。
関連論文リスト
- Contrastive Learning with Counterfactual Explanations for Radiology Report Generation [83.30609465252441]
放射線学レポート生成のためのtextbfCountertextbfFactual textbfExplanations-based framework (CoFE) を提案する。
反現実的な説明は、アルゴリズムによってなされた決定をどのように変えられるかを理解するための強力なツールとして、シナリオが何であるかを問うことによって役立ちます。
2つのベンチマークの実験では、反ファクト的な説明を活用することで、CoFEは意味的に一貫性があり、事実的に完全なレポートを生成することができる。
論文 参考訳(メタデータ) (2024-07-19T17:24:25Z) - Balanced Classification: A Unified Framework for Long-Tailed Object
Detection [74.94216414011326]
従来の検出器は、分類バイアスによる長期データを扱う際の性能劣化に悩まされる。
本稿では,カテゴリ分布の格差に起因する不平等の適応的是正を可能にする,BAlanced CLassification (BACL) と呼ばれる統一フレームワークを提案する。
BACLは、さまざまなバックボーンとアーキテクチャを持つさまざまなデータセット間で、一貫してパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-08-04T09:11:07Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Modeling Causal Mechanisms with Diffusion Models for Interventional and Counterfactual Queries [10.818661865303518]
本稿では,観察的,介入的,反ファクト的クエリに因果的に十分な設定で回答する問題を考察する。
本稿では拡散型因果モデル (DCM) を導入し, 独自の潜伏符号化を生成する因果メカニズムを学習する。
我々の実証評価は、因果クエリに応答する既存の最先端手法よりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2023-02-02T04:08:08Z) - Evaluating Probabilistic Classifiers: The Triptych [62.997667081978825]
本稿では,予測性能の異なる相補的な側面に焦点をあてた診断グラフィックのトリチチを提案し,研究する。
信頼性図は校正に対処し、受信動作特性(ROC)曲線は識別能力を診断し、マーフィー図は全体的な予測性能と価値を視覚化する。
論文 参考訳(メタデータ) (2023-01-25T19:35:23Z) - Causal Transportability for Visual Recognition [70.13627281087325]
画像とラベルの関連性は、設定間では転送できないため、標準分類器がフェールすることを示す。
次に、すべての共起源を摂食する因果効果が、ドメイン間で不変であることを示す。
これにより、画像分類における因果効果を推定するアルゴリズムを開発する動機付けとなる。
論文 参考訳(メタデータ) (2022-04-26T15:02:11Z) - Scalable Intervention Target Estimation in Linear Models [52.60799340056917]
因果構造学習への現在のアプローチは、既知の介入目標を扱うか、仮説テストを使用して未知の介入目標を発見する。
本稿では、全ての介入対象を一貫して識別するスケーラブルで効率的なアルゴリズムを提案する。
提案アルゴリズムは、与えられた観測マルコフ同値クラスを介入マルコフ同値クラスに更新することも可能である。
論文 参考訳(メタデータ) (2021-11-15T03:16:56Z) - FairCanary: Rapid Continuous Explainable Fairness [8.362098382773265]
本稿では,新しいモデルバイアス量化尺度であるQuantile Demographic Drift(QDD)を提案する。
QDDは継続的な監視シナリオに最適であり、従来のしきい値ベースのバイアスメトリクスの統計的制限に悩まされない。
QDDをFairCanaryと呼ばれる継続的モデル監視システムに組み込み、各予測毎に計算された既存の説明を再利用します。
論文 参考訳(メタデータ) (2021-06-13T17:47:44Z) - Hierarchical Variational Autoencoder for Visual Counterfactuals [79.86967775454316]
条件変量オート(VAE)は、説明可能な人工知能(XAI)ツールとして注目されている。
本稿では, 後部の効果がいかに緩和され, 対物的効果が成功するかを示す。
本稿では,アプリケーション内の分類器を視覚的に監査できる階層型VAEについて紹介する。
論文 参考訳(メタデータ) (2021-02-01T14:07:11Z) - Evaluating and Mitigating Bias in Image Classifiers: A Causal
Perspective Using Counterfactuals [27.539001365348906]
本稿では、逆学習推論(ALI)の改良版に構造因果モデル(SCM)を組み込むことにより、逆ファクトアルを生成する方法を提案する。
本稿では,事前学習された機械学習分類器の説明方法を示し,そのバイアスを評価し,そのバイアスを正則化器を用いて緩和する方法について述べる。
論文 参考訳(メタデータ) (2020-09-17T13:19:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。