論文の概要: Deep Backtracking Counterfactuals for Causally Compliant Explanations
- arxiv url: http://arxiv.org/abs/2310.07665v4
- Date: Sat, 10 Aug 2024 15:18:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-14 00:48:29.025178
- Title: Deep Backtracking Counterfactuals for Causally Compliant Explanations
- Title(参考訳): 因果一貫性のある説明のためのディープ・バックトラック対策
- Authors: Klaus-Rudolf Kladny, Julius von Kügelgen, Bernhard Schölkopf, Michael Muehlebach,
- Abstract要約: 本稿では,DeepBC(Deep Backtracking counterfactuals)と呼ばれる手法を導入する。
特別な場合として、我々の定式化は、対実的説明の分野における手法に還元される。
- 参考スコア(独自算出の注目度): 57.94160431716524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactuals answer questions of what would have been observed under altered circumstances and can therefore offer valuable insights. Whereas the classical interventional interpretation of counterfactuals has been studied extensively, backtracking constitutes a less studied alternative where all causal laws are kept intact. In the present work, we introduce a practical method called deep backtracking counterfactuals (DeepBC) for computing backtracking counterfactuals in structural causal models that consist of deep generative components. We propose two distinct versions of our method--one utilizing Langevin Monte Carlo sampling and the other employing constrained optimization--to generate counterfactuals for high-dimensional data. As a special case, our formulation reduces to methods in the field of counterfactual explanations. Compared to these, our approach represents a causally compliant, versatile and modular alternative. We demonstrate these properties experimentally on a modified version of MNIST and CelebA.
- Abstract(参考訳): カウンターファクトリーは、変化した状況下で何が観察されたかという疑問に答え、そのため貴重な洞察を与えることができる。
反事実の古典的介入解釈は広く研究されているが、バックトラックはすべての因果法がそのまま維持される研究の少ない代替手段となっている。
本研究では, 深部生成成分からなる構造因果モデルにおいて, バックトラック・カウンティファクト(DeepBC)と呼ばれる, バックトラック・カウンティファクトを計算するための実用的手法を提案する。
本稿では,Langevin Monte Carlo サンプリングと制約付き最適化を併用した2種類の手法を提案する。
特別な場合として、我々の定式化は、対実的説明の分野における手法に還元される。
これらと比較すると、我々のアプローチは因果的に適合し、多目的でモジュラーな代替手段である。
我々はこれらの特性をMNISTとCelebAの修正版で実験的に実証した。
関連論文リスト
- Natural Counterfactuals With Necessary Backtracking [21.845725763657022]
ジュデア・パールの影響力のあるアプローチは理論的にはエレガントであるが、その逆のシナリオの生成は観測されたシナリオからあまりに多くの逸脱を必要とすることが多い。
本研究では, 自然対物関係の枠組みと, 実際のデータ分布に対してより実現可能な対物関係を生成する方法を提案する。
論文 参考訳(メタデータ) (2024-02-02T18:11:43Z) - Transcending Forgery Specificity with Latent Space Augmentation for Generalizable Deepfake Detection [57.646582245834324]
LSDAと呼ばれる簡易で効果的なディープフェイク検出器を提案する。
より多様な偽の表現は、より一般化可能な決定境界を学べるべきである。
提案手法は驚くほど有効であり, 広く使用されている複数のベンチマークで最先端の検出器を超越することを示す。
論文 参考訳(メタデータ) (2023-11-19T09:41:10Z) - Endogenous Macrodynamics in Algorithmic Recourse [52.87956177581998]
対実説明(CE)とアルゴリズム・リコース(AR)に関する既存の研究は、静的環境における個人に主に焦点を当ててきた。
既存の方法論の多くは、一般化されたフレームワークによってまとめて記述できることを示す。
次に、既存のフレームワークは、グループレベルでの言論の内在的ダイナミクスを研究する際にのみ明らかとなるような、隠された対外的関係のコストを考慮に入れていないと論じる。
論文 参考訳(メタデータ) (2023-08-16T07:36:58Z) - Invariant Causal Set Covering Machines [64.86459157191346]
決定木のようなルールベースのモデルは、解釈可能な性質のために実践者にアピールする。
しかし、そのようなモデルを生成する学習アルゴリズムは、しばしば刺激的な関連に弱いため、因果関係の洞察を抽出することが保証されていない。
Invariant Causal Set Covering Machines は、古典的集合被覆マシンアルゴリズムの拡張であり、二値ルールの結合/分離を可能とし、スプリアス関係を確実に回避する。
論文 参考訳(メタデータ) (2023-06-07T20:52:01Z) - Generative Slate Recommendation with Reinforcement Learning [49.75985313698214]
強化学習アルゴリズムは、レコメンデータシステムのユーザエンゲージメントを最適化するために使用することができる。
しかし、RLアプローチはスレートレコメンデーションシナリオでは難解である。
この設定では、アクションはアイテムの組み合わせを含むことができるスレートに対応する。
本研究では,変分オートエンコーダによって学習された連続低次元ラテント空間におけるスレートの符号化を提案する。
我々は、(i)以前の作業で要求される仮定を緩和し、(ii)完全なスレートをモデル化することで、アクション選択の品質を向上させることができる。
論文 参考訳(メタデータ) (2023-01-20T15:28:09Z) - The Causal Marginal Polytope for Bounding Treatment Effects [9.196779204457059]
グローバル因果モデルを構築することなく因果関係を同定する手法を提案する。
我々は,グローバル因果モデルを構築することなく,因果モデルの限界とデータとの整合性を強制する。
我々はこの局所的に一貫した辺縁の集合を、因果的辺縁ポリトープと呼ぶ。
論文 参考訳(メタデータ) (2022-02-28T15:08:22Z) - Causality-based Counterfactual Explanation for Classification Models [11.108866104714627]
本稿では,プロトタイプに基づく対実的説明フレームワーク(ProCE)を提案する。
ProCEは、カウンターファクトデータの特徴の根底にある因果関係を保存することができる。
さらに,提案手法を応用した多目的遺伝的アルゴリズムを考案した。
論文 参考訳(メタデータ) (2021-05-03T09:25:59Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - On Generating Plausible Counterfactual and Semi-Factual Explanations for
Deep Learning [15.965337956587373]
PlausIble Exceptionality-based Contrastive Explanations (PIECE) は、テストイメージにおけるすべての例外的特徴を、対実クラスの観点から正規化するように修正する。
2つの制御された実験は、PIECEを文献上の他のものと比較し、PIECEはいくつかの尺度において最も妥当な反事実を生成するだけでなく、最良の半事実も生成することを示した。
論文 参考訳(メタデータ) (2020-09-10T14:48:12Z) - Good Counterfactuals and Where to Find Them: A Case-Based Technique for
Generating Counterfactuals for Explainable AI (XAI) [18.45278329799526]
一般に使われている多くのデータセットは、説明目的のために優れた反事実をほとんど持たないことを示す。
本稿では, 事例ベースにおける対実的ポテンシャルと説明的カバレッジに関する新しいアイデアを用いて, 対実的事実を生成するための新しい事例ベースアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-26T14:05:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。