論文の概要: Causal Proxy Models for Concept-Based Model Explanations
- arxiv url: http://arxiv.org/abs/2209.14279v1
- Date: Wed, 28 Sep 2022 17:45:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 16:55:34.811039
- Title: Causal Proxy Models for Concept-Based Model Explanations
- Title(参考訳): 概念に基づくモデル説明のための因果代理モデル
- Authors: Zhengxuan Wu, Karel D'Oosterlinck, Atticus Geiger, Amir Zur, and
Christopher Potts
- Abstract要約: 本稿では, 因果関係を近似的に説明し, 因果関係を解析し, 因果関係を解明する手法を提案する。
Causal Proxy Model (CPM) はブラックボックスモデル $mathcalN$ を説明する。
本稿では,$mathcalN$のCPMが$mathcalN$と同等に実際の予測を行うことを示す。
- 参考スコア(独自算出の注目度): 12.656981798587095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainability methods for NLP systems encounter a version of the fundamental
problem of causal inference: for a given ground-truth input text, we never
truly observe the counterfactual texts necessary for isolating the causal
effects of model representations on outputs. In response, many explainability
methods make no use of counterfactual texts, assuming they will be unavailable.
In this paper, we show that robust causal explainability methods can be created
using approximate counterfactuals, which can be written by humans to
approximate a specific counterfactual or simply sampled using metadata-guided
heuristics. The core of our proposal is the Causal Proxy Model (CPM). A CPM
explains a black-box model $\mathcal{N}$ because it is trained to have the same
actual input/output behavior as $\mathcal{N}$ while creating neural
representations that can be intervened upon to simulate the counterfactual
input/output behavior of $\mathcal{N}$. Furthermore, we show that the best CPM
for $\mathcal{N}$ performs comparably to $\mathcal{N}$ in making factual
predictions, which means that the CPM can simply replace $\mathcal{N}$, leading
to more explainable deployed models. Our code is available at
https://github.com/frankaging/Causal-Proxy-Model.
- Abstract(参考訳): nlpシステムの説明可能性法は因果推論の基本的な問題に遭遇する:与えられた接地入力テキストでは、出力に対するモデル表現の因果効果を分離するために必要な反事実テキストを真に観察することはない。
これに対し、多くの説明可能性法では、偽造テキストは利用できないと仮定して利用しない。
本稿では,人間が特定の反事実を近似したり,単にメタデータを導いたヒューリスティックスを用いてサンプル化する近似的反事実を用いて,ロバストな因果説明可能性法を作成できることを示す。
私たちの提案の中核はCausal Proxy Model(CPM)です。
CPMは、ブラックボックスモデル $\mathcal{N}$を、$\mathcal{N}$と同じ実際の入出力動作を持つように訓練され、$\mathcal{N}$の実際の入出力動作をシミュレートするために介在可能な神経表現を作成する。
さらに、$\mathcal{N}$の最良のCPMは、事実予測を行うときに$\mathcal{N}$と同等に動作し、CPMが$\mathcal{N}$を置き換えるだけで、より説明可能なデプロイモデルが得られることを示す。
私たちのコードはhttps://github.com/frankaging/Causal-Proxy-Modelで利用可能です。
関連論文リスト
- Cross-validating causal discovery via Leave-One-Variable-Out [11.891940572224783]
私たちは"Leave-One-Variable-Out (LOVO)"予測を使い、$Y$は$X$から推論されるが、$X$と$Y$は共同で観測されることはない。
Acyclic Directed Mixed Graphs (ADMGs) という形で、2つの部分集合上の因果モデルが、しばしば$X$ と $Y$ の依存関係に関する結論を導くことを示した。
この予測誤差は、$P(X, Y)$が利用可能であると仮定され、$X$と$Y$がfalの目的のために省略されているため推定できる。
論文 参考訳(メタデータ) (2024-11-08T15:15:34Z) - Sparse Prototype Network for Explainable Pedestrian Behavior Prediction [60.80524827122901]
Sparse Prototype Network (SPN) は,歩行者の将来の行動,軌道,ポーズを同時に予測するための説明可能な手法である。
モノセマンティリティとクラスタリングの制約によって規則化されたプロトタイプは、一貫性と人間の理解可能な機能を学ぶ。
論文 参考訳(メタデータ) (2024-10-16T03:33:40Z) - IT$^3$: Idempotent Test-Time Training [95.78053599609044]
本稿では,分散シフトの課題に対処する新しいアプローチであるIdempotent Test-Time Training (IT$3$)を紹介する。
IT$3$は、イデオロジェンスの普遍性に基づいている。
画像分類の劣化など,様々なタスクにまたがるアプローチの汎用性を実証する。
論文 参考訳(メタデータ) (2024-10-05T15:39:51Z) - SPD-DDPM: Denoising Diffusion Probabilistic Models in the Symmetric
Positive Definite Space [47.65912121120524]
本研究では,大規模データを扱う新しい生成モデルであるSPD-DDPMを提案する。
我々のモデルは、$y$を与えることなく、無条件で柔軟に$p(X)$を見積もることができる。
おもちゃのデータと実際のタクシーデータによる実験結果から、我々のモデルは無条件と無条件の両方のデータ分布に効果的に適合することが示された。
論文 参考訳(メタデータ) (2023-12-13T15:08:54Z) - On the Provable Advantage of Unsupervised Pretraining [26.065736182939222]
教師なし事前学習は、現代の大規模機械学習システムにおいて重要な要素である。
本稿では、教師なし表現学習タスクを潜在変数モデルの抽象クラスで指定する汎用フレームワークについて検討する。
軽度の'informative'条件下では、下流タスクに対して$tildemathcalO(sqrtmathcalC_Phi/m + sqrtmathcalC_Psi/n)$の過剰なリスクを達成する。
論文 参考訳(メタデータ) (2023-03-02T20:42:05Z) - Causal Temporal Reasoning for Markov Decision Processes [4.040829575021796]
マルコフ決定過程(MDP)の検証のための新しい時間論理である $textitPCFTL (Probabilistic CounterFactual Temporal Logic)$ を導入する。
PCFTLは因果推論の演算子を初めて含み、介入的および反事実的クエリを表現できる。
グリッドワールドモデルのベンチマークを用いて,PCFTLを安全な強化学習の文脈で評価する。
論文 参考訳(メタデータ) (2022-12-16T21:11:44Z) - Supervised Contrastive Prototype Learning: Augmentation Free Robust
Neural Network [17.10753224600936]
ディープニューラルネットワーク(DNN)の入力空間における変換は、特徴空間の意図しない変化をもたらす。
我々は、SCPL (textbfd Contrastive Prototype Learning$) というトレーニングフレームワークを提案する。
同じクラスと反対クラスのプロトタイプでNペアの対照的な損失を使用し、分類ヘッドを$textbfPrototype Classification Head(PCH)で置き換える。
私たちのアプローチは、$textitsample efficient$、$textitsample mining$、既存のどのDNNでも変更せずに実装できます。
論文 参考訳(メタデータ) (2022-11-26T01:17:15Z) - Gradient-based Counterfactual Explanations using Tractable Probabilistic
Models [20.770168600755877]
ファクトファクトの例は、機械学習モデルに魅力的な説明のクラスである。
現在のアプローチは主に複雑な最適化によってこの課題を解決する。
本稿では,2つの勾配計算のみを用いて,これらの問題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-05-16T16:05:43Z) - Improving Robustness and Generality of NLP Models Using Disentangled
Representations [62.08794500431367]
スーパービジョンニューラルネットワークはまず入力$x$を単一の表現$z$にマップし、次に出力ラベル$y$にマッピングする。
本研究では,非交叉表現学習の観点から,NLPモデルの堅牢性と汎用性を改善する手法を提案する。
提案した基準でトレーニングしたモデルは、広範囲の教師付き学習タスクにおいて、より堅牢性とドメイン適応性を向上することを示す。
論文 参考訳(メタデータ) (2020-09-21T02:48:46Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z) - ELECTRA: Pre-training Text Encoders as Discriminators Rather Than
Generators [108.3381301768299]
Masked Language Modeling (MLM) は、BERT のような事前学習手法で、いくつかのトークンを [MASK] に置き換えて、元のトークンを再構築するためにモデルをトレーニングすることで入力を破損させた。
代用トークン検出という,より効率的な事前学習タスクを提案する。
論文 参考訳(メタデータ) (2020-03-23T21:17:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。