論文の概要: Counterfactual Generation with Knockoffs
- arxiv url: http://arxiv.org/abs/2102.00951v1
- Date: Mon, 1 Feb 2021 16:34:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 16:52:28.846058
- Title: Counterfactual Generation with Knockoffs
- Title(参考訳): ノックオフによる反実生成
- Authors: Oana-Iuliana Popescu, Maha Shadaydeh, Joachim Denzler
- Abstract要約: 本稿では,制御可能な偽発見率を用いた変数選択ツールを提案する。
ノックオフは統計学的にヌル変数であり、元のデータと可能な限り非相関である。
異なるインフィル法の比較により、ノックオフによるインフィル化により、より因果的意味の説明が明らかになることが示された。
- 参考スコア(独自算出の注目度): 8.56007054019834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human interpretability of deep neural networks' decisions is crucial,
especially in domains where these directly affect human lives. Counterfactual
explanations of already trained neural networks can be generated by perturbing
input features and attributing importance according to the change in the
classifier's outcome after perturbation. Perturbation can be done by replacing
features using heuristic or generative in-filling methods. The choice of
in-filling function significantly impacts the number of artifacts, i.e.,
false-positive attributions. Heuristic methods result in false-positive
artifacts because the image after the perturbation is far from the original
data distribution. Generative in-filling methods reduce artifacts by producing
in-filling values that respect the original data distribution. However, current
generative in-filling methods may also increase false-negatives due to the high
correlation of in-filling values with the original data. In this paper, we
propose to alleviate this by generating in-fillings with the
statistically-grounded Knockoffs framework, which was developed by Barber and
Cand\`es in 2015 as a tool for variable selection with controllable false
discovery rate. Knockoffs are statistically null-variables as decorrelated as
possible from the original data, which can be swapped with the originals
without changing the underlying data distribution. A comparison of different
in-filling methods indicates that in-filling with knockoffs can reveal
explanations in a more causal sense while still maintaining the compactness of
the explanations.
- Abstract(参考訳): ディープニューラルネットワークの決定の人間の解釈性は、特にそれが人間の生活に直接影響を及ぼす領域において重要である。
既に訓練済みのニューラルネットワークの因果的説明は、入力特徴の摂動と、摂動後の分類器の結果の変化による重要性の寄与によって生成される。
摂動は、ヒューリスティックまたは生成的インフィル方式で特徴を置き換えることによって行うことができる。
インフィル機能の選択は、アーティファクトの数、すなわち偽陽性アトリビューションに大きく影響します。
ヒューリスティックな手法は、摂動後の画像が元のデータ分布に遠く及ばないため、偽陽性のアーティファクトをもたらす。
生成的インフィルングメソッドは、元のデータ分布を尊重するインフィルング値を生成することによってアーティファクトを削減する。
しかし,現在のインフィル法では,インフィル値と元のデータとの相関が高いため,偽陰性も増大する可能性がある。
本稿では,2015年にBarber と Cand\`es が,制御可能な擬似発見率を持つ変数選択ツールとして開発した,統計的に座屈した Knockoffs フレームワークを組み込むことにより,この問題を軽減することを提案する。
ノックオフは、元のデータから可能な限りデコレーションに関連する統計的にnull-variablesであり、基礎となるデータ分布を変更することなく元のデータと交換することができる。
異なるインフィル方式の比較は、インフィルディングとノックオフは説明のコンパクト性を維持しつつ、より因果的な意味で説明を明らかにすることができることを示している。
関連論文リスト
- Improving Out-of-Distribution Robustness of Classifiers via Generative
Interpolation [56.620403243640396]
ディープニューラルネットワークは、独立かつ同一に分散されたデータ(すなわち、d)から学習する上で、優れたパフォーマンスを達成する。
しかし、アウト・オブ・ディストリビューション(OoD)データを扱う場合、その性能は著しく低下する。
多様なOoDサンプルを合成するために,複数のドメインから学習した生成モデルを融合するための生成補間法(Generative Interpolation)を開発した。
論文 参考訳(メタデータ) (2023-07-23T03:53:53Z) - Posterior Collapse and Latent Variable Non-identifiability [54.842098835445]
柔軟性を犠牲にすることなく識別性を強制する深層生成モデルである,潜時同定可能な変分オートエンコーダのクラスを提案する。
合成および実データ全体にわたって、潜在識別可能な変分オートエンコーダは、後方崩壊を緩和し、データの有意義な表現を提供する既存の方法より優れている。
論文 参考訳(メタデータ) (2023-01-02T06:16:56Z) - Counterfactual Generation Under Confounding [24.503075567519048]
機械学習モデルは、トレーニングデータにおける観察または観測されていない共同創設者の影響下で、素早い相関関係を学習することができる。
本稿では,画像中の任意の属性の値を変更し,観測された属性の集合を与えられた新しい画像を生成することを学習する対実生成法を提案する。
本手法は, 計算効率が高く, 実装も簡単で, 生成因子の多さや変数の整合性にも有効である。
論文 参考訳(メタデータ) (2022-10-22T06:39:22Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Self-Conditioned Generative Adversarial Networks for Image Editing [61.50205580051405]
Generative Adversarial Networks (GAN) はバイアスの影響を受けやすい。
我々は、このバイアスが公平性だけでなく、分布のコアから逸脱する際の潜在トラバース編集手法の崩壊に重要な役割を果たしていると論じる。
論文 参考訳(メタデータ) (2022-02-08T18:08:24Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Certifying Model Accuracy under Distribution Shifts [151.67113334248464]
本稿では,データ分布の有界ワッサースタインシフトの下でのモデルの精度について,証明可能なロバスト性保証を提案する。
変換空間におけるモデルの入力をランダム化する単純な手順は、変換の下での分布シフトに対して確実に堅牢であることを示す。
論文 参考訳(メタデータ) (2022-01-28T22:03:50Z) - Efficient remedies for outlier detection with variational autoencoders [8.80692072928023]
深層生成モデルによって計算される類似度は、ラベルなしデータによる外れ値検出の候補メトリックである。
理論的に定位された補正は、VAE推定値による鍵バイアスを容易に改善することを示す。
また,VAEのアンサンブル上で計算される確率の分散により,ロバストな外乱検出が可能となることを示す。
論文 参考訳(メタデータ) (2021-08-19T16:00:58Z) - Robustness to Spurious Correlations in Text Classification via
Automatically Generated Counterfactuals [8.827892752465958]
自動生成された反実データを用いてトレーニングデータを増強し、堅牢なテキスト分類器のトレーニングを提案する。
因果的特徴を強調し,非因果的特徴を強調することで,ロバスト分類器は有意義で信頼性の高い予測を行うことを示す。
論文 参考訳(メタデータ) (2020-12-18T03:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。