論文の概要: Fooling Partial Dependence via Data Poisoning
- arxiv url: http://arxiv.org/abs/2105.12837v1
- Date: Wed, 26 May 2021 20:58:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-28 16:36:21.978065
- Title: Fooling Partial Dependence via Data Poisoning
- Title(参考訳): データ中毒による部分依存の騙し
- Authors: Hubert Baniecki, Wojciech Kretowicz, Przemyslaw Biecek
- Abstract要約: 本稿では,部分依存(プロット,プロファイル,PDP)攻撃手法を提案する。
PDは,特に金融・医療分野において,対角的に操作可能であることを示す。
この愚かさは、データを汚染して曲げ、遺伝的勾配とアルゴリズムを用いて、所望の方向に説明をシフトすることで行われる。
- 参考スコア(独自算出の注目度): 3.0036519884678894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many methods have been developed to understand complex predictive models and
high expectations are placed on post-hoc model explainability. It turns out
that such explanations are not robust nor trustworthy, and they can be fooled.
This paper presents techniques for attacking Partial Dependence (plots,
profiles, PDP), which are among the most popular methods of explaining any
predictive model trained on tabular data. We showcase that PD can be
manipulated in an adversarial manner, which is alarming, especially in
financial or medical applications where auditability became a must-have trait
supporting black-box models. The fooling is performed via poisoning the data to
bend and shift explanations in the desired direction using genetic and gradient
algorithms. To the best of our knowledge, this is the first work performing
attacks on variable dependence explanations. The novel approach of using a
genetic algorithm for doing so is highly transferable as it generalizes both
ways: in a model-agnostic and an explanation-agnostic manner.
- Abstract(参考訳): 複雑な予測モデルを理解するために多くの手法が開発され、ホック後のモデル説明可能性に高い期待が寄せられている。
このような説明は堅牢でも信頼に値するものでもないことが分かり、騙される可能性がある。
本稿では,表型データに基づいてトレーニングされた予測モデルを説明する最も一般的な手法として,部分依存(プロット,プロファイル,PDP)攻撃手法を提案する。
特に,ブラックボックスモデルをサポートする上で,監査性が必須の特質となった金融・医療アプリケーションにおいて,PDを逆向きに操作できることを示す。
この愚かさは、データを汚染して曲げ、遺伝的アルゴリズムと勾配アルゴリズムを用いて、所望の方向に説明をシフトすることで行われる。
私たちの知る限りでは、これは変数依存の説明に対して攻撃を行う最初の仕事です。
遺伝的アルゴリズムを用いた新しいアプローチは、モデル非依存と説明非依存の両方の方法を一般化するので、非常に転送性が高い。
関連論文リスト
- Derivative-Free Diffusion Manifold-Constrained Gradient for Unified XAI [59.96044730204345]
微分自由拡散多様体制約勾配(FreeMCG)を導入する。
FreeMCGは、与えられたニューラルネットワークの説明可能性を改善する基盤として機能する。
提案手法は,XAIツールが期待する本質性を保ちながら,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2024-11-22T11:15:14Z) - Are Data-driven Explanations Robust against Out-of-distribution Data? [18.760475318852375]
エンドツーエンドのモデルに依存しない学習フレームワークであるDis Distributionally Robust Explanations (DRE)を提案する。
鍵となる考え方は、分配情報を完全に活用して、人間のアノテーションを使わずに説明の学習のための監視信号を提供することである。
提案手法は,分布変化に対する説明と予測の堅牢性の観点から,モデルの性能を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-03-29T02:02:08Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Feature Attributions and Counterfactual Explanations Can Be Manipulated [32.579094387004346]
本稿では,モデル非依存的特徴属性法を制御するバイアスモデルの設計方法について述べる。
これらの脆弱性は、敵がバイアス付きモデルをデプロイすることを可能にするが、説明はこのバイアスを明らかにしないため、ステークホルダーをモデルの信頼性を損なう。
我々は、CompASやCommunity & Crimeを含む実世界のデータセットの操作を評価し、実際に操作できる説明を見つける。
論文 参考訳(メタデータ) (2021-06-23T17:43:31Z) - Agree to Disagree: When Deep Learning Models With Identical
Architectures Produce Distinct Explanations [0.0]
我々は,MIMIC-CXRデータセットの特定問題を強調するために,説明整合性の尺度を導入する。
同じモデルの説明がありますが、異なるトレーニングセットアップでは一貫性が低く、平均で$approx$ 33%です。
モデル説明の現在のトレンドは、実生活の医療アプリケーションにおけるモデル展開のリスクを軽減するのに十分ではないと結論づける。
論文 参考訳(メタデータ) (2021-05-14T12:16:47Z) - Incorporating Causal Graphical Prior Knowledge into Predictive Modeling
via Simple Data Augmentation [92.96204497841032]
因果グラフ(CG)は、データ分散の背後にあるデータ生成プロセスの知識のコンパクトな表現である。
本研究では,条件付き独立性(CI)関係の事前知識を活用可能なモデルに依存しないデータ拡張手法を提案する。
本手法は,小データシステムにおける予測精度の向上に有効であることを実験的に示した。
論文 参考訳(メタデータ) (2021-02-27T06:13:59Z) - On Generating Plausible Counterfactual and Semi-Factual Explanations for
Deep Learning [15.965337956587373]
PlausIble Exceptionality-based Contrastive Explanations (PIECE) は、テストイメージにおけるすべての例外的特徴を、対実クラスの観点から正規化するように修正する。
2つの制御された実験は、PIECEを文献上の他のものと比較し、PIECEはいくつかの尺度において最も妥当な反事実を生成するだけでなく、最良の半事実も生成することを示した。
論文 参考訳(メタデータ) (2020-09-10T14:48:12Z) - Model extraction from counterfactual explanations [68.8204255655161]
本稿では, 敵が反実的説明によって提供された情報を利用して, 高精度かつ高精度なモデル抽出攻撃を構築する方法を示す。
我々の攻撃は、敵が相手モデルの忠実なコピーを、その偽説明にアクセスして作成することを可能にする。
論文 参考訳(メタデータ) (2020-09-03T19:02:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。