論文の概要: On Counterfactual Explanations under Predictive Multiplicity
- arxiv url: http://arxiv.org/abs/2006.13132v1
- Date: Tue, 23 Jun 2020 16:25:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 22:45:10.820150
- Title: On Counterfactual Explanations under Predictive Multiplicity
- Title(参考訳): 予測多重性の下での反事実的説明について
- Authors: Martin Pawelczyk, Klaus Broelemann, Gjergji Kasneci
- Abstract要約: 対実的な説明は通常、入力に対する最小の変更を識別して、固定されたモデルによる予測を変更することによって得られる。
最近の研究は古い洞察を復活させ、一般的に使用される関心の尺度に関して予測問題に対する優れた解決策が1つ存在しないことがしばしばある。
- 参考スコア(独自算出の注目度): 14.37676876556672
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Counterfactual explanations are usually obtained by identifying the smallest
change made to an input to change a prediction made by a fixed model (hereafter
called sparse methods). Recent work, however, has revitalized an old insight:
there often does not exist one superior solution to a prediction problem with
respect to commonly used measures of interest (e.g. error rate). In fact, often
multiple different classifiers give almost equal solutions. This phenomenon is
known as predictive multiplicity (Breiman, 2001; Marx et al., 2019). In this
work, we derive a general upper bound for the costs of counterfactual
explanations under predictive multiplicity. Most notably, it depends on a
discrepancy notion between two classifiers, which describes how differently
they treat negatively predicted individuals. We then compare sparse and data
support approaches empirically on real-world data. The results show that data
support methods are more robust to multiplicity of different models. At the
same time, we show that those methods have provably higher cost of generating
counterfactual explanations under one fixed model. In summary, our theoretical
and empiricaln results challenge the commonly held view that counterfactual
recommendations should be sparse in general.
- Abstract(参考訳): 対実的な説明は通常、入力に対する最小の変更を識別して、固定されたモデル(以下、スパース法と呼ばれる)による予測を変更することによって得られる。
しかし、最近の研究は古い洞察を復活させた: 一般的に使用される関心の測度(例えば、エラー率)に関して予測問題に対する優れた解は存在しないことが多い。
実際、しばしば複数の異なる分類器がほぼ同じ解を与える。
この現象は予測多重性(Breiman, 2001; Marx et al., 2019)として知られている。
本研究では,予測多重性の下での対実的説明のコストに対する一般上限を導出する。
最も注目すべきは、2つの分類器間の不一致の概念であり、負の予測された個人に対する扱いがいかに異なるかを記述する。
次に、実世界のデータで実証的にスパースとデータサポートのアプローチを比較する。
その結果,データサポート手法は異なるモデルの多重性に対してより堅牢であることがわかった。
同時に、これらの手法は、1つの固定モデルの下で反実的説明を生成するコストが著しく高いことを示す。
要約すると、我々の理論的および実証的な結果は、反事実的推奨は一般的には不十分であるべきだという一般的な見解に挑戦する。
関連論文リスト
- How many classifiers do we need? [50.69951049206484]
分類器間の不一致と偏極が、個々の分類器を集約することで得られる性能向上とどのように関連しているかを詳細に分析する。
分類器の個数で不一致の挙動を示す。
我々の理論と主張は、様々なタイプのニューラルネットワークを用いた画像分類タスクに関する経験的な結果によって裏付けられている。
論文 参考訳(メタデータ) (2024-11-01T02:59:56Z) - DistPred: A Distribution-Free Probabilistic Inference Method for Regression and Forecasting [14.390842560217743]
本稿では、回帰予測タスクのためのDistPredという新しい手法を提案する。
予測分布と対象分布の差分を測定するための適切なスコアリングルールを、微分可能な離散形式に変換する。
これにより、モデルは単一のフォワードパスで多数のサンプルをサンプリングし、応答変数の潜在的分布を推定することができる。
論文 参考訳(メタデータ) (2024-06-17T10:33:00Z) - Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - When are ensembles really effective? [49.37269057899679]
分類タスクにおいて,アンサンブルが顕著な性能向上をもたらす時期について検討する。
平均誤差率に対して不一致率が大きくなると,アンサンブルにより性能が大幅に向上することを示す。
アンサンブルが実現し、大きなパフォーマンス改善をもたらすことのない、実践的なシナリオを特定します。
論文 参考訳(メタデータ) (2023-05-21T01:36:25Z) - Explainability as statistical inference [29.74336283497203]
本稿では、解釈可能な予測を生成するために設計された一般的な深層確率モデルを提案する。
モデルパラメータは最大限の確率で学習でき、任意の予測ネットワークアーキテクチャに適応することができる。
実験により,複数命令を用いるとより合理的な解釈が得られることが示された。
論文 参考訳(メタデータ) (2022-12-06T16:55:10Z) - Diverse Counterfactual Explanations for Anomaly Detection in Time Series [26.88575131193757]
本稿では,時系列異常検出モデルに対する反実的アンサンブル説明を生成するモデル非依存アルゴリズムを提案する。
本手法は, 検出モデルでは異常とはみなされない, 元の時系列の複数バージョンを, 多様な逆実例として生成する。
我々のアルゴリズムは、任意の識別可能な異常検出モデルに適用できる。
論文 参考訳(メタデータ) (2022-03-21T16:30:34Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Ambiguity in Sequential Data: Predicting Uncertain Futures with
Recurrent Models [110.82452096672182]
逐次データによる曖昧な予測を扱うために,Multiple hypothesis Prediction(MHP)モデルの拡張を提案する。
また、不確実性を考慮するのに適した曖昧な問題に対する新しい尺度も導入する。
論文 参考訳(メタデータ) (2020-03-10T09:15:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。