論文の概要: "Even if ..." -- Diverse Semifactual Explanations of Reject
- arxiv url: http://arxiv.org/abs/2207.01898v1
- Date: Tue, 5 Jul 2022 08:53:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 00:57:03.259636
- Title: "Even if ..." -- Diverse Semifactual Explanations of Reject
- Title(参考訳): 「たとえ...」 --様々な拒絶の半事実的説明
- Authors: Andr\'e Artelt, Barbara Hammer
- Abstract要約: 本稿では,任意の拒否オプションに対する半実的説明の概念モデリングを提案する。
共形予測に基づくリジェクションオプションの具体的実装を実証的に評価する。
- 参考スコア(独自算出の注目度): 8.132423340684568
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning based decision making systems applied in safety critical
areas require reliable high certainty predictions. For this purpose, the system
can be extended by an reject option which allows the system to reject inputs
where only a prediction with an unacceptably low certainty would be possible.
While being able to reject uncertain samples is important, it is also of
importance to be able to explain why a particular sample was rejected. With the
ongoing rise of eXplainable AI (XAI), a lot of explanation methodologies for
machine learning based systems have been developed -- explaining reject
options, however, is still a novel field where only very little prior work
exists.
In this work, we propose to explain rejects by semifactual explanations, an
instance of example-based explanation methods, which them self have not been
widely considered in the XAI community yet. We propose a conceptual modeling of
semifactual explanations for arbitrary reject options and empirically evaluate
a specific implementation on a conformal prediction based reject option.
- Abstract(参考訳): 安全クリティカル領域に適用された機械学習に基づく意思決定システムは、信頼性の高い高精度な予測を必要とする。
この目的のために、システムはリジェクションオプションによって拡張され、不許容に低い精度で予測できる入力のみを拒否することができる。
不確実なサンプルを拒絶することは重要であるが、特定のサンプルが拒絶された理由を説明することも重要である。
説明可能なai(xai)の台頭に伴い、機械学習ベースのシステムのための多くの説明方法論が開発されている。
本研究は,XAIコミュニティではまだ広く検討されていない実例に基づく説明手法の例である,半実的説明による拒絶を説明することを提案する。
本稿では,任意の拒否オプションに対する半実的説明の概念モデルを提案し,共形予測に基づく拒否オプションの具体的実装を実証的に評価する。
関連論文リスト
- Identifying Drivers of Predictive Uncertainty using Variance Feature
Attribution [2.765106384328772]
変数特徴属性は、予測的アレタリック不確実性を説明するための単純でスケーラブルなソリューションである。
提案手法は,確立されたベースラインCLUEよりも,不確実性の影響を確実かつ高速に説明できることを示す。
我々の説明は笑い線のような不確実性の原因を浮き彫りにする。
論文 参考訳(メタデータ) (2023-12-12T13:28:53Z) - Sound Explanation for Trustworthy Machine Learning [11.779125616468194]
我々は、入力成分にスコアを割り当てることでブラックボックスモデルを解釈する実践に反対する。
次に,先行研究で非公式に採用された音声説明の概念を定式化する。
本稿では,がん予測モデルにおける特徴選択を音響的説明として応用し,臨床医間の信頼を育む。
論文 参考訳(メタデータ) (2023-06-08T19:58:30Z) - Bounding Counterfactuals under Selection Bias [60.55840896782637]
本稿では,識別不能なクエリと識別不能なクエリの両方に対処するアルゴリズムを提案する。
選択バイアスによって引き起こされる欠如にもかかわらず、利用可能なデータの可能性は無限であることを示す。
論文 参考訳(メタデータ) (2022-07-26T10:33:10Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Model Agnostic Local Explanations of Reject [6.883906273999368]
安全クリティカル領域における機械学習に基づく意思決定システムの応用には,信頼性の高い高精度な予測が必要である。
リジェクションオプションは、システムによってなされる予測の十分な高い確実性を保証する一般的な方法である。
本稿では,解釈可能なモデルと対実的説明を用いて任意の拒否オプションを局所的に説明するためのモデル非依存手法を提案する。
論文 参考訳(メタデータ) (2022-05-16T12:42:34Z) - Explaining Reject Options of Learning Vector Quantization Classifiers [6.125017875330933]
本稿では,機械学習モデルにおけるリジェクトの説明に反事実的説明を用いることを提案する。
重要なモデルのクラスに対して、異なる拒絶オプションの反実的説明を効率的に計算する方法を検討する。
論文 参考訳(メタデータ) (2022-02-15T08:16:10Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - A Taxonomy of Explainable Bayesian Networks [0.0]
ベイズネットワークにおける説明可能性の分類について紹介する。
我々は、モデルにおける説明可能性の既存の分類、推論または証拠を拡張して、決定の説明を含める。
論文 参考訳(メタデータ) (2021-01-28T07:29:57Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。