論文の概要: "Even if ..." -- Diverse Semifactual Explanations of Reject
- arxiv url: http://arxiv.org/abs/2207.01898v1
- Date: Tue, 5 Jul 2022 08:53:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 00:57:03.259636
- Title: "Even if ..." -- Diverse Semifactual Explanations of Reject
- Title(参考訳): 「たとえ...」 --様々な拒絶の半事実的説明
- Authors: Andr\'e Artelt, Barbara Hammer
- Abstract要約: 本稿では,任意の拒否オプションに対する半実的説明の概念モデリングを提案する。
共形予測に基づくリジェクションオプションの具体的実装を実証的に評価する。
- 参考スコア(独自算出の注目度): 8.132423340684568
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning based decision making systems applied in safety critical
areas require reliable high certainty predictions. For this purpose, the system
can be extended by an reject option which allows the system to reject inputs
where only a prediction with an unacceptably low certainty would be possible.
While being able to reject uncertain samples is important, it is also of
importance to be able to explain why a particular sample was rejected. With the
ongoing rise of eXplainable AI (XAI), a lot of explanation methodologies for
machine learning based systems have been developed -- explaining reject
options, however, is still a novel field where only very little prior work
exists.
In this work, we propose to explain rejects by semifactual explanations, an
instance of example-based explanation methods, which them self have not been
widely considered in the XAI community yet. We propose a conceptual modeling of
semifactual explanations for arbitrary reject options and empirically evaluate
a specific implementation on a conformal prediction based reject option.
- Abstract(参考訳): 安全クリティカル領域に適用された機械学習に基づく意思決定システムは、信頼性の高い高精度な予測を必要とする。
この目的のために、システムはリジェクションオプションによって拡張され、不許容に低い精度で予測できる入力のみを拒否することができる。
不確実なサンプルを拒絶することは重要であるが、特定のサンプルが拒絶された理由を説明することも重要である。
説明可能なai(xai)の台頭に伴い、機械学習ベースのシステムのための多くの説明方法論が開発されている。
本研究は,XAIコミュニティではまだ広く検討されていない実例に基づく説明手法の例である,半実的説明による拒絶を説明することを提案する。
本稿では,任意の拒否オプションに対する半実的説明の概念モデルを提案し,共形予測に基づく拒否オプションの具体的実装を実証的に評価する。
関連論文リスト
- On Generating Monolithic and Model Reconciling Explanations in Probabilistic Scenarios [46.752418052725126]
本稿では,確率論的モノリシックな説明とモデル整合的な説明を生成するための新しいフレームワークを提案する。
モノリシックな説明のために,本手法は確率論的論理を利用して不確実性を統合し,説明の確率を増大させる。
モデル整合性の説明のために,モデル整合性問題の論理に基づく変種を拡張し,確率的人間モデルを考慮したフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T16:07:31Z) - Logic-based Explanations for Linear Support Vector Classifiers with Reject Option [0.0]
Support Vector (SVC) は線形分類問題に対する機械学習(ML)モデルとしてよく知られている。
本稿では、リジェクションオプション付き線形SVCに対する説明の正確性と最小性に関する形式的保証付き論理ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-24T15:14:44Z) - Identifying Drivers of Predictive Aleatoric Uncertainty [2.5311562666866494]
本稿では,予測的アレタリック不確実性を説明するための簡単なアプローチを提案する。
我々は、ガウス出力分布にニューラルネットワークを適用することにより、不確実性を予測分散として推定する。
我々は、実世界のデータセットを含むニュアンスなベンチマーク分析を用いて、この結果の定量化を行う。
論文 参考訳(メタデータ) (2023-12-12T13:28:53Z) - Sound Explanation for Trustworthy Machine Learning [11.779125616468194]
我々は、入力成分にスコアを割り当てることでブラックボックスモデルを解釈する実践に反対する。
次に,先行研究で非公式に採用された音声説明の概念を定式化する。
本稿では,がん予測モデルにおける特徴選択を音響的説明として応用し,臨床医間の信頼を育む。
論文 参考訳(メタデータ) (2023-06-08T19:58:30Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Model Agnostic Local Explanations of Reject [6.883906273999368]
安全クリティカル領域における機械学習に基づく意思決定システムの応用には,信頼性の高い高精度な予測が必要である。
リジェクションオプションは、システムによってなされる予測の十分な高い確実性を保証する一般的な方法である。
本稿では,解釈可能なモデルと対実的説明を用いて任意の拒否オプションを局所的に説明するためのモデル非依存手法を提案する。
論文 参考訳(メタデータ) (2022-05-16T12:42:34Z) - Explaining Reject Options of Learning Vector Quantization Classifiers [6.125017875330933]
本稿では,機械学習モデルにおけるリジェクトの説明に反事実的説明を用いることを提案する。
重要なモデルのクラスに対して、異なる拒絶オプションの反実的説明を効率的に計算する方法を検討する。
論文 参考訳(メタデータ) (2022-02-15T08:16:10Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。