論文の概要: Model Agnostic Local Explanations of Reject
- arxiv url: http://arxiv.org/abs/2205.07623v1
- Date: Mon, 16 May 2022 12:42:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 19:47:45.541546
- Title: Model Agnostic Local Explanations of Reject
- Title(参考訳): リジェクトのモデル非依存局所説明
- Authors: Andr\'e Artelt, Roel Visser, Barbara Hammer
- Abstract要約: 安全クリティカル領域における機械学習に基づく意思決定システムの応用には,信頼性の高い高精度な予測が必要である。
リジェクションオプションは、システムによってなされる予測の十分な高い確実性を保証する一般的な方法である。
本稿では,解釈可能なモデルと対実的説明を用いて任意の拒否オプションを局所的に説明するためのモデル非依存手法を提案する。
- 参考スコア(独自算出の注目度): 6.883906273999368
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The application of machine learning based decision making systems in safety
critical areas requires reliable high certainty predictions. Reject options are
a common way of ensuring a sufficiently high certainty of predictions made by
the system. While being able to reject uncertain samples is important, it is
also of importance to be able to explain why a particular sample was rejected.
However, explaining general reject options is still an open problem. We propose
a model agnostic method for locally explaining arbitrary reject options by
means of interpretable models and counterfactual explanations.
- Abstract(参考訳): 安全クリティカルな分野における機械学習に基づく意思決定システムの適用には、信頼性の高い確実性予測が必要である。
リジェクションオプションは、システムによってなされる予測の十分な高い確実性を保証する一般的な方法である。
不確実なサンプルを拒絶することは重要であるが、特定のサンプルが拒絶された理由を説明することも重要である。
しかし、一般的な拒絶オプションの説明は依然として未解決の問題である。
解釈可能なモデルと反事実的説明を用いて,任意の拒絶オプションを局所的に説明するためのモデル非依存手法を提案する。
関連論文リスト
- Local Feature Selection without Label or Feature Leakage for Interpretable Machine Learning Predictions [15.811319240038603]
ラベルと特徴リークの概念を定式化することで、ミスリード選択の問題に対処する。
本稿では,SUWRと呼ばれるリークがないことを示す,最初の局所特徴選択手法を提案する。
実験結果から,SUWRは過度に適合する傾向が低く,最先端の予測性能と高い特徴選択間隔を併せ持つことが明らかとなった。
論文 参考訳(メタデータ) (2024-07-16T14:36:30Z) - Logic-based Explanations for Linear Support Vector Classifiers with Reject Option [0.0]
Support Vector (SVC) は線形分類問題に対する機械学習(ML)モデルとしてよく知られている。
本稿では、リジェクションオプション付き線形SVCに対する説明の正確性と最小性に関する形式的保証付き論理ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-24T15:14:44Z) - Identifying Drivers of Predictive Aleatoric Uncertainty [2.5311562666866494]
本稿では,予測的アレタリック不確実性を説明するための簡単なアプローチを提案する。
我々は、ガウス出力分布にニューラルネットワークを適用することにより、不確実性を予測分散として推定する。
我々は、実世界のデータセットを含むニュアンスなベンチマーク分析を用いて、この結果の定量化を行う。
論文 参考訳(メタデータ) (2023-12-12T13:28:53Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Shortcomings of Top-Down Randomization-Based Sanity Checks for
Evaluations of Deep Neural Network Explanations [67.40641255908443]
モデルランダム化に基づく正当性チェックの限界を,説明書の評価のために同定する。
トップダウンモデルランダム化は、フォワードパスアクティベーションのスケールを高い確率で保存する。
論文 参考訳(メタデータ) (2022-11-22T18:52:38Z) - "Even if ..." -- Diverse Semifactual Explanations of Reject [8.132423340684568]
本稿では,任意の拒否オプションに対する半実的説明の概念モデリングを提案する。
共形予測に基づくリジェクションオプションの具体的実装を実証的に評価する。
論文 参考訳(メタデータ) (2022-07-05T08:53:08Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Explaining Reject Options of Learning Vector Quantization Classifiers [6.125017875330933]
本稿では,機械学習モデルにおけるリジェクトの説明に反事実的説明を用いることを提案する。
重要なモデルのクラスに対して、異なる拒絶オプションの反実的説明を効率的に計算する方法を検討する。
論文 参考訳(メタデータ) (2022-02-15T08:16:10Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。