論文の概要: Explaining Reject Options of Learning Vector Quantization Classifiers
- arxiv url: http://arxiv.org/abs/2202.07244v1
- Date: Tue, 15 Feb 2022 08:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 00:58:07.644379
- Title: Explaining Reject Options of Learning Vector Quantization Classifiers
- Title(参考訳): 学習ベクトル量子化分類器の拒絶オプションの説明
- Authors: Andr\'e Artelt, Johannes Brinkrolf, Roel Visser, Barbara Hammer
- Abstract要約: 本稿では,機械学習モデルにおけるリジェクトの説明に反事実的説明を用いることを提案する。
重要なモデルのクラスに対して、異なる拒絶オプションの反実的説明を効率的に計算する方法を検討する。
- 参考スコア(独自算出の注目度): 6.125017875330933
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While machine learning models are usually assumed to always output a
prediction, there also exist extensions in the form of reject options which
allow the model to reject inputs where only a prediction with an unacceptably
low certainty would be possible. With the ongoing rise of eXplainable AI, a lot
of methods for explaining model predictions have been developed. However,
understanding why a given input was rejected, instead of being classified by
the model, is also of interest. Surprisingly, explanations of rejects have not
been considered so far.
We propose to use counterfactual explanations for explaining rejects and
investigate how to efficiently compute counterfactual explanations of different
reject options for an important class of models, namely prototype-based
classifiers such as learning vector quantization models.
- Abstract(参考訳): 機械学習モデルは、常に予測を出力すると仮定されるが、モデルが許容できない低い確実性のある予測しかできない入力を拒否できる拒否オプションの形で拡張も存在する。
eXplainable AIの台頭に伴い、モデル予測を説明する多くの方法が開発されている。
しかし、なぜ入力がモデルによって分類される代わりに拒否されたのかを理解することも興味深い。
驚いたことに、これまでのところ拒絶の説明は検討されていない。
提案手法は,レジェクトを説明するために反事実的説明を用い,学習ベクトル量子化モデルなどのプロトタイプベースの分類器において,異なるレジェクトオプションの反事実的説明を効率的に計算する方法を検討する。
関連論文リスト
- Selective Explanations [14.312717332216073]
機械学習モデルは、1つの推論だけで特徴属性スコアを予測するために訓練される。
その効率にもかかわらず、償却された説明者は不正確な予測や誤解を招く説明を生み出すことができる。
そこで本稿では,低品質な説明文を生成する際の特徴帰属手法である選択的説明文を提案する。
論文 参考訳(メタデータ) (2024-05-29T23:08:31Z) - Logic-based Explanations for Linear Support Vector Classifiers with Reject Option [0.0]
Support Vector (SVC) は線形分類問題に対する機械学習(ML)モデルとしてよく知られている。
本稿では、リジェクションオプション付き線形SVCに対する説明の正確性と最小性に関する形式的保証付き論理ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-24T15:14:44Z) - Understanding Post-hoc Explainers: The Case of Anchors [6.681943980068051]
本稿では,テキストの判断を説明するために,少数の単語群をハイライトする規則に基づく解釈可能性法の理論解析を行う。
アルゴリズムを定式化し有用な洞察を提供した後、数学的にアンカーが有意義な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-15T17:56:34Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - "Even if ..." -- Diverse Semifactual Explanations of Reject [8.132423340684568]
本稿では,任意の拒否オプションに対する半実的説明の概念モデリングを提案する。
共形予測に基づくリジェクションオプションの具体的実装を実証的に評価する。
論文 参考訳(メタデータ) (2022-07-05T08:53:08Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - A Note on High-Probability versus In-Expectation Guarantees of
Generalization Bounds in Machine Learning [95.48744259567837]
統計的機械学習理論は、しばしば機械学習モデルの一般化を保証するよう試みる。
機械学習モデルのパフォーマンスに関する声明は、サンプリングプロセスを考慮する必要がある。
1つのステートメントを別のステートメントに変換する方法を示します。
論文 参考訳(メタデータ) (2020-10-06T09:41:35Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。