論文の概要: Interpretable Regional Descriptors: Hyperbox-Based Local Explanations
- arxiv url: http://arxiv.org/abs/2305.02780v1
- Date: Thu, 4 May 2023 12:26:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 15:43:35.942251
- Title: Interpretable Regional Descriptors: Hyperbox-Based Local Explanations
- Title(参考訳): 解釈可能な地域記述子:Hyperboxベースのローカル説明
- Authors: Susanne Dandl, Giuseppe Casalicchio, Bernd Bischl, Ludwig Bothmann
- Abstract要約: この研究は、局所的、モデルに依存しない解釈のための解釈可能な地域記述子(IRD)を導入している。
IRDは、その予測に影響を与えることなく、観察の特徴値をどのように変更できるかを記述するハイパーボックスである。
- 参考スコア(独自算出の注目度): 0.7349727826230864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces interpretable regional descriptors, or IRDs, for local,
model-agnostic interpretations. IRDs are hyperboxes that describe how an
observation's feature values can be changed without affecting its prediction.
They justify a prediction by providing a set of "even if" arguments
(semi-factual explanations), and they indicate which features affect a
prediction and whether pointwise biases or implausibilities exist. A concrete
use case shows that this is valuable for both machine learning modelers and
persons subject to a decision. We formalize the search for IRDs as an
optimization problem and introduce a unifying framework for computing IRDs that
covers desiderata, initialization techniques, and a post-processing method. We
show how existing hyperbox methods can be adapted to fit into this unified
framework. A benchmark study compares the methods based on several quality
measures and identifies two strategies to improve IRDs.
- Abstract(参考訳): この研究は、局所的、モデルに依存しない解釈のために解釈可能な地域記述子(IRD)を導入する。
IRDは、その予測に影響を与えることなく、観察の特徴値をどのように変更できるかを記述するハイパーボックスである。
それらは「たとえ」の議論(半事実的説明)のセットを提供することで予測を正当化し、どの特徴が予測に影響するかを示し、ポイントワイズバイアスまたは不正確性が存在するかを示す。
具体的なユースケースでは、これは機械学習モデラーと意思決定対象の人の両方にとって価値があることを示している。
本稿では,irdの探索を最適化問題として定式化し,デシデラタ,初期化技術,ポストプロセッシング法をカバーするirdの統一フレームワークを提案する。
既存のハイパーボックスメソッドがこの統一フレームワークにどのように適合するかを示す。
ベンチマーク研究では、いくつかの品質指標に基づいて手法を比較し、IRDを改善するための2つの戦略を特定する。
関連論文リスト
- Comprehensive OOD Detection Improvements [46.46252643210326]
このタスクのために、アウト・オブ・ディストリビューション(OOD)検出手法が作成されている。
我々は,時間的高速化と性能向上の両面において,特徴埋め込みの次元的削減を表現ベース手法に適用する。
提案手法の有効性を,OpenOODv1.5ベンチマークフレームワーク上で実証する。
論文 参考訳(メタデータ) (2024-01-18T18:05:35Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Benchmarking Deep Models for Salient Object Detection [67.07247772280212]
汎用SALOD(General SALient Object Detection)ベンチマークを構築し,複数のSOD手法の総合的な比較を行った。
以上の実験では、既存の損失関数は、通常いくつかの指標に特化しているが、他の指標には劣る結果が報告されている。
我々は,深層ネットワークに画素レベルと画像レベルの両方の監視信号を統合することにより,より識別的な特徴を学習するためのエッジ・アウェア・ロス(EA)を提案する。
論文 参考訳(メタデータ) (2022-02-07T03:43:16Z) - Evaluating Explanations for Reading Comprehension with Realistic
Counterfactuals [26.641834518599303]
本稿では,機械読解タスクの説明を評価する手法を提案する。
説明は、現実的な反現実的な入力シナリオのセットに関して、RCモデルのハイレベルな振る舞いを理解することを可能にします。
本分析は,トークンレベルの属性よりもRCに適していることを示す。
論文 参考訳(メタデータ) (2021-04-09T17:55:21Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - MAIRE -- A Model-Agnostic Interpretable Rule Extraction Procedure for
Explaining Classifiers [5.02231401459109]
本稿では,モデルに依存しない人間の解釈可能なルールを抽出し,分類器の出力を説明する新しい枠組みを提案する。
フレームワークはモデル非依存であり、任意の分類器に適用でき、すべての属性(連続、順序、順序なしの離散を含む)を適用できる。
論文 参考訳(メタデータ) (2020-11-03T06:53:06Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。