論文の概要: One Explanation Does Not Fit XIL
- arxiv url: http://arxiv.org/abs/2304.07136v1
- Date: Fri, 14 Apr 2023 14:01:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 13:27:32.086413
- Title: One Explanation Does Not Fit XIL
- Title(参考訳): 1つの説明はXILに合わない
- Authors: Felix Friedrich, David Steinmann, Kristian Kersting
- Abstract要約: 説明対話型機械学習(XIL)フレームワークは,モデルの説明にユーザからのフィードバックを取り入れてモデルを改善するために提案されている。
この作業は、このフレームワークで使用される説明に光を当てています。
- 参考スコア(独自算出の注目度): 16.421253324649555
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current machine learning models produce outstanding results in many areas
but, at the same time, suffer from shortcut learning and spurious correlations.
To address such flaws, the explanatory interactive machine learning (XIL)
framework has been proposed to revise a model by employing user feedback on a
model's explanation. This work sheds light on the explanations used within this
framework. In particular, we investigate simultaneous model revision through
multiple explanation methods. To this end, we identified that \textit{one
explanation does not fit XIL} and propose considering multiple ones when
revising models via XIL.
- Abstract(参考訳): 現在の機械学習モデルは、多くの分野で優れた結果を生み出すが、同時に近道学習と散発的な相関に苦しむ。
このような欠陥に対処するため、モデルの説明にユーザフィードバックを取り入れてモデルを修正するために、説明対話型機械学習(XIL)フレームワークが提案されている。
この作業は、このフレームワークで使用される説明に光を当てています。
特に,複数の説明手法による同時モデル修正について検討する。
この目的のために, textit{one の説明が XIL に合わないことを確認し, XIL によるモデル修正時に複数の説明を検討することを提案する。
関連論文リスト
- Learning to Explain: A Model-Agnostic Framework for Explaining Black Box
Models [9.945345991490624]
本稿では、視覚モデルに対するポストホックな説明を提供するためのモデルに依存しないフレームワークであるLearning to Explain(LTX)を紹介する。
LTXフレームワークは、説明マップを生成する"説明者"モデルを導入し、説明されているモデルの予測を正当化する重要な領域を強調している。
LTXは、様々な指標において、現在の最先端の説明可能性を大幅に上回っていることを実証する。
論文 参考訳(メタデータ) (2023-10-25T12:18:00Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - Multivariate Data Explanation by Jumping Emerging Patterns Visualization [78.6363825307044]
多変量データセットにおけるパターンの識別と視覚的解釈を支援するVAX(multiVariate dAta eXplanation)を提案する。
既存の類似のアプローチとは異なり、VAXはJumping Emerging Patternsという概念を使って、複数の多様化したパターンを特定し、集約し、データ変数のロジックの組み合わせを通して説明を生成する。
論文 参考訳(メタデータ) (2021-06-21T13:49:44Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - MeLIME: Meaningful Local Explanation for Machine Learning Models [2.819725769698229]
我々のアプローチであるMeLIMEは、異なるMLモデル上での他の手法と比較して、より意味のある説明を生成する。
MeLIMEはLIME法を一般化し、より柔軟な摂動サンプリングと異なる局所解釈可能なモデルの使用を可能にした。
論文 参考訳(メタデータ) (2020-09-12T16:06:58Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Counterfactual explanation of machine learning survival models [5.482532589225552]
その結果, 線形制約を伴う標準凸最適化問題に, 逆実説明問題を還元できることが示唆された。
他のブラックボックスモデルでは、よく知られたParticle Swarm Optimizationアルゴリズムを適用することが提案されている。
論文 参考訳(メタデータ) (2020-06-26T19:46:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。