論文の概要: DECE: Decision Explorer with Counterfactual Explanations for Machine
Learning Models
- arxiv url: http://arxiv.org/abs/2008.08353v1
- Date: Wed, 19 Aug 2020 09:44:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 09:08:29.608655
- Title: DECE: Decision Explorer with Counterfactual Explanations for Machine
Learning Models
- Title(参考訳): DECE:機械学習モデルのための非現実的説明付き決定エクスプローラー
- Authors: Furui Cheng, Yao Ming, Huamin Qu
- Abstract要約: 我々は,機械学習モデルの振る舞いを理解し,探索するために,反実的説明の可能性を利用する。
我々は、個別のインスタンスとデータサブセットに関するモデルの判断を理解し、調査するのに役立つインタラクティブな可視化システムであるDECEを設計する。
- 参考スコア(独自算出の注目度): 36.50754934147469
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With machine learning models being increasingly applied to various
decision-making scenarios, people have spent growing efforts to make machine
learning models more transparent and explainable. Among various explanation
techniques, counterfactual explanations have the advantages of being
human-friendly and actionable -- a counterfactual explanation tells the user
how to gain the desired prediction with minimal changes to the input. Besides,
counterfactual explanations can also serve as efficient probes to the models'
decisions. In this work, we exploit the potential of counterfactual
explanations to understand and explore the behavior of machine learning models.
We design DECE, an interactive visualization system that helps understand and
explore a model's decisions on individual instances and data subsets,
supporting users ranging from decision-subjects to model developers. DECE
supports exploratory analysis of model decisions by combining the strengths of
counterfactual explanations at instance- and subgroup-levels. We also introduce
a set of interactions that enable users to customize the generation of
counterfactual explanations to find more actionable ones that can suit their
needs. Through three use cases and an expert interview, we demonstrate the
effectiveness of DECE in supporting decision exploration tasks and instance
explanations.
- Abstract(参考訳): 機械学習モデルがさまざまな意思決定シナリオにますます適用されていく中、人々は機械学習モデルをより透明で説明しやすいものにするために、ますます努力を重ねてきた。
さまざまな説明手法の中で、反ファクト的な説明には、人間フレンドリで行動しやすいという利点がある -- 反ファクト的な説明は、入力に最小限の変更を加えて、望ましい予測を得る方法を教えてくれる。
さらに、反事実的説明はモデルの判断に対する効率的なプローブとしても機能する。
本研究では,反事実的説明の可能性を活用し,機械学習モデルの振る舞いを理解し探索する。
我々は、個別のインスタンスやデータサブセットに関するモデルの判断を理解し、探索するのに役立つインタラクティブな可視化システムDECEを設計し、意思決定対象からモデル開発者まで幅広いユーザーをサポートする。
DECEは、インスタンスレベルとサブグループレベルの反実的説明の強みを組み合わせることで、モデル決定の探索的分析を支援する。
また、ユーザによる反事実説明の生成をカスタマイズして、ニーズに合致するアクション可能なものを見つけるための、一連のインタラクションも導入しています。
3つのユースケースと専門家インタビューを通じて、意思決定探索タスクと事例説明を支援する上でのDCEの有効性を実証する。
関連論文リスト
- Diffexplainer: Towards Cross-modal Global Explanations with Diffusion Models [51.21351775178525]
DiffExplainerは、言語ビジョンモデルを活用することで、マルチモーダルなグローバルな説明可能性を実現する新しいフレームワークである。
最適化されたテキストプロンプトに条件付けされた拡散モデルを使用し、クラス出力を最大化する画像を合成する。
生成した視覚的記述の分析により、バイアスと突発的特徴の自動識別が可能になる。
論文 参考訳(メタデータ) (2024-04-03T10:11:22Z) - I-CEE: Tailoring Explanations of Image Classification Models to User
Expertise [13.293968260458962]
I-CEEは,ユーザエキスパートに適した画像分類記述を提供するフレームワークである。
I-CEEは、ユーザの専門知識に依存するサンプルイメージのインフォメーション性をモデル化し、異なるユーザに対して異なるサンプルを生成する。
シミュレーションされたユーザによる実験は、I-CEEがモデルの判断を正確に予測する能力を改善することを示している。
論文 参考訳(メタデータ) (2023-12-19T12:26:57Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Predictability and Comprehensibility in Post-Hoc XAI Methods: A
User-Centered Analysis [6.606409729669314]
ポストホック説明可能性法は、ブラックボックス機械学習モデルの予測を明らかにすることを目的としている。
我々は、LIMEとSHAPの2つの広く使われているツールにおいて、理解性と予測可能性を評価するために、ユーザスタディを実施している。
モデル決定境界付近のサンプルに対して説明を行うと,SHAPの理解度が大幅に低下することがわかった。
論文 参考訳(メタデータ) (2023-09-21T11:54:20Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Explanation as a process: user-centric construction of multi-level and
multi-modal explanations [0.34410212782758043]
本稿では,マルチレベルとマルチモーダルな説明を組み合わせたプロセスベースアプローチを提案する。
私たちは、解釈可能な機械学習アプローチであるインダクティブロジックプログラミングを使用して、理解可能なモデルを学びます。
論文 参考訳(メタデータ) (2021-10-07T19:26:21Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - ViCE: Visual Counterfactual Explanations for Machine Learning Models [13.94542147252982]
本稿では,対話型視覚分析ツールViCEを提案する。
結果が視覚インターフェースに効果的に表示され、そのデータとモデルを探索するための対話的手法が提供される。
論文 参考訳(メタデータ) (2020-03-05T04:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。