論文の概要: ViCE: Visual Counterfactual Explanations for Machine Learning Models
- arxiv url: http://arxiv.org/abs/2003.02428v1
- Date: Thu, 5 Mar 2020 04:43:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 06:41:30.160221
- Title: ViCE: Visual Counterfactual Explanations for Machine Learning Models
- Title(参考訳): ViCE: 機械学習モデルのための視覚的対実的説明
- Authors: Oscar Gomez, Steffen Holter, Jun Yuan, Enrico Bertini
- Abstract要約: 本稿では,対話型視覚分析ツールViCEを提案する。
結果が視覚インターフェースに効果的に表示され、そのデータとモデルを探索するための対話的手法が提供される。
- 参考スコア(独自算出の注目度): 13.94542147252982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The continued improvements in the predictive accuracy of machine learning
models have allowed for their widespread practical application. Yet, many
decisions made with seemingly accurate models still require verification by
domain experts. In addition, end-users of a model also want to understand the
reasons behind specific decisions. Thus, the need for interpretability is
increasingly paramount. In this paper we present an interactive visual
analytics tool, ViCE, that generates counterfactual explanations to
contextualize and evaluate model decisions. Each sample is assessed to identify
the minimal set of changes needed to flip the model's output. These
explanations aim to provide end-users with personalized actionable insights
with which to understand, and possibly contest or improve, automated decisions.
The results are effectively displayed in a visual interface where
counterfactual explanations are highlighted and interactive methods are
provided for users to explore the data and model. The functionality of the tool
is demonstrated by its application to a home equity line of credit dataset.
- Abstract(参考訳): 機械学習モデルの予測精度の継続的な改善は、その広範な実践的応用を可能にした。
しかし、一見正確なモデルでなされる多くの決定は、まだドメインの専門家による検証を必要とする。
さらに、モデルのエンドユーザは、特定の意思決定の背後にある理由を理解したいと考えている。
したがって、解釈可能性の必要性はますます高まっている。
本稿では,モデル決定を文脈化・評価するために,反事実的説明を生成するインタラクティブなビジュアル分析ツールであるviceを提案する。
各サンプルは、モデルの出力をひっくり返すのに必要な最小限の変更セットを特定するために評価される。
これらの説明は、エンドユーザーに対して、自動決定を理解し、競合し、改善するためのパーソナライズ可能な洞察を提供することを目的としている。
結果が視覚インターフェースに効果的に表示され, 反実的説明が強調され, ユーザがデータやモデルを探索するための対話的手法が提供される。
このツールの機能は、ホームエクイティの信用データセットへの応用によって実証される。
関連論文リスト
- Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - InterVLS: Interactive Model Understanding and Improvement with Vision-Language Surrogates [18.793275018467163]
ディープラーニングモデルは重要なアプリケーションで広く使われており、事前デプロイモデルの理解と改善の必要性を強調している。
視覚的な概念ベースのメソッドは、この目的のためにますます使われてきているが、(1)ほとんどの概念は解釈可能性に欠け、(2)既存のメソッドはモデル知識を必要とし、しばしば実行時に利用できない。
本稿では,テキストに整合した概念を発見し,モデルに依存しない線形サロゲートによる影響を測定することによって,モデル理解を容易にするInterVLSを提案する。
論文 参考訳(メタデータ) (2023-11-06T21:30:59Z) - AcME -- Accelerated Model-agnostic Explanations: Fast Whitening of the
Machine-Learning Black Box [1.7534486934148554]
解釈可能性のアプローチは、ユーザが待つことなく、実行可能な洞察を提供するべきです。
本稿では,グローバルレベルとローカルレベルの両方で特徴的重要性のスコアを迅速に提供する解釈可能性アプローチである,アクセレーションモデル非依存説明(AcME)を提案する。
AcMEは機能ランキングを計算しますが、機能値の変化がモデル予測にどのように影響するかを評価するために、What-if分析ツールも提供しています。
論文 参考訳(メタデータ) (2021-12-23T15:18:13Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - AdViCE: Aggregated Visual Counterfactual Explanations for Machine
Learning Model Validation [9.996986104171754]
我々は,ブラックボックスモデルデバッグとバリデーションでユーザをガイドすることを目的とした視覚分析ツールであるAdViCEを紹介する。
1) ユーザ定義データサブセットの意思決定の比較を可能にするインタラクティブな可視化,(2) 反現実的説明の計算と視覚化を行うアルゴリズムとビジュアルデザイン。
論文 参考訳(メタデータ) (2021-09-12T22:52:12Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Intuitively Assessing ML Model Reliability through Example-Based
Explanations and Editing Model Inputs [19.09848738521126]
解釈可能性メソッドは、機械学習モデルの能力に対する信頼の構築と理解を支援することを目的とする。
モデル信頼性をより直感的に評価するための2つのインターフェースモジュールを紹介します。
論文 参考訳(メタデータ) (2021-02-17T02:41:32Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - DECE: Decision Explorer with Counterfactual Explanations for Machine
Learning Models [36.50754934147469]
我々は,機械学習モデルの振る舞いを理解し,探索するために,反実的説明の可能性を利用する。
我々は、個別のインスタンスとデータサブセットに関するモデルの判断を理解し、調査するのに役立つインタラクティブな可視化システムであるDECEを設計する。
論文 参考訳(メタデータ) (2020-08-19T09:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。