論文の概要: AdViCE: Aggregated Visual Counterfactual Explanations for Machine
Learning Model Validation
- arxiv url: http://arxiv.org/abs/2109.05629v1
- Date: Sun, 12 Sep 2021 22:52:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 08:08:56.172658
- Title: AdViCE: Aggregated Visual Counterfactual Explanations for Machine
Learning Model Validation
- Title(参考訳): AdViCE: 機械学習モデル検証のための集合的視覚対実説明
- Authors: Oscar Gomez, Steffen Holter, Jun Yuan, Enrico Bertini
- Abstract要約: 我々は,ブラックボックスモデルデバッグとバリデーションでユーザをガイドすることを目的とした視覚分析ツールであるAdViCEを紹介する。
1) ユーザ定義データサブセットの意思決定の比較を可能にするインタラクティブな可視化,(2) 反現実的説明の計算と視覚化を行うアルゴリズムとビジュアルデザイン。
- 参考スコア(独自算出の注目度): 9.996986104171754
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rapid improvements in the performance of machine learning models have pushed
them to the forefront of data-driven decision-making. Meanwhile, the increased
integration of these models into various application domains has further
highlighted the need for greater interpretability and transparency. To identify
problems such as bias, overfitting, and incorrect correlations, data scientists
require tools that explain the mechanisms with which these model decisions are
made. In this paper we introduce AdViCE, a visual analytics tool that aims to
guide users in black-box model debugging and validation. The solution rests on
two main visual user interface innovations: (1) an interactive visualization
design that enables the comparison of decisions on user-defined data subsets;
(2) an algorithm and visual design to compute and visualize counterfactual
explanations - explanations that depict model outcomes when data features are
perturbed from their original values. We provide a demonstration of the tool
through a use case that showcases the capabilities and potential limitations of
the proposed approach.
- Abstract(参考訳): 機械学習モデルの性能が急速に向上し、データ駆動意思決定の最前線に進出した。
一方、様々なアプリケーションドメインへのこれらのモデルの統合が増加すると、解釈可能性と透明性がさらに高まる必要性が浮き彫りになった。
バイアス、過度な適合、不正確な相関などの問題を識別するために、データサイエンティストはこれらのモデル決定が行われるメカニズムを説明するツールを必要とする。
本稿では,ブラックボックスモデルデバッグとバリデーションのユーザガイドを目的とした視覚分析ツールであるAdViCEを紹介する。
このソリューションは、2つの主要なビジュアルユーザインタフェースの革新を基礎としている:(1)ユーザ定義データサブセットにおける決定の比較を可能にするインタラクティブなビジュアライゼーション設計;(2)データ特徴が元の値から乱れたときにモデルの結果を描写する、反事実的説明を計算し視覚化するためのアルゴリズムとビジュアルデザイン。
提案手法の能力と潜在的な限界を示すユースケースを通じて,ツールのデモンストレーションを行う。
関連論文リスト
- Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - CogCoM: Train Large Vision-Language Models Diving into Details through Chain of Manipulations [61.21923643289266]
カオス・オブ・マニピュレーション(Chain of Manipulations)は、視覚言語モデル(Vision-Language Models)が、エビデンスを段階的に解決するメカニズムである。
トレーニング後、モデルは外部ツールを介さずに、本質的な操作(グラウンド、ズームインなど)を積極的に行うことで、様々な視覚的問題を解決することができる。
トレーニングされたモデルである textbfCogCoM は、4つのカテゴリの9つのベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-02-06T18:43:48Z) - AttributionScanner: A Visual Analytics System for Model Validation with Metadata-Free Slice Finding [29.07617945233152]
データスライス検索は、低パフォーマンスを示すデータセット内のサブグループを特定し解析することで、機械学習(ML)モデルを検証するための新興技術である。
このアプローチは、追加メタデータに対する退屈でコストのかかる要件を含む、重大な課題に直面します。
本稿では,メタデータを含まないデータスライス検索用に設計された,革新的なビジュアルアナリティクス(VA)システムであるAttributionScannerを紹介する。
本システムでは、一般的なモデル動作を含む解釈可能なデータスライスを特定し、属性モザイク設計によりこれらのパターンを可視化する。
論文 参考訳(メタデータ) (2024-01-12T09:17:32Z) - InterVLS: Interactive Model Understanding and Improvement with Vision-Language Surrogates [18.793275018467163]
ディープラーニングモデルは重要なアプリケーションで広く使われており、事前デプロイモデルの理解と改善の必要性を強調している。
視覚的な概念ベースのメソッドは、この目的のためにますます使われてきているが、(1)ほとんどの概念は解釈可能性に欠け、(2)既存のメソッドはモデル知識を必要とし、しばしば実行時に利用できない。
本稿では,テキストに整合した概念を発見し,モデルに依存しない線形サロゲートによる影響を測定することによって,モデル理解を容易にするInterVLSを提案する。
論文 参考訳(メタデータ) (2023-11-06T21:30:59Z) - Towards Better Modeling with Missing Data: A Contrastive Learning-based
Visual Analytics Perspective [7.577040836988683]
データ不足は機械学習(ML)モデリングの課題となる可能性がある。
現在のアプローチは、特徴計算とラベル予測に分類される。
本研究は、観測データに欠落した値でモデル化するコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T13:16:24Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Multivariate Data Explanation by Jumping Emerging Patterns Visualization [78.6363825307044]
多変量データセットにおけるパターンの識別と視覚的解釈を支援するVAX(multiVariate dAta eXplanation)を提案する。
既存の類似のアプローチとは異なり、VAXはJumping Emerging Patternsという概念を使って、複数の多様化したパターンを特定し、集約し、データ変数のロジックの組み合わせを通して説明を生成する。
論文 参考訳(メタデータ) (2021-06-21T13:49:44Z) - Unified Graph Structured Models for Video Understanding [93.72081456202672]
リレーショナル・テンポラル関係を明示的にモデル化するメッセージパッシンググラフニューラルネットワークを提案する。
本手法は,シーン内の関連エンティティ間の関係をより効果的にモデル化できることを示す。
論文 参考訳(メタデータ) (2021-03-29T14:37:35Z) - DECE: Decision Explorer with Counterfactual Explanations for Machine
Learning Models [36.50754934147469]
我々は,機械学習モデルの振る舞いを理解し,探索するために,反実的説明の可能性を利用する。
我々は、個別のインスタンスとデータサブセットに関するモデルの判断を理解し、調査するのに役立つインタラクティブな可視化システムであるDECEを設計する。
論文 参考訳(メタデータ) (2020-08-19T09:44:47Z) - Learning Predictive Representations for Deformable Objects Using
Contrastive Estimation [83.16948429592621]
視覚表現モデルと動的モデルの両方を協調的に最適化する新しい学習フレームワークを提案する。
我々は,標準モデルに基づく学習手法をロープや布の操作スイートで大幅に改善した。
論文 参考訳(メタデータ) (2020-03-11T17:55:15Z) - ViCE: Visual Counterfactual Explanations for Machine Learning Models [13.94542147252982]
本稿では,対話型視覚分析ツールViCEを提案する。
結果が視覚インターフェースに効果的に表示され、そのデータとモデルを探索するための対話的手法が提供される。
論文 参考訳(メタデータ) (2020-03-05T04:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。