論文の概要: Visual Explanations with Attributions and Counterfactuals on Time Series
Classification
- arxiv url: http://arxiv.org/abs/2307.08494v1
- Date: Fri, 14 Jul 2023 10:01:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 13:06:50.623315
- Title: Visual Explanations with Attributions and Counterfactuals on Time Series
Classification
- Title(参考訳): 時系列分類における属性と要因による視覚的説明
- Authors: Udo Schlegel, Daniela Oelke, Daniel A. Keim, Mennatallah El-Assady
- Abstract要約: グローバルな説明とローカルな説明のシームレスな遷移をサポートするビジュアル分析ワークフローを提案する。
グローバルな概要を生成するために、データに局所帰属法を適用し、データセット全体の説明を作成する。
さらに、モデル決定と潜在的なデータエラーを検査するために、What-if分析は仮説生成と検証を容易にする。
- 参考スコア(独自算出の注目度): 15.51135925107216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rising necessity of explainable artificial intelligence (XAI), we
see an increase in task-dependent XAI methods on varying abstraction levels.
XAI techniques on a global level explain model behavior and on a local level
explain sample predictions. We propose a visual analytics workflow to support
seamless transitions between global and local explanations, focusing on
attributions and counterfactuals on time series classification. In particular,
we adapt local XAI techniques (attributions) that are developed for traditional
datasets (images, text) to analyze time series classification, a data type that
is typically less intelligible to humans. To generate a global overview, we
apply local attribution methods to the data, creating explanations for the
whole dataset. These explanations are projected onto two dimensions, depicting
model behavior trends, strategies, and decision boundaries. To further inspect
the model decision-making as well as potential data errors, a what-if analysis
facilitates hypothesis generation and verification on both the global and local
levels. We constantly collected and incorporated expert user feedback, as well
as insights based on their domain knowledge, resulting in a tailored analysis
workflow and system that tightly integrates time series transformations into
explanations. Lastly, we present three use cases, verifying that our technique
enables users to (1)~explore data transformations and feature relevance,
(2)~identify model behavior and decision boundaries, as well as, (3)~the reason
for misclassifications.
- Abstract(参考訳): 説明可能な人工知能(XAI)の必要性が高まる中、様々な抽象化レベルにおいてタスク依存のXAI手法が増加している。
世界レベルでのXAI技術はモデル行動を説明し、局所レベルではサンプル予測を説明する。
我々は,時系列分類における帰属と反事実に注目し,グローバルとローカル間のシームレスな遷移をサポートするビジュアル分析ワークフローを提案する。
特に、従来のデータセット(画像、テキスト)のために開発されたローカルXAI技術(属性)を適用して時系列分類を分析する。
グローバルな概要を生成するために、データに局所帰属法を適用し、データセット全体の説明を作成する。
これらの説明は2次元に投影され、モデルの振る舞いの傾向、戦略、決定境界を描く。
モデルの意思決定と潜在的なデータエラーをさらに検査するため、what-if分析は、グローバルレベルとローカルレベルの両方における仮説生成と検証を容易にする。
専門家のユーザからのフィードバックや、ドメインの知識に基づく洞察を定期的に収集し、組み込んだ結果、時系列変換を説明に密に統合した分析ワークフローとシステムが完成しました。
最後に,データ変換と特徴関連性,(2)モデル動作と決定境界の識別,(3)誤分類の理由の3つのユースケースを提案する。
関連論文リスト
- GM-DF: Generalized Multi-Scenario Deepfake Detection [49.072106087564144]
既存の偽造検出は、通常、単一のドメインでのトレーニングモデルのパラダイムに従う。
本稿では,複数の顔偽造検出データセットを共同で訓練した場合のディープフェイク検出モデルの一般化能力について詳しく検討する。
論文 参考訳(メタデータ) (2024-06-28T17:42:08Z) - Prospector Heads: Generalized Feature Attribution for Large Models & Data [82.02696069543454]
本稿では,説明に基づく帰属手法の効率的かつ解釈可能な代替手段であるプロスペクタヘッドを紹介する。
入力データにおけるクラス固有のパターンの解釈と発見を、プロファイラヘッドがいかに改善できるかを実証する。
論文 参考訳(メタデータ) (2024-02-18T23:01:28Z) - Towards the Visualization of Aggregated Class Activation Maps to Analyse
the Global Contribution of Class Features [0.47248250311484113]
クラスアクティベーションマップ(CAM)は、分類に寄与するデータサンプルの各機能の重要性を視覚化する。
複数のサンプルからCAMを集約し,意味的に構造化されたデータの分類のグローバルな説明を示す。
我々のアプローチでは,分析者が高次元データの重要な特徴を検出し,世界的説明の可視化に基づいてAIモデルに調整を導出することができる。
論文 参考訳(メタデータ) (2023-07-29T11:13:11Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - Decoupling Local and Global Representations of Time Series [38.73548222141307]
本稿では,時系列における大域的・局所的な変動要因の表現を学習するための新しい生成手法を提案する。
実験では,シミュレーションデータ上での真の局所的および大域的変動係数の回復を実証した。
表現を定義する方法の提案は、データモデリングに有用であり、実世界のデータの複雑さに関するより良い洞察をもたらすと信じています。
論文 参考訳(メタデータ) (2022-02-04T17:46:04Z) - Cross-Domain Generalization and Knowledge Transfer in Transformers
Trained on Legal Data [0.0]
異なる型システムで注釈付けされたデータセット間で知識を伝達する事前学習言語モデルの解析を行う。
文がケース決定で果たす修辞的役割の予測は、AI & Lawにおいて重要かつしばしば研究される課題である。
論文 参考訳(メタデータ) (2021-12-15T04:23:14Z) - Unified Instance and Knowledge Alignment Pretraining for Aspect-based
Sentiment Analysis [96.53859361560505]
Aspect-based Sentiment Analysis (ABSA) は、ある側面に対する感情の極性を決定することを目的としている。
事前トレーニングと下流ABSAデータセットの間には、常に深刻なドメインシフトが存在する。
我々は,バニラ・プレトレイン・ファインチューンパイプラインにアライメント事前訓練フレームワークを導入する。
論文 参考訳(メタデータ) (2021-10-26T04:03:45Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - An Information-theoretic Approach to Distribution Shifts [9.475039534437332]
機械学習モデルを現実世界に安全にデプロイすることは、しばしば難しいプロセスである。
特定の地理的位置から得られたデータで訓練されたモデルは、他の場所で得られたデータでクエリされたときに失敗する傾向がある。
集団のサブセットに適合するニューラルネットワークは 選択バイアスを 与えるかもしれない
論文 参考訳(メタデータ) (2021-06-07T16:44:21Z) - Information-theoretic Evolution of Model Agnostic Global Explanations [10.921146104622972]
本論文では,数値・分類データに基づく分類モデルの挙動をグローバルに説明するためのルールを導出する新しいモデル非依存アプローチを提案する。
当社のアプローチは、主要なデジタルマーケティングスイートに展開されています。
論文 参考訳(メタデータ) (2021-05-14T16:52:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。