論文の概要: SLISEMAP: Explainable Dimensionality Reduction
- arxiv url: http://arxiv.org/abs/2201.04455v1
- Date: Wed, 12 Jan 2022 13:06:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-13 18:07:08.713603
- Title: SLISEMAP: Explainable Dimensionality Reduction
- Title(参考訳): SLISEMAP: 説明可能な次元化
- Authors: Anton Bj\"orklund, Jarmo M\"akel\"a, Kai Puolam\"aki
- Abstract要約: ブラックボックス制御学習モデルの既存の説明方法は、一般に、特定のデータ項目のモデル動作を説明するローカルモデルを構築することで機能する。
本研究では,すべてのデータ項目の局所的な説明を探索し,モデル空間を二次元的に可視化する新しい多様体可視化手法であるSLISEMAPを提案する。
SLISEMAPはブラックボックスの回帰モデルや分類モデルの説明や理解に使用できる高速で安定した可視化を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Existing explanation methods for black-box supervised learning models
generally work by building local models that explain the models behaviour for a
particular data item. It is possible to make global explanations, but the
explanations may have low fidelity for complex models. Most of the prior work
on explainable models has been focused on classification problems, with less
attention on regression.
We propose a new manifold visualization method, SLISEMAP, that at the same
time finds local explanations for all of the data items and builds a
two-dimensional visualization of model space such that the data items explained
by the same model are projected nearby. We provide an open source
implementation of our methods, implemented by using GPU-optimized PyTorch
library. SLISEMAP works both on classification and regression models.
We compare SLISEMAP to most popular dimensionality reduction methods and some
local explanation methods. We provide mathematical derivation of our problem
and show that SLISEMAP provides fast and stable visualizations that can be used
to explain and understand black box regression and classification models.
- Abstract(参考訳): ブラックボックス制御学習モデルの既存の説明方法は、一般に、特定のデータ項目のモデル動作を説明するローカルモデルを構築することで機能する。
グローバルな説明は可能だが、その説明は複雑なモデルに対する忠実度が低い可能性がある。
説明可能なモデルに関する以前の研究のほとんどは、回帰にはあまり関心がなく、分類問題に焦点を当てている。
本稿では,すべてのデータ項目の局所的な説明を同時に見つけ,同じモデルで説明されたデータ項目が近傍に投影されるようなモデル空間の2次元可視化を構築する,新しい多様体可視化手法であるSLISEMAPを提案する。
我々は,GPU最適化PyTorchライブラリを用いて実装した手法のオープンソース実装を提供する。
SLISEMAPは分類モデルと回帰モデルの両方で動作する。
slisemap と最も一般的な次元減少法といくつかの局所的説明法を比較した。
この問題の数学的導出を行い,SLISEMAPはブラックボックスの回帰と分類モデルの説明と理解に使用できる高速で安定した可視化を提供することを示す。
関連論文リスト
- Interpretability in Symbolic Regression: a benchmark of Explanatory Methods using the Feynman data set [0.0]
機械学習モデルの解釈可能性は、モデルの精度と同じくらい重要な役割を果たす。
本稿では,回帰モデルを説明するための説明手法を評価するためのベンチマーク手法を提案する。
その結果、シンボリック回帰モデルは、ホワイトボックスモデルやブラックボックスモデルに代わる興味深い選択肢になり得ることが示されている。
論文 参考訳(メタデータ) (2024-04-08T23:46:59Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Streamlining models with explanations in the learning loop [0.0]
いくつかの説明可能なAIメソッドにより、機械学習ユーザーはブラックボックスモデルの分類プロセスに関する洞察を得ることができる。
この情報を利用して機能エンジニアリングフェーズを設計し、説明と機能バリューを組み合わせる。
論文 参考訳(メタデータ) (2023-02-15T16:08:32Z) - The Manifold Hypothesis for Gradient-Based Explanations [55.01671263121624]
勾配に基づく説明アルゴリズムは知覚的に整合した説明を提供する。
特徴属性がデータの接する空間と一致しているほど、知覚的に一致している傾向にあることを示す。
説明アルゴリズムは、その説明をデータ多様体と整合させるよう積極的に努力すべきである。
論文 参考訳(メタデータ) (2022-06-15T08:49:24Z) - GRAPHSHAP: Explaining Identity-Aware Graph Classifiers Through the
Language of Motifs [11.453325862543094]
GraphSHAPは、ID対応グラフ分類器のモチーフベースの説明を提供することができる。
簡単なカーネルが説明スコアを効率的に近似し,説明空間が大きいシナリオで GraphSHAP をスケールできるようにする方法を示す。
実験では,ブラックボックスモデルによって提供される分類が,いくつかのコネクトロミクスパターンによって効果的に説明できることを強調した。
論文 参考訳(メタデータ) (2022-02-17T18:29:30Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Visualising Deep Network's Time-Series Representations [93.73198973454944]
機械学習モデルの普及にもかかわらず、多くの場合、モデルの内部で起きていることに関する洞察のないブラックボックスとして運用される。
本稿では,多次元時系列データの可視化に着目し,この問題に対処する手法を提案する。
高周波在庫市場データセットの実験は、この方法が迅速かつ識別可能な可視化を提供することを示しています。
論文 参考訳(メタデータ) (2021-03-12T09:53:34Z) - Leakage-Adjusted Simulatability: Can Models Generate Non-Trivial
Explanations of Their Behavior in Natural Language? [86.60613602337246]
我々はNL説明を評価するためのリーク調整シミュラビリティ(LAS)指標を提案する。
LASは、どのように説明が直接アウトプットをリークするかを制御しながら、オブザーバがモデルのアウトプットを予測するのに役立つかを計測する。
マルチエージェントゲームとしての説明文生成を行い、ラベルリークをペナライズしながら、シミュラビリティの説明を最適化する。
論文 参考訳(メタデータ) (2020-10-08T16:59:07Z) - MeLIME: Meaningful Local Explanation for Machine Learning Models [2.819725769698229]
我々のアプローチであるMeLIMEは、異なるMLモデル上での他の手法と比較して、より意味のある説明を生成する。
MeLIMEはLIME法を一般化し、より柔軟な摂動サンプリングと異なる局所解釈可能なモデルの使用を可能にした。
論文 参考訳(メタデータ) (2020-09-12T16:06:58Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Explainable Deep Modeling of Tabular Data using TableGraphNet [1.376408511310322]
付加的特徴属性の形で説明可能な予測を生成する新しいアーキテクチャを提案する。
説明可能なモデルはブラックボックスモデルと同じレベルの性能が得られることを示す。
論文 参考訳(メタデータ) (2020-02-12T20:02:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。