論文の概要: Model-agnostic interpretation by visualization of feature perturbations
- arxiv url: http://arxiv.org/abs/2101.10502v1
- Date: Tue, 26 Jan 2021 00:53:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 19:49:27.360304
- Title: Model-agnostic interpretation by visualization of feature perturbations
- Title(参考訳): 特徴摂動の可視化によるモデル非依存解釈
- Authors: Wilson E. Marc\'ilio-Jr, Danilo M. Eler, Fabr\'icio Breve
- Abstract要約: 粒子群最適化アルゴリズムによって誘導される特徴の摂動を可視化し,モデルに依存しない解釈手法を提案する。
我々は,公開データセットに対して質的かつ定量的にアプローチを検証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretation of machine learning models has become one of the most
important topics of research due to the necessity of maintaining control and
avoid bias in these algorithms. Since many machine learning algorithms are
published every day, there is a need for novel model-agnostic interpretation
approaches that could be used to interpret a great variety of algorithms. One
particularly useful way to interpret machine learning models is to feed
different input data to understand the changes in the prediction. Using such an
approach, practitioners can define relations among patterns of data and a
model's decision. In this work, we propose a model-agnostic interpretation
approach that uses visualization of feature perturbations induced by the
particle swarm optimization algorithm. We validate our approach both
qualitatively and quantitatively on publicly available datasets, showing the
capability to enhance the interpretation of different classifiers while
yielding very stable results if compared with the state of the art algorithms.
- Abstract(参考訳): 機械学習モデルの解釈は、これらのアルゴリズムにおける制御の維持とバイアス回避の必要性から、研究の最も重要なトピックの1つとなっている。
多くの機械学習アルゴリズムが毎日発行されているので、様々なアルゴリズムを解釈するのに使える新しいモデルに依存しない解釈アプローチが必要である。
機械学習モデルを解釈するのに特に有用な方法は、予測の変化を理解するために異なる入力データをフィードすることである。
このようなアプローチを使って、実践者はデータのパターンとモデルの決定との関係を定義することができる。
本研究では,粒子群最適化アルゴリズムによって引き起こされる特徴摂動を可視化するモデル非依存解釈手法を提案する。
本手法は,公開データセット上で定性的かつ定量的に検証し,アートアルゴリズムの状態と比較して非常に安定した結果が得られると同時に,異なる分類器の解釈を強化する能力を示す。
関連論文リスト
- Selecting Interpretability Techniques for Healthcare Machine Learning models [69.65384453064829]
医療では、いくつかの意思決定シナリオにおいて、医療専門家を支援するために解釈可能なアルゴリズムを採用することが追求されている。
本稿では, ポストホックとモデルベースという8つのアルゴリズムを概説する。
論文 参考訳(メタデータ) (2024-06-14T17:49:04Z) - Invariant Causal Mechanisms through Distribution Matching [86.07327840293894]
本研究では、因果的視点と不変表現を学習するための新しいアルゴリズムを提供する。
実験により,このアルゴリズムは様々なタスク群でうまく動作し,特にドメインの一般化における最先端のパフォーマンスを観察する。
論文 参考訳(メタデータ) (2022-06-23T12:06:54Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Interactive slice visualization for exploring machine learning models [0.0]
予測空間のスライスをインタラクティブに可視化し,解釈可能性の低下に対処する。
具体的には,機械学習アルゴリズムのブラックボックスを開放し,モデルの適合性を疑問視し,説明し,検証し,比較する。
論文 参考訳(メタデータ) (2021-01-18T10:47:53Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - Model-Agnostic Explanations using Minimal Forcing Subsets [11.420687735660097]
そこで本研究では,モデル決定に欠かせない最小限のトレーニングサンプルを同定する,モデルに依存しない新しいアルゴリズムを提案する。
本アルゴリズムは,制約付き最適化問題を解くことにより,このような「欠かせない」サンプルの集合を反復的に同定する。
結果から,本アルゴリズムは局所モデルの振る舞いをよりよく理解する上で,効率的かつ容易に記述できるツールであることがわかった。
論文 参考訳(メタデータ) (2020-11-01T22:45:16Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。