論文の概要: Metafeatures-based Rule-Extraction for Classifiers on Behavioral and
Textual Data
- arxiv url: http://arxiv.org/abs/2003.04792v3
- Date: Thu, 4 Mar 2021 12:15:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 20:37:23.699347
- Title: Metafeatures-based Rule-Extraction for Classifiers on Behavioral and
Textual Data
- Title(参考訳): 行動・テキストデータに基づく分類器のメタ特徴に基づく規則抽出
- Authors: Yanou Ramon, David Martens, Theodoros Evgeniou, Stiene Praet
- Abstract要約: 複雑な「ブラックボックス」モデルの予測精度とグローバルな説明可能性を組み合わせるために、ルール抽出手法が提案されている。
我々は,より高度な,よりスパースなメタファに基づくルール抽出手法を開発し,検証する。
我々の分析の鍵となる発見は、メタフェースに基づく説明がブラックボックス予測モデルの振る舞いを模倣するのに優れていることである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models on behavioral and textual data can result in highly
accurate prediction models, but are often very difficult to interpret.
Rule-extraction techniques have been proposed to combine the desired predictive
accuracy of complex "black-box" models with global explainability. However,
rule-extraction in the context of high-dimensional, sparse data, where many
features are relevant to the predictions, can be challenging, as replacing the
black-box model by many rules leaves the user again with an incomprehensible
explanation. To address this problem, we develop and test a rule-extraction
methodology based on higher-level, less-sparse metafeatures. A key finding of
our analysis is that metafeatures-based explanations are better at mimicking
the behavior of the black-box prediction model, as measured by the fidelity of
explanations.
- Abstract(参考訳): 行動データとテキストデータの機械学習モデルは、非常に正確な予測モデルをもたらすが、しばしば解釈するのが非常に困難である。
複雑な「ブラックボックス」モデルの予測精度とグローバルな説明可能性を組み合わせたルール抽出手法が提案されている。
しかし,多くの特徴が予測に関係している高次元スパースデータのコンテキストにおけるルール抽出は,ブラックボックスモデルを多くのルールで置き換えることによって,ユーザを理解不能な説明に戻すため,困難である。
この問題に対処するため,我々は,高レベルで低スパースなメタ機能に基づく規則抽出手法を開発し,テストする。
分析の鍵となる発見は、説明の忠実性によって測定されるように、メタ特徴に基づく説明がブラックボックス予測モデルの振る舞いを模倣するのに役立つことである。
関連論文リスト
- Interpretability in Symbolic Regression: a benchmark of Explanatory Methods using the Feynman data set [0.0]
機械学習モデルの解釈可能性は、モデルの精度と同じくらい重要な役割を果たす。
本稿では,回帰モデルを説明するための説明手法を評価するためのベンチマーク手法を提案する。
その結果、シンボリック回帰モデルは、ホワイトボックスモデルやブラックボックスモデルに代わる興味深い選択肢になり得ることが示されている。
論文 参考訳(メタデータ) (2024-04-08T23:46:59Z) - Supervised Feature Compression based on Counterfactual Analysis [3.2458225810390284]
本研究は,事前学習したブラックボックスモデルの重要な決定境界を検出するために,非現実的説明を活用することを目的としている。
離散化されたデータセットを使用して、ブラックボックスモデルに似た最適な決定木をトレーニングすることができるが、解釈可能でコンパクトである。
論文 参考訳(メタデータ) (2022-11-17T21:16:14Z) - Deep Explainable Learning with Graph Based Data Assessing and Rule
Reasoning [4.369058206183195]
本稿では、ノイズハンドリングにおけるディープモデルの利点とエキスパートルールに基づく解釈可能性を組み合わせたエンドツーエンドのディープ・ツー・エンドのディープ・説明可能な学習手法を提案する。
提案手法は, 工業生産システムにおいて, 予測精度に匹敵し, より高い一般化安定性, より優れた解釈可能性を示す。
論文 参考訳(メタデータ) (2022-11-09T05:58:56Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Model extraction from counterfactual explanations [68.8204255655161]
本稿では, 敵が反実的説明によって提供された情報を利用して, 高精度かつ高精度なモデル抽出攻撃を構築する方法を示す。
我々の攻撃は、敵が相手モデルの忠実なコピーを、その偽説明にアクセスして作成することを可能にする。
論文 参考訳(メタデータ) (2020-09-03T19:02:55Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z) - An interpretable neural network model through piecewise linear
approximation [7.196650216279683]
本稿では,線形成分と非線形成分を組み合わせたハイブリッド解釈モデルを提案する。
第1のコンポーネントは、モデルの表現性を高めるために、一括線形近似による明示的な特徴貢献を記述する。
他のコンポーネントは多層パーセプトロンを使用して特徴相互作用と暗黙の非線形性をキャプチャし、予測性能を向上させる。
論文 参考訳(メタデータ) (2020-01-20T14:32:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。