論文の概要: ExMo: Explainable AI Model using Inverse Frequency Decision Rules
- arxiv url: http://arxiv.org/abs/2205.10045v1
- Date: Fri, 20 May 2022 09:36:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 13:34:46.744465
- Title: ExMo: Explainable AI Model using Inverse Frequency Decision Rules
- Title(参考訳): ExMo: 逆周波数決定規則を用いた説明可能なAIモデル
- Authors: Pradip Mainali, Ismini Psychoula, and Fabien A. P. Petitcolas
- Abstract要約: ExMoと呼ばれるより正確な解釈可能な機械学習モデルを構築するための決定ルールを計算するための新しい手法を提案する。
ExMoは、TF-IDF(Term frequency-inverse document frequency)機能を使用して、トレーニングデータから決定ルールを抽出する新しいアプローチを使用している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a novel method to compute decision rules to build a
more accurate interpretable machine learning model, denoted as ExMo. The ExMo
interpretable machine learning model consists of a list of IF...THEN...
statements with a decision rule in the condition. This way, ExMo naturally
provides an explanation for a prediction using the decision rule that was
triggered. ExMo uses a new approach to extract decision rules from the training
data using term frequency-inverse document frequency (TF-IDF) features. With
TF-IDF, decision rules with feature values that are more relevant to each class
are extracted. Hence, the decision rules obtained by ExMo can distinguish the
positive and negative classes better than the decision rules used in the
existing Bayesian Rule List (BRL) algorithm, obtained using the frequent
pattern mining approach. The paper also shows that ExMo learns a qualitatively
better model than BRL. Furthermore, ExMo demonstrates that the textual
explanation can be provided in a human-friendly way so that the explanation can
be easily understood by non-expert users. We validate ExMo on several datasets
with different sizes to evaluate its efficacy. Experimental validation on a
real-world fraud detection application shows that ExMo is 20% more accurate
than BRL and that it achieves accuracy similar to those of deep learning
models.
- Abstract(参考訳): 本稿では,ExMoと呼ばれるより正確な解釈可能な機械学習モデルを構築するための決定ルールの計算方法を提案する。
ExMoの解釈可能な機械学習モデルは、条件に決定ルールのあるIF...THEN...文のリストで構成されている。
このようにして、ExMoは自然に引き起こされた決定ルールを使った予測の説明を提供する。
ExMoは、TF-IDF(Term frequency-inverse document frequency)機能を使用して、トレーニングデータから決定ルールを抽出する新しいアプローチを使用している。
TF-IDFでは、各クラスに関連性の高い特徴値を持つ決定ルールが抽出される。
したがって、ExMoによって得られる決定規則は、頻繁なパターンマイニング手法を用いて得られる既存のベイズルールリスト(BRL)アルゴリズムで用いられる決定規則よりも、正と負のクラスを区別することができる。
論文は、ExMoがBRLよりも質的に優れたモデルを学ぶことも示している。
さらにexmoは、テキストによる説明が人間にやさしい方法で提供され、専門家でないユーザでも簡単に理解できることを実証している。
異なるサイズを持つ複数のデータセット上でExMoを評価し,その有効性を評価する。
実世界の不正検出アプリケーションの実験的検証では、ExMoはBRLよりも20%精度が高く、ディープラーニングモデルと同様の精度が得られる。
関連論文リスト
- CON-FOLD -- Explainable Machine Learning with Confidence [0.18416014644193066]
FOLD-RMは、説明可能な機械学習分類アルゴリズムである。
FOLD-RMを拡張したCON-FOLDを提案する。
本稿では、FOLD-RMルールのユニークな構造を用いて、ルールを効率よくプーンし、過度な適合を防ぐ信頼性ベースのプルーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-14T23:45:21Z) - Enabling Regional Explainability by Automatic and Model-agnostic Rule Extraction [44.23023063715179]
ルール抽出は、疾患の診断、疾患の進行予測、薬物発見などの分野に大きく貢献する可能性がある。
既存のメソッドは、全体のパフォーマンスを最大化するために、マイナークラスのルールのパフォーマンスを損なう。
本稿では,特定のサブグループからルールを抽出するモデルに依存しない手法を提案する。
論文 参考訳(メタデータ) (2024-06-25T18:47:50Z) - MinT: Boosting Generalization in Mathematical Reasoning via Multi-View
Fine-Tuning [53.90744622542961]
数学領域における推論は、小言語モデル(LM)にとって重要な課題である。
多様なアノテーションスタイルで既存の数学的問題データセットを利用する新しい手法を提案する。
実験結果から,LLaMA-7Bモデルが先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-16T05:41:53Z) - Motif-guided Time Series Counterfactual Explanations [1.1510009152620664]
本稿では,ポストホックな反事実的説明を直感的に生成する新しいモデルを提案する。
UCRリポジトリから5つの実世界の時系列データセットを用いてモデルを検証した。
論文 参考訳(メタデータ) (2022-11-08T17:56:50Z) - Scaling Laws Beyond Backpropagation [64.0476282000118]
因果デコーダのみの変換器を効率的に訓練するための直接フィードバックアライメントの有効性について検討した。
DFAはバックプロパゲーションよりも効率的なスケーリングを提供していないことが分かりました。
論文 参考訳(メタデータ) (2022-10-26T10:09:14Z) - FROTE: Feedback Rule-Driven Oversampling for Editing Models [14.112993602274457]
我々は、MLモデルの更新プロセスを迅速化する手段として、ユーザが提供するフィードバックルールに焦点を当てる。
フィードバックルールに応答してMLモデルを編集する前処理トレーニングデータの問題を紹介する。
そこで本研究では,新たなデータ拡張手法であるフィードバックルールに基づくオーバーサンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-01-04T10:16:13Z) - MPLR: a novel model for multi-target learning of logical rules for
knowledge graph reasoning [5.499688003232003]
本研究では,知識グラフに基づく推論のための論理規則の学習問題について検討する。
本稿では,学習データを完全に活用するために既存のモデルを改善するMPLRと呼ばれるモデルを提案する。
実験結果は,MPLRモデルが5つのベンチマークデータセット上で最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-12-12T09:16:00Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Coreference Reasoning in Machine Reading Comprehension [100.75624364257429]
機械読解におけるコレファレンス推論は,従来考えられていたよりも大きな課題である。
本稿では,コア参照推論の課題を反映した理解データセットの読解手法を提案する。
これにより、さまざまなMRCデータセットにまたがる最先端のモデルの推論能力が向上します。
論文 参考訳(メタデータ) (2020-12-31T12:18:41Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。