論文の概要: An Interpretable Rule Creation Method for Black-Box Models based on Surrogate Trees -- SRules
- arxiv url: http://arxiv.org/abs/2407.20070v1
- Date: Mon, 29 Jul 2024 14:56:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 13:24:58.392098
- Title: An Interpretable Rule Creation Method for Black-Box Models based on Surrogate Trees -- SRules
- Title(参考訳): 代理木に基づくブラックボックスモデルの解釈可能なルール生成法 -- SRules
- Authors: Mario Parrón Verdasco, Esteban García-Cuesta,
- Abstract要約: 代用決定木(SRules)に基づく新しいルールセット作成手法を提案する。
SRulesは、機械学習モデルの正確性、カバレッジ、解釈可能性のバランスをとる。
我々のアプローチは解釈可能なルールを提供するだけでなく、これらのルールの信頼性とカバレッジを定量化します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As artificial intelligence (AI) systems become increasingly integrated into critical decision-making processes, the need for transparent and interpretable models has become paramount. In this article we present a new ruleset creation method based on surrogate decision trees (SRules), designed to improve the interpretability of black-box machine learning models. SRules balances the accuracy, coverage, and interpretability of machine learning models by recursively creating surrogate interpretable decision tree models that approximate the decision boundaries of a complex model. We propose a systematic framework for generating concise and meaningful rules from these surrogate models, allowing stakeholders to understand and trust the AI system's decision-making process. Our approach not only provides interpretable rules, but also quantifies the confidence and coverage of these rules. The proposed model allows to adjust its parameters to counteract the lack of interpretability by precision and coverage by allowing a near perfect fit and high interpretability of some parts of the model . The results show that SRules improves on other state-of-the-art techniques and introduces the possibility of creating highly interpretable specific rules for specific sub-parts of the model.
- Abstract(参考訳): 人工知能(AI)システムが重要な意思決定プロセスに統合されるにつれて、透明で解釈可能なモデルの必要性が最重要になっている。
本稿では,ブラックボックス機械学習モデルの解釈性向上を目的とした,代用決定木(SRules)に基づく新しいルールセット作成手法を提案する。
SRulesは、複雑なモデルの決定境界を近似する代理的解釈可能な決定木モデルを再帰的に生成することで、機械学習モデルの正確性、カバレッジ、解釈可能性のバランスをとる。
我々は、これらの代理モデルから簡潔で有意義なルールを生成するための体系的なフレームワークを提案し、利害関係者はAIシステムの意思決定プロセスを理解し、信頼することができる。
我々のアプローチは解釈可能なルールを提供するだけでなく、これらのルールの信頼性とカバレッジを定量化します。
提案モデルでは, モデルの一部部分のほぼ完全な適合と高い解釈可能性を実現することにより, 精度とカバレッジによる解釈可能性の欠如に対処するために, パラメータを調整できる。
その結果、SRulesは他の最先端技術を改善し、モデルの特定の部分に対して高度に解釈可能な特定のルールを作成する可能性を示している。
関連論文リスト
- Subgroup Analysis via Model-based Rule Forest [0.0]
モデルベースDeep Rule Forests (mobDRF)は、データから透明なモデルを抽出するために設計された解釈可能な表現学習アルゴリズムである。
高齢者の認知機能低下の要因を明らかにするためにmobDRFを適用し,サブグループ分析と局所モデル最適化の有効性を実証した。
論文 参考訳(メタデータ) (2024-08-27T13:40:15Z) - Towards consistency of rule-based explainer and black box model -- fusion of rule induction and XAI-based feature importance [0.0]
ルールベースのモデルは、人間の理解可能な表現、すなわち解釈可能な表現を提供する。
このような説明の生成には、ルールベースモデルによるブラックボックスモデルの近似が含まれる。
ルールベースモデルが近似したブラックボックスモデルと同じ方法で決定を行うかどうかは、まだ調査されていない。
論文 参考訳(メタデータ) (2024-07-16T07:56:29Z) - SynthTree: Co-supervised Local Model Synthesis for Explainable Prediction [15.832975722301011]
本稿では,最小限の精度で説明可能性を向上させる手法を提案する。
我々は,AI技術を利用してノードを推定する新しい手法を開発した。
我々の研究は、統計的方法論が説明可能なAIを前進させる上で重要な役割を担っている。
論文 参考訳(メタデータ) (2024-06-16T14:43:01Z) - Selecting Interpretability Techniques for Healthcare Machine Learning models [69.65384453064829]
医療では、いくつかの意思決定シナリオにおいて、医療専門家を支援するために解釈可能なアルゴリズムを採用することが追求されている。
本稿では, ポストホックとモデルベースという8つのアルゴリズムを概説する。
論文 参考訳(メタデータ) (2024-06-14T17:49:04Z) - Modeling Boundedly Rational Agents with Latent Inference Budgets [56.24971011281947]
エージェントの計算制約を明示的にモデル化する潜在推論予算モデル(L-IBM)を導入する。
L-IBMは、最適なアクターの多様な集団のデータを使ってエージェントモデルを学ぶことができる。
我々は,L-IBMが不確実性の下での意思決定のボルツマンモデルに適合しているか,あるいは上回っていることを示す。
論文 参考訳(メタデータ) (2023-12-07T03:55:51Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Deep Grey-Box Modeling With Adaptive Data-Driven Models Toward
Trustworthy Estimation of Theory-Driven Models [88.63781315038824]
本稿では,ニューラルネットワークのアーキテクチャとトレーニング目標にわずかな変化を伴って,レギュレータの動作を経験的に分析することのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-24T10:42:26Z) - GAM(e) changer or not? An evaluation of interpretable machine learning
models based on additive model constraints [5.783415024516947]
本稿では,一連の固有解釈可能な機械学習モデルについて検討する。
5つのGAMの予測特性を従来のMLモデルと比較した。
論文 参考訳(メタデータ) (2022-04-19T20:37:31Z) - Recurrence-Aware Long-Term Cognitive Network for Explainable Pattern
Classification [0.0]
構造化データの解釈可能なパターン分類のためのLCCNモデルを提案する。
本手法は, 決定過程における各特徴の関連性を定量化し, 説明を提供する独自のメカニズムを提供する。
解釈可能なモデルでは,最先端の白黒ボックスと比較して競争性能が向上する。
論文 参考訳(メタデータ) (2021-07-07T18:14:50Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。