論文の概要: On Trustworthy Rule-Based Models and Explanations
- arxiv url: http://arxiv.org/abs/2507.07576v1
- Date: Thu, 10 Jul 2025 09:28:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.338134
- Title: On Trustworthy Rule-Based Models and Explanations
- Title(参考訳): 信頼できるルールベースモデルと説明について
- Authors: Mohamed Siala, Jordi Planes, Joao Marques-Silva,
- Abstract要約: ルールベースMLモデルの不要面の解析アルゴリズムを開発した。
ルールベースのMLモデルを学習するためのよく知られた、広く使われているツールは、1つ以上の負の面を示すルールセットを誘導する、と結論付けている。
- 参考スコア(独自算出の注目度): 3.3398778807255782
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A task of interest in machine learning (ML) is that of ascribing explanations to the predictions made by ML models. Furthermore, in domains deemed high risk, the rigor of explanations is paramount. Indeed, incorrect explanations can and will mislead human decision makers. As a result, and even if interpretability is acknowledged as an elusive concept, so-called interpretable models are employed ubiquitously in high-risk uses of ML and data mining (DM). This is the case for rule-based ML models, which encompass decision trees, diagrams, sets and lists. This paper relates explanations with well-known undesired facets of rule-based ML models, which include negative overlap and several forms of redundancy. The paper develops algorithms for the analysis of these undesired facets of rule-based systems, and concludes that well-known and widely used tools for learning rule-based ML models will induce rule sets that exhibit one or more negative facets.
- Abstract(参考訳): 機械学習(ML)の課題は、MLモデルによる予測に説明を割り当てることである。
また、リスクの高い藩では説明の厳格さが最優先される。
実際、誤った説明は人間の意思決定者を誤解させる可能性がある。
その結果,解釈可能性の概念として認識されたとしても,MLとデータマイニング(DM)の高リスク利用において,いわゆる解釈可能なモデルがユビキタスに採用されている。
これは、決定木、図、集合、リストを含むルールベースのMLモデルのケースである。
本稿では、負の重なり合いといくつかの冗長性を含むルールベースMLモデルの、よく知られた望ましくないファセットについて説明する。
ルールベースシステムのこれらの望ましくないファセットを解析するためのアルゴリズムを開発し、ルールベースのMLモデルを学習するためのよく知られた、広く使われているツールが、1つ以上の負のファセットを示すルールセットを誘導する、と結論付けている。
関連論文リスト
- Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - LLMs for XAI: Future Directions for Explaining Explanations [50.87311607612179]
既存のXAIアルゴリズムを用いて計算した説明の精細化に着目する。
最初の実験とユーザスタディは、LLMがXAIの解釈可能性とユーザビリティを高めるための有望な方法を提供することを示唆している。
論文 参考訳(メタデータ) (2024-05-09T19:17:47Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Logic-Based Explainability in Machine Learning [0.0]
最も成功した機械学習モデルの運用は、人間の意思決定者にとって理解できない。
近年,MLモデルを説明するためのアプローチの開発が試みられている。
本稿では,MLモデルの厳密なモデルに基づく説明を計算するための研究成果について概説する。
論文 参考訳(メタデータ) (2022-10-24T13:43:07Z) - HEX: Human-in-the-loop Explainability via Deep Reinforcement Learning [2.322461721824713]
我々は、機械学習説明可能性(MLX)に対するHEX(Human-in-the-loop Deep reinforcement learning approach)を提案する。
我々の定式化は、基礎となるトレーニングデータではなく、問題となるMLモデルの決定境界を明示的に考慮している。
提案手法は,限られたデータシナリオで使用するために問題となるモデルの決定境界を明示的にキャプチャするHITL MLXポリシーを合成する。
論文 参考訳(メタデータ) (2022-06-02T23:53:40Z) - GAM(e) changer or not? An evaluation of interpretable machine learning
models based on additive model constraints [5.783415024516947]
本稿では,一連の固有解釈可能な機械学習モデルについて検討する。
5つのGAMの予測特性を従来のMLモデルと比較した。
論文 参考訳(メタデータ) (2022-04-19T20:37:31Z) - General Pitfalls of Model-Agnostic Interpretation Methods for Machine
Learning Models [1.025459377812322]
我々は、間違った文脈で解釈技術を使用するなど、機械学習モデル解釈の多くの一般的な落とし穴を強調した。
平均モデル行動を記述するグローバルメソッドの落とし穴に注目するが、個々の予測を説明するローカルメソッドにも多くの落とし穴が適用される。
論文 参考訳(メタデータ) (2020-07-08T14:02:56Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。