論文の概要: XStacking: Explanation-Guided Stacked Ensemble Learning
- arxiv url: http://arxiv.org/abs/2507.17650v1
- Date: Wed, 23 Jul 2025 16:14:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:15.075956
- Title: XStacking: Explanation-Guided Stacked Ensemble Learning
- Title(参考訳): XStacking: 説明誘導型スタック型アンサンブル学習
- Authors: Moncef Garouani, Ayah Barhrhouj, Olivier Teste,
- Abstract要約: Ensemble Machine Learning (EML)技術、特に積み重ねは、複数のベースモデルを組み合わせることで予測性能を向上させることが示されている。
XStackingは、動的特徴変換とモデルに依存しないShapley付加的な説明を統合する、効果的で本質的に説明可能なフレームワークである。
筆者らは29のデータセット上でのフレームワークの有効性を実証し,学習空間の予測的有効性および結果のモデルの解釈可能性の向上を図った。
- 参考スコア(独自算出の注目度): 0.6144680854063939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensemble Machine Learning (EML) techniques, especially stacking, have been shown to improve predictive performance by combining multiple base models. However, they are often criticized for their lack of interpretability. In this paper, we introduce XStacking, an effective and inherently explainable framework that addresses this limitation by integrating dynamic feature transformation with model-agnostic Shapley additive explanations. This enables stacked models to retain their predictive accuracy while becoming inherently explainable. We demonstrate the effectiveness of the framework on 29 datasets, achieving improvements in both the predictive effectiveness of the learning space and the interpretability of the resulting models. XStacking offers a practical and scalable solution for responsible ML.
- Abstract(参考訳): Ensemble Machine Learning(EML)技術、特に積み重ねは、複数のベースモデルを組み合わせることで予測性能を改善することが示されている。
しかし、それらは解釈可能性の欠如によってしばしば批判される。
本稿では、モデルに依存しないShapley付加的な説明と動的特徴変換を統合することで、この制限に効果的で本質的に説明可能なフレームワークであるXStackingを紹介する。
これにより、スタックされたモデルは、本質的に説明可能になりながら予測精度を維持することができる。
筆者らは29のデータセット上でのフレームワークの有効性を実証し,学習空間の予測的有効性および結果のモデルの解釈可能性の向上を図った。
XStackingは、責任あるMLのための実用的でスケーラブルなソリューションを提供する。
関連論文リスト
- Accurate predictive model of band gap with selected important features based on explainable machine learning [0.0]
本研究では、置換特徴の重要性やSHapley Additive exPlanationなど、説明可能なML(XML)技術を用いる。
XMLから派生した個々の機能の重要性に導かれ、機能削減予測モデルを構築するためのシンプルなフレームワークが提案されている。
モデル評価は、上位5つの特徴からなるXML誘導型コンパクトモデルが、ドメイン内のデータセット上のプリスタンモデルに匹敵する精度を達成することを示している。
論文 参考訳(メタデータ) (2025-03-06T14:40:21Z) - Enhancing Performance of Explainable AI Models with Constrained Concept Refinement [10.241134756773228]
正確性と解釈可能性のトレードオフは、機械学習(ML)における長年の課題である。
本稿では,概念表現における偏差の影響について検討し,これらの効果を緩和するための新しい枠組みを提案する。
従来の説明可能な手法と比較して,提案手法は様々な大規模ベンチマークにおいてモデル解釈可能性を維持しながら予測精度を向上するだけでなく,計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2025-02-10T18:53:15Z) - Inherently Interpretable Tree Ensemble Learning [7.868733904112288]
浅い決定木をベース学習として使用すると、アンサンブル学習アルゴリズムが本質的に解釈可能であることを示す。
木アンサンブルを固有の解釈可能性を持つ機能的ANOVA表現に変換する解釈アルゴリズムを開発した。
シミュレーションと実世界のデータセットを用いた実験により,提案手法はモデル解釈と予測性能のトレードオフを良くすることを示した。
論文 参考訳(メタデータ) (2024-10-24T18:58:41Z) - Achieving interpretable machine learning by functional decomposition of black-box models into explainable predictor effects [4.3500439062103435]
ブラックボックス予測の関数分解のための新しい手法を提案する。
加法回帰モデルと同様に,本手法は主特徴量の方向と強度に関する洞察を与える。
論文 参考訳(メタデータ) (2024-07-26T10:37:29Z) - DETAIL: Task DEmonsTration Attribution for Interpretable In-context Learning [75.68193159293425]
インコンテキスト学習(ICL)により、トランスフォーマーベースの言語モデルでは、パラメータを更新することなく、いくつかの"タスクデモ"で特定のタスクを学習することができる。
ICLの特徴に対処する影響関数に基づく帰属手法DETAILを提案する。
ホワイトボックスモデルで得られた属性スコアがブラックボックスモデルに転送可能であることを示すことにより、モデル性能を向上させる上で、DETAILの広範な適用性を実験的に証明する。
論文 参考訳(メタデータ) (2024-05-22T15:52:52Z) - Explanation-aware Soft Ensemble Empowers Large Language Model In-context
Learning [50.00090601424348]
大規模言語モデル(LLM)は、様々な自然言語理解タスクにおいて顕著な能力を示している。
我々は,LLMを用いたテキスト内学習を支援するための説明型ソフトアンサンブルフレームワークであるEASEを提案する。
論文 参考訳(メタデータ) (2023-11-13T06:13:38Z) - Increasing Performance And Sample Efficiency With Model-agnostic
Interactive Feature Attributions [3.0655581300025996]
我々は,2つの一般的な説明手法(Occlusion と Shapley の値)に対して,モデルに依存しない実装を提供し,その複雑なモデルにおいて,完全に異なる属性を強制する。
提案手法は,修正された説明に基づいてトレーニングデータセットを増強することで,モデルの性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-28T15:23:28Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。