論文の概要: A Comparative Analysis of Interpretable Machine Learning Methods
- arxiv url: http://arxiv.org/abs/2601.00428v1
- Date: Thu, 01 Jan 2026 18:39:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.444017
- Title: A Comparative Analysis of Interpretable Machine Learning Methods
- Title(参考訳): 解釈可能な機械学習手法の比較分析
- Authors: Mattia Billa, Giovanni Orlandi, Veronica Guidetti, Federica Mandreoli,
- Abstract要約: 近年、機械学習は医療、金融、法律など、幅広い分野に広く採用されている。
信頼の高まりは、モデルの解釈可能性や説明責任に関する懸念を増している。
- 参考スコア(独自算出の注目度): 0.13854111346209866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, Machine Learning (ML) has seen widespread adoption across a broad range of sectors, including high-stakes domains such as healthcare, finance, and law. This growing reliance has raised increasing concerns regarding model interpretability and accountability, particularly as legal and regulatory frameworks place tighter constraints on using black-box models in critical applications. Although interpretable ML has attracted substantial attention, systematic evaluations of inherently interpretable models, especially for tabular data, remain relatively scarce and often focus primarily on aggregated performance outcomes. To address this gap, we present a large-scale comparative evaluation of 16 inherently interpretable methods, ranging from classical linear models and decision trees to more recent approaches such as Explainable Boosting Machines (EBMs), Symbolic Regression (SR), and Generalized Optimal Sparse Decision Trees (GOSDT). Our study spans 216 real-world tabular datasets and goes beyond aggregate rankings by stratifying performance according to structural dataset characteristics, including dimensionality, sample size, linearity, and class imbalance. In addition, we assess training time and robustness under controlled distributional shifts. Our results reveal clear performance hierarchies, especially for regression tasks, where EBMs consistently achieve strong predictive accuracy. At the same time, we show that performance is highly context-dependent: SR and Interpretable Generalized Additive Neural Networks (IGANNs) perform particularly well in non-linear regimes, while GOSDT models exhibit pronounced sensitivity to class imbalance. Overall, these findings provide practical guidance for practitioners seeking a balance between interpretability and predictive performance, and contribute to a deeper empirical understanding of interpretable modeling for tabular data.
- Abstract(参考訳): 近年、機械学習(ML)は、医療、金融、法律など、幅広い分野に広く採用されている。
この依存度の増加は、モデル解釈可能性と説明責任に関する懸念を増大させており、特に法律および規制フレームワークは、重要なアプリケーションでブラックボックスモデルを使用することに厳しい制約を課している。
解釈可能なMLはかなり注目されているが、本質的に解釈可能なモデルの体系的評価、特に表計算データについては、比較的少ないままであり、主に集約されたパフォーマンス結果に焦点を当てることが多い。
このギャップに対処するため,古典線形モデルや決定木から,説明可能なブースティングマシン (EBM) や記号回帰 (SR) ,一般化された最適スパース決定木 (GOSDT) といった,より最近のアプローチまで,16の本質的に解釈可能な手法を大規模に比較検討した。
本研究は,216個の実世界の表型データセットにまたがって,次元性,サンプルサイズ,線形性,クラス不均衡といった構造的データセット特性に応じて,評価を階層化する。
さらに,制御された分散シフト下でのトレーニング時間とロバスト性を評価する。
以上の結果から,特に回帰タスクにおいて,ESMが常に高い予測精度を達成できる性能階層が明らかとなった。
SR と Interpretable Generalized Additive Neural Networks (IGANN) は非線形状態において特によく機能し、GOSDT モデルはクラス不均衡に対する感受性を示す。
これらの知見は,解釈可能性と予測性能のバランスを求める実践者に対して実践的なガイダンスを提供し,表型データに対する解釈可能なモデリングのより深い経験的理解に寄与する。
関連論文リスト
- How and Why LLMs Generalize: A Fine-Grained Analysis of LLM Reasoning from Cognitive Behaviors to Low-Level Patterns [51.02752099869218]
大きな言語モデル(LLM)は、非常に異なる一般化の振る舞いを示す。
推論を原子核スキルに分解する新しいベンチマークを導入する。
SFTモデルはよりシャープなドリフトと表面パターンへの過度な適合を示すのに対し、RL型モデルはより安定した行動プロファイルを維持し、推論スキルの崩壊に抵抗することを示す。
論文 参考訳(メタデータ) (2025-12-30T08:16:20Z) - Generalization and Feature Attribution in Machine Learning Models for Crop Yield and Anomaly Prediction in Germany [0.0]
本研究では,ドイツのNUTS-3領域における収量予測と収量異常の予測に使用される機械学習モデルの一般化性能と解釈可能性について検討した。
高品質な長期データセットを用いて、アンサンブルツリーモデルとディープラーニングアプローチの評価と時間的検証の挙動を体系的に比較した。
テストセットの精度は高いが、時間的検証性能の弱いモデルでも、信頼性の高いSHAP特徴値が得られる。
論文 参考訳(メタデータ) (2025-12-17T07:01:47Z) - Advancing Text Classification with Large Language Models and Neural Attention Mechanisms [11.31737492247233]
このフレームワークには、テキストエンコーディング、コンテキスト表現モデリング、注意に基づく拡張、分類予測が含まれる。
その結果,提案手法はすべての指標において既存モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-12-10T09:18:41Z) - Comparison of generalised additive models and neural networks in applications: A systematic review [1.1775939485654978]
一般化付加モデル(GAM)とニューラルネットワークは、解釈可能性を保持する最先端の統計モデルである。
我々は,GAMとニューラルネットワークの実証的な比較を行った論文を体系的にレビューする。
データセット全体では、GAMやニューラルネットワークで優位性を示す一貫した証拠は見つからなかった。
このレビューでは、GAMとニューラルネットワークは補完的な競合と見なされるべきである、と強調する。
論文 参考訳(メタデータ) (2025-10-28T16:28:42Z) - Interpretable Credit Default Prediction with Ensemble Learning and SHAP [3.948008559977866]
本研究では、信用デフォルト予測の問題に焦点をあて、機械学習に基づくモデリングフレームワークを構築し、様々な主流分類アルゴリズムの比較実験を行う。
その結果、アンサンブル学習法は、特に特徴とデータ不均衡問題の間の複雑な非線形関係を扱う際に、予測性能に明らかな利点があることが示唆された。
外部クレジットスコア変数はモデル決定において主要な役割を担い、モデルの解釈可能性と実用的な応用価値を改善するのに役立ちます。
論文 参考訳(メタデータ) (2025-05-27T07:23:22Z) - Optimizing Sequential Recommendation Models with Scaling Laws and Approximate Entropy [104.48511402784763]
SRモデルの性能法則は,モデルの性能とデータ品質の関係を理論的に調査し,モデル化することを目的としている。
データ品質を評価するために、従来のデータ量メトリクスと比較して、より曖昧なアプローチを示すために、近似エントロピー(ApEn)を提案する。
論文 参考訳(メタデータ) (2024-11-30T10:56:30Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Boosted Control Functions: Distribution generalization and invariance in confounded models [10.503777692702952]
非線形で非同定可能な構造関数が存在する場合でも分布の一般化を可能にする不変性という強い概念を導入する。
フレキシブルな機械学習手法を用いて,ブースト制御関数(BCF)を推定する制御Twicingアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-09T15:43:46Z) - How robust are pre-trained models to distribution shift? [82.08946007821184]
自己教師付き学習(SSL)と自己エンコーダベースモデル(AE)の相互関係が相互関係に与える影響を示す。
本研究では, 線形ヘッドの潜在バイアスから事前学習したモデルの性能を分離するために, アウト・オブ・ディストリビューション(OOD)データに基づいて訓練された線形ヘッドを用いた新しい評価手法を開発した。
論文 参考訳(メタデータ) (2022-06-17T16:18:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。