論文の概要: Challenging the Performance-Interpretability Trade-off: An Evaluation of Interpretable Machine Learning Models
- arxiv url: http://arxiv.org/abs/2409.14429v1
- Date: Sun, 22 Sep 2024 12:58:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 22:52:52.911280
- Title: Challenging the Performance-Interpretability Trade-off: An Evaluation of Interpretable Machine Learning Models
- Title(参考訳): 性能-解釈可能性トレードオフの整合性:解釈可能な機械学習モデルの評価
- Authors: Sven Kruschel, Nico Hambauer, Sven Weinzierl, Sandra Zilker, Mathias Kraus, Patrick Zschech,
- Abstract要約: 一般化加法モデル(GAM)は、完全に解釈可能でありながら、複雑で非線形なパターンをキャプチャするための有望な特性を提供する。
本研究では、20のベンチマークデータセットの収集に基づいて、7つのGAMの予測性能を7つの機械学習モデルと比較した。
- 参考スコア(独自算出の注目度): 3.3595341706248876
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine learning is permeating every conceivable domain to promote data-driven decision support. The focus is often on advanced black-box models due to their assumed performance advantages, whereas interpretable models are often associated with inferior predictive qualities. More recently, however, a new generation of generalized additive models (GAMs) has been proposed that offer promising properties for capturing complex, non-linear patterns while remaining fully interpretable. To uncover the merits and limitations of these models, this study examines the predictive performance of seven different GAMs in comparison to seven commonly used machine learning models based on a collection of twenty tabular benchmark datasets. To ensure a fair and robust model comparison, an extensive hyperparameter search combined with cross-validation was performed, resulting in 68,500 model runs. In addition, this study qualitatively examines the visual output of the models to assess their level of interpretability. Based on these results, the paper dispels the misconception that only black-box models can achieve high accuracy by demonstrating that there is no strict trade-off between predictive performance and model interpretability for tabular data. Furthermore, the paper discusses the importance of GAMs as powerful interpretable models for the field of information systems and derives implications for future work from a socio-technical perspective.
- Abstract(参考訳): 機械学習は、データ駆動決定サポートを促進するために、すべての認識可能なドメインに浸透している。
性能上の利点が想定されるため、高度なブラックボックスモデルに焦点が当てられることが多いが、解釈可能なモデルは、しばしば劣った予測品質に関連付けられている。
しかし、近年では、完全解釈可能なまま複雑で非線形なパターンをキャプチャするための有望な特性を提供するGAM(Generalized Additive Model)が提案されている。
これらのモデルの利点と限界を明らかにするため、20の表付きベンチマークデータセットの集合に基づく7つの一般的な機械学習モデルと比較して、7つの異なるGAMの予測性能について検討した。
公平かつロバストなモデル比較を保証するため、クロスバリデーションと組み合わせた広範囲なハイパーパラメータ探索を行い、68,500回のモデル実行を実現した。
さらに,本研究では,モデルの視覚的出力を質的に検討し,解釈可能性のレベルを評価する。
これらの結果から,グラフデータに対する予測性能とモデル解釈性の間に厳密なトレードオフがないことを示すことによって,ブラックボックスモデルのみが高い精度を達成できるという誤解を解消する。
さらに,情報システム分野における強力な解釈可能なモデルとしてのGAMの重要性を論じ,社会技術的観点からの今後の研究への示唆を導出する。
関連論文リスト
- Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - PerturBench: Benchmarking Machine Learning Models for Cellular Perturbation Analysis [14.526536510805755]
本稿では,この急速に発展する分野におけるベンチマークの標準化を目的として,単一細胞における摂動の影響を予測するための包括的なフレームワークを提案する。
当社のフレームワークであるPerturBenchには、ユーザフレンドリなプラットフォーム、多様なデータセット、フェアモデル比較のためのメトリクス、詳細なパフォーマンス分析が含まれています。
論文 参考訳(メタデータ) (2024-08-20T07:40:20Z) - Corpus Considerations for Annotator Modeling and Scaling [9.263562546969695]
一般的に使われているユーザトークンモデルは、より複雑なモデルよりも一貫して優れています。
以上の結果から,コーパス統計とアノテータモデリング性能の関係が明らかになった。
論文 参考訳(メタデータ) (2024-04-02T22:27:24Z) - Predictive Churn with the Set of Good Models [64.05949860750235]
近似機械学習モデルの集合に対する競合予測の効果について検討する。
ラーショモン集合内のモデル間の係り受けに関する理論的結果を示す。
当社のアプローチは、コンシューマ向けアプリケーションにおいて、より予測し、削減し、混乱を避けるためにどのように使用できるかを示します。
論文 参考訳(メタデータ) (2024-02-12T16:15:25Z) - Data-efficient Large Vision Models through Sequential Autoregression [58.26179273091461]
限られたデータセットに基づいて,効率的な自己回帰に基づく視覚モデルを構築する。
このモデルは,高レベル・低レベルのセマンティック理解の両方にまたがる視覚的タスクにおいて,その習熟度をいかに達成するかを実証する。
我々の経験的評価は、モデルが様々なタスクに適応する際の機敏さを強調し、パラメータフットプリントの大幅な削減を図った。
論文 参考訳(メタデータ) (2024-02-07T13:41:53Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - Interpretable Models Capable of Handling Systematic Missingness in
Imbalanced Classes and Heterogeneous Datasets [0.0]
解釈可能な機械学習技術の医療データセットへの応用は、データのより深い洞察を得るとともに、早期かつ迅速な診断を容易にする。
医療データセットは、異種測定、サンプルサイズが制限された不均衡クラス、欠落データなどの一般的な問題に直面している。
本稿では,これらの問題に対処可能なプロトタイプベース (PB) 解釈モデル群を提案する。
論文 参考訳(メタデータ) (2022-06-04T20:20:39Z) - GAM(e) changer or not? An evaluation of interpretable machine learning
models based on additive model constraints [5.783415024516947]
本稿では,一連の固有解釈可能な機械学習モデルについて検討する。
5つのGAMの予測特性を従来のMLモデルと比較した。
論文 参考訳(メタデータ) (2022-04-19T20:37:31Z) - Comparing Test Sets with Item Response Theory [53.755064720563]
我々は,18の事前学習トランスフォーマーモデルから予測した29のデータセットを個別のテスト例で評価した。
Quoref、HellaSwag、MC-TACOは最先端のモデルを区別するのに最適である。
また、QAMRやSQuAD2.0のようなQAデータセットに使用されるスパン選択タスク形式は、強いモデルと弱いモデルとの差別化に有効である。
論文 参考訳(メタデータ) (2021-06-01T22:33:53Z) - Models, Pixels, and Rewards: Evaluating Design Trade-offs in Visual
Model-Based Reinforcement Learning [109.74041512359476]
視覚的MBRLアルゴリズムにおける予測モデルの設計決定について検討する。
潜在空間の使用など、しばしば重要と見なされる設計上の決定は、タスクのパフォーマンスにはほとんど影響しないことが分かりました。
我々は,この現象が探索とどのように関係しているか,および標準ベンチマークにおける下位スコーリングモデルのいくつかが,同じトレーニングデータでトレーニングされた場合のベストパフォーマンスモデルと同等の性能を発揮するかを示す。
論文 参考訳(メタデータ) (2020-12-08T18:03:21Z) - Comparative Study of Language Models on Cross-Domain Data with Model
Agnostic Explainability [0.0]
この研究は、最先端の言語モデルであるBERT、ELECTRAとその派生品であるRoBERTa、ALBERT、DistilBERTを比較した。
実験結果は、2013年の格付けタスクとフィナンシャル・フレーズバンクの感情検出タスクの69%、そして88.2%の精度で、新たな最先端の「評価タスク」を確立した。
論文 参考訳(メタデータ) (2020-09-09T04:31:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。