論文の概要: Aggregate Models, Not Explanations: Improving Feature Importance Estimation
- arxiv url: http://arxiv.org/abs/2602.11760v1
- Date: Thu, 12 Feb 2026 09:36:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.75009
- Title: Aggregate Models, Not Explanations: Improving Feature Importance Estimation
- Title(参考訳): Aggregate Models, not explanations: Improving Feature Importance Estimation
- Authors: Joseph Paillard, Angel Reyero Lobo, Denis A. Engemann, Bertrand Thirion,
- Abstract要約: モデルレベルでのアンサンブルにより、より正確な変数重要度推定が得られることを示す。
これらの知見を古典的ベンチマークおよび英国バイオバンクの大規模プロテオミクスで検証した。
- 参考スコア(独自算出の注目度): 29.82699646128964
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feature-importance methods show promise in transforming machine learning models from predictive engines into tools for scientific discovery. However, due to data sampling and algorithmic stochasticity, expressive models can be unstable, leading to inaccurate variable importance estimates and undermining their utility in critical biomedical applications. Although ensembling offers a solution, deciding whether to explain a single ensemble model or aggregate individual model explanations is difficult due to the nonlinearity of importance measures and remains largely understudied. Our theoretical analysis, developed under assumptions accommodating complex state-of-the-art ML models, reveals that this choice is primarily driven by the model's excess risk. In contrast to prior literature, we show that ensembling at the model level provides more accurate variable-importance estimates, particularly for expressive models, by reducing this leading error term. We validate these findings on classical benchmarks and a large-scale proteomic study from the UK Biobank.
- Abstract(参考訳): 特徴重要度法は、予測エンジンから科学的発見のためのツールに機械学習モデルを変換する際の有望性を示している。
しかし、データサンプリングとアルゴリズム的確率性により、表現的モデルは不安定になり、変数の重要度推定が不正確になり、重要なバイオメディカル応用においてその有用性を損なう。
アンサンブルは解を提供するが、重要度尺度の非線形性のため、単一のアンサンブルモデルを説明するか、個々のモデルを説明するかは決定が難しい。
我々の理論的分析は、複雑な最先端MLモデルに付随する仮定に基づいて開発され、この選択は、主にモデルの過剰なリスクによって引き起こされることを示している。
従来の文献とは対照的に、モデルレベルでのアンサンブルは、特に表現的モデルにおいて、より正確な変数重要度推定を提供する。
これらの知見を古典的ベンチマークおよび英国バイオバンクの大規模プロテオミクスで検証した。
関連論文リスト
- Investigating the Impact of Histopathological Foundation Models on Regressive Prediction of Homologous Recombination Deficiency [52.50039435394964]
回帰に基づくタスクの基礎モデルを体系的に評価する。
我々は5つの最先端基礎モデルを用いて、スライド画像全体(WSI)からパッチレベルの特徴を抽出する。
乳房、子宮内膜、肺がんコホートにまたがるこれらの抽出された特徴に基づいて、連続したRDDスコアを予測するモデルが訓練されている。
論文 参考訳(メタデータ) (2026-01-29T14:06:50Z) - PerturBench: Benchmarking Machine Learning Models for Cellular Perturbation Analysis [8.785345412061792]
摂動に対する単一細胞転写応答をモデル化するための包括的枠組みを提案する。
私たちのアプローチには、モジュラーでユーザフレンドリなモデル開発と評価プラットフォームが含まれています。
モード崩壊など、広く使われているモデルの限界を強調します。
論文 参考訳(メタデータ) (2024-08-20T07:40:20Z) - Exploration of the Rashomon Set Assists Trustworthy Explanations for
Medical Data [4.499833362998488]
本稿では,Rashomon集合におけるモデル探索の新たなプロセスを紹介し,従来のモデリング手法を拡張した。
動作の異なるモデルを検出するために,$textttRashomon_DETECT$アルゴリズムを提案する。
モデル間の変動効果の差を定量化するために,機能的データ解析に基づくプロファイル分散指数(PDI)を導入する。
論文 参考訳(メタデータ) (2023-08-22T13:53:43Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - GAM(e) changer or not? An evaluation of interpretable machine learning
models based on additive model constraints [5.783415024516947]
本稿では,一連の固有解釈可能な機械学習モデルについて検討する。
5つのGAMの予測特性を従来のMLモデルと比較した。
論文 参考訳(メタデータ) (2022-04-19T20:37:31Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。