論文の概要: EvoXplain: When Machine Learning Models Agree on Predictions but Disagree on Why -- Measuring Mechanistic Multiplicity Across Training Runs
- arxiv url: http://arxiv.org/abs/2512.22240v1
- Date: Tue, 23 Dec 2025 18:34:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:29.923247
- Title: EvoXplain: When Machine Learning Models Agree on Predictions but Disagree on Why -- Measuring Mechanistic Multiplicity Across Training Runs
- Title(参考訳): EvoXplain: マシンラーニングモデルが予測に固執する一方で,理由に関する誤解 – トレーニング実行全体でのメカニスティックなマルチプライオリティの測定
- Authors: Chama Bensmail,
- Abstract要約: EvoXplainは、反復トレーニングにおけるモデル説明の安定性を計測する診断フレームワークである。
EvoXplain on the Breast Cancer and COMPAS datasets using two wide deployed model class: Logistic Regression and Random Forests。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models are primarily judged by predictive performance, especially in applied settings. Once a model reaches high accuracy, its explanation is often assumed to be correct and trustworthy. However, this assumption raises an overlooked question: when two models achieve high accuracy, do they rely on the same internal logic, or do they reach the same outcome via different -- and potentially competing -- mechanisms? We introduce EvoXplain, a diagnostic framework that measures the stability of model explanations across repeated training. Rather than analysing a single trained model, EvoXplain treats explanations as samples drawn from the stochastic optimisation process itself -- without aggregating predictions or constructing ensembles -- and examines whether these samples form a single coherent explanation or separate into multiple, distinct explanatory modes. We evaluate EvoXplain on the Breast Cancer and COMPAS datasets using two widely deployed model classes: Logistic Regression and Random Forests. Although all models achieve high predictive accuracy, their explanations frequently exhibit clear multimodality. Even models commonly assumed to be stable, such as Logistic Regression, can produce multiple well-separated explanatory basins under repeated training on the same data split. These differences are not explained by hyperparameter variation or simple performance trade-offs. EvoXplain does not attempt to select a 'correct' explanation. Instead, it makes explanatory instability visible and quantifiable, revealing when single-instance or averaged explanations obscure the existence of multiple underlying mechanisms. More broadly, EvoXplain reframes interpretability as a property of a model class under repeated instantiation, rather than of any single trained model.
- Abstract(参考訳): 機械学習モデルは、主に予測性能、特に応用された設定で判断される。
モデルが高い精度に達すると、その説明はしばしば正確で信頼できると仮定される。
2つのモデルが高い精度を達成した場合、それらは同じ内部ロジックに依存しているのか、それとも異なる-そして潜在的に競合する-メカニズムを介して同じ結果に達するのか?
EvoXplainは、反復トレーニングにおけるモデル説明の安定性を計測する診断フレームワークである。
単一のトレーニングモデルを分析するのではなく、EvoXplain氏は、確率的最適化プロセス自体から引き出されたサンプルとして、予測を集約したり、アンサンブルを構築することなく、説明を扱い、これらのサンプルが単一の一貫性のある説明を形成するか、あるいは複数の説明モードに分離するかを調べる。
EvoXplain on the Breast Cancer and COMPAS datasets using two wide deployed model class: Logistic Regression and Random Forests。
すべてのモデルは高い予測精度を達成するが、それらの説明はしばしば明確な多モード性を示す。
ロジスティック回帰(英語版)のような、一般に安定であると仮定されるモデルでさえ、同じデータ分割の繰り返しトレーニングの下で複数のよく分断された説明的盆地を生成することができる。
これらの違いは、ハイパーパラメータの変化や単純なパフォーマンストレードオフによって説明されません。
EvoXplainは'正しい'説明を選択しようとはしない。
その代わり、説明的不安定性を可視化し、定量化し、単一インスタンスや平均的な説明が複数の基盤となるメカニズムの存在を曖昧にする場合を明らかにする。
より広範に、EvoXplainは、単一のトレーニングされたモデルではなく、繰り返しインスタンス化されたモデルクラスのプロパティとして、解釈可能性を再設定する。
関連論文リスト
- On Arbitrary Predictions from Equally Valid Models [49.56463611078044]
モデル多重性(英: Model multiplicity)とは、同じ患者に対して矛盾する予測を認める複数の機械学習モデルを指す。
たとえ小さなアンサンブルであっても、実際は予測的多重性を緩和・緩和できることを示す。
論文 参考訳(メタデータ) (2025-07-25T16:15:59Z) - Information-Theoretic Framework for Understanding Modern Machine-Learning [4.435094091999926]
本稿では,学習をログ損失下での普遍的な予測とみなす情報理論フレームワークを提案する。
成功するアーキテクチャは幅広い複雑さの範囲を持ち、高度に過度にパラメータ化されたモデルクラスでの学習を可能にしている、と我々は主張する。
この枠組みは、誘導バイアスの役割、降下勾配の効果、および平坦なミニマのような現象に光を当てている。
論文 参考訳(メタデータ) (2025-06-09T11:32:31Z) - Interpretability in Symbolic Regression: a benchmark of Explanatory Methods using the Feynman data set [0.0]
機械学習モデルの解釈可能性は、モデルの精度と同じくらい重要な役割を果たす。
本稿では,回帰モデルを説明するための説明手法を評価するためのベンチマーク手法を提案する。
その結果、シンボリック回帰モデルは、ホワイトボックスモデルやブラックボックスモデルに代わる興味深い選択肢になり得ることが示されている。
論文 参考訳(メタデータ) (2024-04-08T23:46:59Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Why do classifier accuracies show linear trends under distribution
shift? [58.40438263312526]
あるデータ分布上のモデルの精度は、別の分布上の精度のほぼ線形関数である。
2つのモデルが予測で一致する確率は、精度レベルだけで推測できるものよりも高いと仮定します。
分布シフトの大きさが大きければ, 2 つの分布のモデルを評価する場合, 線形傾向が生じなければならない。
論文 参考訳(メタデータ) (2020-12-31T07:24:30Z) - A Note on High-Probability versus In-Expectation Guarantees of
Generalization Bounds in Machine Learning [95.48744259567837]
統計的機械学習理論は、しばしば機械学習モデルの一般化を保証するよう試みる。
機械学習モデルのパフォーマンスに関する声明は、サンプリングプロセスを考慮する必要がある。
1つのステートメントを別のステートメントに変換する方法を示します。
論文 参考訳(メタデータ) (2020-10-06T09:41:35Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Are Visual Explanations Useful? A Case Study in Model-in-the-Loop
Prediction [49.254162397086006]
画像に基づく年齢予測課題における視覚的満足度に基づく説明について検討する。
モデル予測の提示により,人間の精度が向上することが判明した。
しかし、様々な種類の説明は、人間の正確さやモデルの信頼を著しく変えることができない。
論文 参考訳(メタデータ) (2020-07-23T20:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。