論文の概要: On the Limits of Interpretable Machine Learning in Quintic Root Classification
- arxiv url: http://arxiv.org/abs/2602.23467v1
- Date: Thu, 26 Feb 2026 19:53:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.115782
- Title: On the Limits of Interpretable Machine Learning in Quintic Root Classification
- Title(参考訳): クインティックルート分類における解釈可能な機械学習の限界について
- Authors: Rohan Thomas, Majid Bani-Yaghoub,
- Abstract要約: 我々は、決定木、ロジスティック回帰、サポートベクターマシン、ランダムフォレスト、勾配向上、XGBoost、シンボリック回帰、ニューラルネットワークを含む幅広い機械学習モデルをテストする。
評価されたMLモデルが、生係数から離散的、人間解釈可能な数学的ルールを自律的に回復する証拠は見つからない。
これらの結果は、構造化された数学的領域において、解釈容易性は純粋にデータ駆動近似よりも明確な構造的帰納的バイアスを必要とすることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Can Machine Learning (ML) autonomously recover interpretable mathematical structure from raw numerical data? We aim to answer this question using the classification of real-root configurations of polynomials up to degree five as a structured benchmark. We tested an extensive set of ML models, including decision trees, logistic regression, support vector machines, random forest, gradient boosting, XGBoost, symbolic regression, and neural networks. Neural networks achieved strong in-distribution performance on quintic classification using raw coefficients alone (84.3% + or - 0.9% balanced accuracy), whereas decision trees perform substantially worse (59.9% + or - 0.9\%). However, when provided with an explicit feature capturing sign changes at critical points, decision trees match neural performance (84.2% + or - 1.2%) and yield explicit classification rules. Knowledge distillation reveals that this single invariant accounts for 97.5% of the extracted decision structure. Out-of-distribution, data-efficiency, and noise robustness analyses indicate that neural networks learn continuous, data-dependent geometric approximations of the decision boundary rather than recovering scale-invariant symbolic rules. This distinction between geometric approximation and symbolic invariance explains the gap between predictive performance and interpretability observed across models. Although high predictive accuracy is attainable, we find no evidence that the evaluated ML models autonomously recover discrete, human-interpretable mathematical rules from raw coefficients. These results suggest that, in structured mathematical domains, interpretability may require explicit structural inductive bias rather than purely data-driven approximation.
- Abstract(参考訳): 機械学習(ML)は生の数値データから解釈可能な数学的構造を自律的に復元できるか?
我々は, 多項式の実根構成を5次まで構造化したベンチマークとして分類することで, この問題に答えることを目指している。
我々は、決定木、ロジスティック回帰、サポートベクターマシン、ランダムフォレスト、勾配押し上げ、XGBoost、シンボリック回帰、ニューラルネットワークを含む幅広いMLモデルをテストした。
ニューラルネットワークは、原係数のみ(84.3%+または-0.9%のバランスの取れた精度)を用いたキネティック分類において強い分配性能を達成し、一方決定木は著しく悪化した(59.9%+または-0.9\%)。
しかし、臨界点における符号の変化をキャプチャーする明示的な特徴が提供されると、決定木はニューラルパフォーマンス(84.2%+または1.2%)と一致し、明示的な分類規則が得られる。
知識蒸留により、この単一の不変量は抽出された決定構造の97.5%を占めることが明らかになった。
アウト・オブ・ディストリビューション、データ効率、ノイズロバストネス分析は、ニューラルネットワークがスケール不変の記号規則を回復するのではなく、決定境界の連続的、データ依存的な幾何学的近似を学習していることを示している。
この幾何学的近似と記号的不変性の区別は、モデル間で観測される予測性能と解釈可能性の間のギャップを説明できる。
予測精度は高いが、評価されたMLモデルが生係数から離散的、人間解釈可能な数学的規則を自律的に回復する証拠は見つからない。
これらの結果は、構造化された数学的領域において、解釈容易性は純粋にデータ駆動近似よりも明確な構造的帰納的バイアスを必要とすることを示唆している。
関連論文リスト
- Differentiated Thyroid Cancer Recurrence Classification Using Machine Learning Models and Bayesian Neural Networks with Varying Priors: A SHAP-Based Interpretation of the Best Performing Model [0.0]
甲状腺癌のDTC再発は主要な公衆衛生上の問題である。
本研究は, 383名の患者を対象としたデータセットを用いて, DTC再分類のための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2025-07-25T06:31:31Z) - Advancing Tabular Stroke Modelling Through a Novel Hybrid Architecture and Feature-Selection Synergy [0.9999629695552196]
本研究は、ストロークを予測するように設計されたデータ駆動型、解釈可能な機械学習フレームワークを開発し、検証する。
定期的に収集された人口統計、生活習慣、臨床変数は4,981件の公的なコホートから得られた。
提案したモデルでは精度97.2%、F1スコア97.15%が達成され、先行する個人モデルと比較して大幅に向上した。
論文 参考訳(メタデータ) (2025-05-18T21:46:45Z) - Interpretable Machine Learning for Kronecker Coefficients [0.0]
解釈可能な機械学習モデルを用いて、対称群のクロネッカー係数がゼロかどうかを予測する。
我々は,約83%の精度を達成し,b-loading の観点から決定関数の明示的な式を導出する。
論文 参考訳(メタデータ) (2025-02-17T13:07:37Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
リッジ回帰に関する最近の結果について統一的な視点を提示する。
我々は、物理とディープラーニングの背景を持つ読者を対象に、ランダム行列理論と自由確率の基本的なツールを使用する。
我々の結果は拡張され、初期のスケーリング法則のモデルについて統一的な視点を提供する。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Trade-Offs of Diagonal Fisher Information Matrix Estimators [53.35448232352667]
Fisher情報行列は、ニューラルネットワークのパラメータ空間の局所幾何学を特徴付けるのに使うことができる。
精度とサンプルの複雑さが関連する分散に依存する2つの人気推定器について検討する。
分散のバウンダリを導出し、回帰と分類のためにニューラルネットワークでそれらをインスタンス化する。
論文 参考訳(メタデータ) (2024-02-08T03:29:10Z) - Automated Learning of Interpretable Models with Quantified Uncertainty [0.0]
我々は遺伝子プログラミングに基づくシンボリックレグレッション(GPSR)の新しい枠組みを導入する。
GPSRはモデルエビデンスを用いて、進化の選択段階における置換確率を定式化する。
従来のGPSR実装と比較して、解釈可能性の向上、ノイズに対する堅牢性の向上、オーバーフィッティングの低減が示されている。
論文 参考訳(メタデータ) (2022-04-12T19:56:42Z) - Active-LATHE: An Active Learning Algorithm for Boosting the Error
Exponent for Learning Homogeneous Ising Trees [75.93186954061943]
我々は、$rho$が少なくとも0.8$である場合に、エラー指数を少なくとも40%向上させるアルゴリズムを設計し、分析する。
我々の分析は、グラフの一部により多くのデータを割り当てるために、微小だが検出可能なサンプルの統計的変動を巧みに活用することに基づいている。
論文 参考訳(メタデータ) (2021-10-27T10:45:21Z) - A cautionary tale on fitting decision trees to data from additive
models: generalization lower bounds [9.546094657606178]
本研究では,異なる回帰モデルに対する決定木の一般化性能について検討する。
これにより、アルゴリズムが新しいデータに一般化するために(あるいは作らない)仮定する帰納的バイアスが引き起こされる。
スパース加法モデルに適合する大規模な決定木アルゴリズムに対して、シャープな2乗誤差一般化を低い境界で証明する。
論文 参考訳(メタデータ) (2021-10-18T21:22:40Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - Instability, Computational Efficiency and Statistical Accuracy [101.32305022521024]
我々は,人口レベルでのアルゴリズムの決定論的収束率と,$n$サンプルに基づく経験的対象に適用した場合の(不安定性)の間の相互作用に基づいて,統計的精度を得るフレームワークを開発する。
本稿では,ガウス混合推定,非線形回帰モデル,情報的非応答モデルなど,いくつかの具体的なモデルに対する一般結果の応用について述べる。
論文 参考訳(メタデータ) (2020-05-22T22:30:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。