論文の概要: Performance and Interpretability Comparisons of Supervised Machine
Learning Algorithms: An Empirical Study
- arxiv url: http://arxiv.org/abs/2204.12868v1
- Date: Wed, 27 Apr 2022 12:04:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 13:09:59.950547
- Title: Performance and Interpretability Comparisons of Supervised Machine
Learning Algorithms: An Empirical Study
- Title(参考訳): 教師付き機械学習アルゴリズムの性能と解釈可能性の比較--実証的研究
- Authors: Alice J. Liu, Linwei Hu, Jie Chen, Vijayan Nair
- Abstract要約: 論文は発見に基づく方法で整理され、各セクションが一般的な結論を提供する。
全体として、XGBとFFNNは競争力があり、FFNNはスムーズなモデルでより良いパフォーマンスを示した。
RFは一般には良好に機能せず,文献で確認された。
- 参考スコア(独自算出の注目度): 3.7881729884531805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper compares the performances of three supervised machine learning
algorithms in terms of predictive ability and model interpretation on
structured or tabular data. The algorithms considered were scikit-learn
implementations of extreme gradient boosting machines (XGB) and random forests
(RFs), and feedforward neural networks (FFNNs) from TensorFlow. The paper is
organized in a findings-based manner, with each section providing general
conclusions supported by empirical results from simulation studies that cover a
wide range of model complexity and correlation structures among predictors. We
considered both continuous and binary responses of different sample sizes.
Overall, XGB and FFNNs were competitive, with FFNNs showing better
performance in smooth models and tree-based boosting algorithms performing
better in non-smooth models. This conclusion held generally for predictive
performance, identification of important variables, and determining correct
input-output relationships as measured by partial dependence plots (PDPs).
FFNNs generally had less over-fitting, as measured by the difference in
performance between training and testing datasets. However, the difference with
XGB was often small. RFs did not perform well in general, confirming the
findings in the literature. All models exhibited different degrees of bias seen
in PDPs, but the bias was especially problematic for RFs. The extent of the
biases varied with correlation among predictors, response type, and data set
sample size. In general, tree-based models tended to over-regularize the fitted
model in the tails of predictor distributions. Finally, as to be expected,
performances were better for continuous responses compared to binary data and
with larger samples.
- Abstract(参考訳): 本稿では,構造化データおよび表データに対する予測能力とモデル解釈の観点から,教師あり機械学習アルゴリズム3つの性能を比較する。
アルゴリズムは、scikit-learnによるextreme gradient boosting machines(xgb)とrandom forests(rfs)と、tensorflowのfeedforward neural networks(ffnn)の実装である。
本論文は, モデル複雑性と予測器間の相関構造を広範囲に網羅するシミュレーション研究から, 実験結果に支えられた総合的な結論を各セクションで提示する。
サンプルサイズの異なる連続応答と二分応答の両方を検討した。
全体的に、xgbとffnnは競争力があり、ffnnは滑らかなモデルでパフォーマンスが向上し、木ベースのブースティングアルゴリズムはスムースでないモデルでパフォーマンスが向上した。
この結論は、予測性能、重要な変数の同定、部分依存プロット(pdp)によって測定された正しい入出力関係の決定に一般的に当てはまる。
FFNNは一般的に、トレーニングとテストデータセットのパフォーマンスの違いによって測定されるように、過度に適合しない。
しかし、xgbとの差はしばしば小さくなかった。
RFは一般には良好に機能せず,文献で確認された。
いずれのモデルもPDPで見られるバイアスの程度は異なるが、RFでは特に問題があった。
バイアスの程度は, 予測値, 応答型, データセットのサンプルサイズと相関して変化した。
概して、木に基づくモデルは、予測子分布の尾部で適合したモデルを過度に正規化する傾向があった。
最後に、予想通り、バイナリデータやより大きなサンプルと比較して、継続的なレスポンスでパフォーマンスが向上した。
関連論文リスト
- Ranking and Combining Latent Structured Predictive Scores without Labeled Data [2.5064967708371553]
本稿では,新しい教師なしアンサンブル学習モデル(SUEL)を提案する。
連続的な予測スコアを持つ予測器のセット間の依存関係を利用して、ラベル付きデータなしで予測器をランク付けし、それらをアンサンブルされたスコアに重み付けする。
提案手法の有効性は、シミュレーション研究とリスク遺伝子発見の現実的応用の両方を通じて厳密に評価されている。
論文 参考訳(メタデータ) (2024-08-14T20:14:42Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Quantifying Inherent Randomness in Machine Learning Algorithms [7.591218883378448]
本稿では,モデル学習におけるランダム性,およびデータセットのトレーニングおよびテストサブセットへの分割におけるランダム性の影響を実験的に検討する。
我々は、ランダムフォレスト(RF)、グラディエントブースティングマシン(GBM)、フィードフォワードニューラルネットワーク(FFNN)の予測性能の変動の大きさを定量化し、比較する。
論文 参考訳(メタデータ) (2022-06-24T15:49:52Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Optimal regularizations for data generation with probabilistic graphical
models [0.0]
経験的に、よく調和された正規化スキームは、推論されたモデルの品質を劇的に改善する。
生成的ペアワイドグラフィカルモデルの最大Aポストエリオーリ(MAP)推論におけるL2とL1の正規化について検討する。
論文 参考訳(メタデータ) (2021-12-02T14:45:16Z) - Accuracy on the Line: On the Strong Correlation Between
Out-of-Distribution and In-Distribution Generalization [89.73665256847858]
分布外性能は,広範囲なモデルと分布シフトに対する分布内性能と強く相関していることを示す。
具体的には,CIFAR-10 と ImageNet の変種に対する分布内分布と分布外分布性能の強い相関関係を示す。
また,CIFAR-10-Cと組織分類データセットCamelyon17-WILDSの合成分布の変化など,相関が弱いケースについても検討した。
論文 参考訳(メタデータ) (2021-07-09T19:48:23Z) - Post-mortem on a deep learning contest: a Simpson's paradox and the
complementary roles of scale metrics versus shape metrics [61.49826776409194]
我々は、ニューラルネットワーク(NN)モデルの一般化精度を予測するために、コンテストで公に利用可能にされたモデルのコーパスを分析する。
メトリクスが全体としてよく機能するが、データのサブパーティションではあまり機能しない。
本稿では,データに依存しない2つの新しい形状指標と,一連のNNのテスト精度の傾向を予測できるデータ依存指標を提案する。
論文 参考訳(メタデータ) (2021-06-01T19:19:49Z) - A Partial Regularization Method for Network Compression [0.0]
本稿では, モデル圧縮を高速に行うために, 完全正則化と言われる全てのパラメータをペナライズする元の形式ではなく, 部分正則化のアプローチを提案する。
実験結果から, ほぼすべての状況において, 走行時間の減少を観測することにより, 計算複雑性を低減できることが示唆された。
驚くべきことに、複数のデータセットのトレーニングフェーズとテストフェーズの両方において、回帰フィッティング結果や分類精度などの重要な指標を改善するのに役立ちます。
論文 参考訳(メタデータ) (2020-09-03T00:38:27Z) - Surrogate Locally-Interpretable Models with Supervised Machine Learning
Algorithms [8.949704905866888]
近年,従来の統計的手法よりも予測性能が優れているため,機械学習アルゴリズムが普及している。
主な焦点は解釈可能性であり、結果として得られるサロゲートモデルは、合理的に優れた予測性能を持つ。
論文 参考訳(メタデータ) (2020-07-28T23:46:16Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。