論文の概要: Comparison of generalised additive models and neural networks in applications: A systematic review
- arxiv url: http://arxiv.org/abs/2510.24601v1
- Date: Tue, 28 Oct 2025 16:28:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.272801
- Title: Comparison of generalised additive models and neural networks in applications: A systematic review
- Title(参考訳): 応用における一般化付加モデルとニューラルネットワークの比較:系統的考察
- Authors: Jessica Doohan, Lucas Kook, Kevin Burke,
- Abstract要約: 一般化付加モデル(GAM)とニューラルネットワークは、解釈可能性を保持する最先端の統計モデルである。
我々は,GAMとニューラルネットワークの実証的な比較を行った論文を体系的にレビューする。
データセット全体では、GAMやニューラルネットワークで優位性を示す一貫した証拠は見つからなかった。
このレビューでは、GAMとニューラルネットワークは補完的な競合と見なされるべきである、と強調する。
- 参考スコア(独自算出の注目度): 1.1775939485654978
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks have become a popular tool in predictive modelling, more commonly associated with machine learning and artificial intelligence than with statistics. Generalised Additive Models (GAMs) are flexible non-linear statistical models that retain interpretability. Both are state-of-the-art in their own right, with their respective advantages and disadvantages. This paper analyses how these two model classes have performed on real-world tabular data. Following PRISMA guidelines, we conducted a systematic review of papers that performed empirical comparisons of GAMs and neural networks. Eligible papers were identified, yielding 143 papers, with 430 datasets. Key attributes at both paper and dataset levels were extracted and reported. Beyond summarising comparisons, we analyse reported performance metrics using mixed-effects modelling to investigate potential characteristics that can explain and quantify observed differences, including application area, study year, sample size, number of predictors, and neural network complexity. Across datasets, no consistent evidence of superiority was found for either GAMs or neural networks when considering the most frequently reported metrics (RMSE, $R^2$, and AUC). Neural networks tended to outperform in larger datasets and in those with more predictors, but this advantage narrowed over time. Conversely, GAMs remained competitive, particularly in smaller data settings, while retaining interpretability. Reporting of dataset characteristics and neural network complexity was incomplete in much of the literature, limiting transparency and reproducibility. This review highlights that GAMs and neural networks should be viewed as complementary approaches rather than competitors. For many tabular applications, the performance trade-off is modest, and interpretability may favour GAMs.
- Abstract(参考訳): ニューラルネットワークは予測モデリングにおいて一般的なツールとなり、統計よりも機械学習や人工知能に結びついている。
一般化加法モデル(GAMs)は、解釈可能性を保持するフレキシブルな非線形統計モデルである。
どちらも、それぞれの長所と短所を兼ね備えた最先端の製品である。
本稿では,これらの2つのモデルクラスが実世界の表データ上でどのように機能したかを分析する。
PRISMAガイドラインに従って,GAMとニューラルネットワークの実証的な比較を行った論文の体系的レビューを行った。
143の論文と430のデータセットが得られた。
紙とデータセットのいずれにおいても重要な属性を抽出し,報告した。
比較結果の要約以外にも、混合効果モデリングを用いて報告されたパフォーマンス指標を分析し、アプリケーション領域、研究年、サンプルサイズ、予測器数、ニューラルネットワークの複雑さなど、観察された差異を説明・定量化できる潜在的な特性について分析した。
データセット全体では、最も頻繁に報告される指標(RMSE、$R^2$、AUC)を考えると、GAMやニューラルネットワークにおいて優位性を示す一貫した証拠は見つからなかった。
ニューラルネットワークは、より大きなデータセットや予測器を持つものよりもパフォーマンスが高い傾向があったが、この利点は時間が経つにつれて縮小された。
逆にGAMは、特に小さなデータ設定では競争力を維持しながら、解釈可能性を維持していた。
データセットの特徴とニューラルネットワークの複雑さの報告は、多くの文献において不完全であり、透明性と再現性を制限する。
このレビューでは、GAMとニューラルネットワークは競合するよりも補完的なアプローチと見なされるべきである、と強調する。
多くの表形式のアプリケーションでは、パフォーマンスのトレードオフは控えめであり、解釈性はGAMを好むかもしれない。
関連論文リスト
- Comparing Methods for Bias Mitigation in Graph Neural Networks [5.256237513030105]
本稿では,生成人工知能(GenAI)のためのデータ準備において,グラフニューラルネットワーク(GNN)が果たす重要な役割について考察する。
本稿では,データスペーシフィケーション,特徴修正,合成データ拡張という,3つの異なるバイアス緩和手法の比較分析を行った。
論文 参考訳(メタデータ) (2025-03-28T16:18:48Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Joint Edge-Model Sparse Learning is Provably Efficient for Graph Neural
Networks [89.28881869440433]
本稿では,グラフニューラルネットワーク(GNN)における結合エッジモデルスパース学習の理論的特徴について述べる。
解析学的には、重要なノードをサンプリングし、最小のマグニチュードでプルーニングニューロンをサンプリングすることで、サンプルの複雑さを減らし、テスト精度を損なうことなく収束を改善することができる。
論文 参考訳(メタデータ) (2023-02-06T16:54:20Z) - Homophily modulates double descent generalization in graph convolution
networks [33.703222768801574]
グラフノイズ,特徴雑音,トレーニングラベル数との相互作用によって,リスクがどのように形成されるかを示す。
我々は解析的洞察を用いて、異種データセット上での最先端グラフ畳み込みネットワークの性能を向上させる。
論文 参考訳(メタデータ) (2022-12-26T09:57:09Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - On Generalisability of Machine Learning-based Network Intrusion
Detection Systems [0.0]
本稿では,4つのベンチマークNIDSデータセットを用いて,教師付き学習モデルと教師なし学習モデルの評価を行う。
我々の調査は、検討されたモデルのうちどのモデルもすべての研究されたデータセットを一般化できないことを示唆している。
また,本研究では,教師なし学習手法が,検討シナリオにおける教師付き学習モデルよりも一般化されていることも示唆した。
論文 参考訳(メタデータ) (2022-05-09T08:26:48Z) - Differentiable Reasoning over Long Stories -- Assessing Systematic
Generalisation in Neural Models [12.479512369785082]
グラフ構造化データを同時に処理し、エッジ属性を同時に考慮できるグラフベースのモデルである"E-GNN"と、グラフの線形化バージョンを処理できるシーケンスベースのモデルである"L-Graph"である。
その結果、修正されたリカレントニューラルネットワークは、グラフニューラルネットワークよりも優れた体系的な一般化タスク全体にわたって驚くほど正確な結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-20T18:34:42Z) - Comparing Test Sets with Item Response Theory [53.755064720563]
我々は,18の事前学習トランスフォーマーモデルから予測した29のデータセットを個別のテスト例で評価した。
Quoref、HellaSwag、MC-TACOは最先端のモデルを区別するのに最適である。
また、QAMRやSQuAD2.0のようなQAデータセットに使用されるスパン選択タスク形式は、強いモデルと弱いモデルとの差別化に有効である。
論文 参考訳(メタデータ) (2021-06-01T22:33:53Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Ensembles of Spiking Neural Networks [0.3007949058551534]
本稿では,最先端の結果を生み出すスパイクニューラルネットワークのアンサンブルを構築する方法について述べる。
MNIST, NMNIST, DVS Gestureデータセットの分類精度は98.71%, 100.0%, 99.09%である。
我々は、スパイキングニューラルネットワークをGLM予測器として形式化し、ターゲットドメインに適した表現を識別する。
論文 参考訳(メタデータ) (2020-10-15T17:45:18Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。