論文の概要: GAM(L)A: An econometric model for interpretable Machine Learning
- arxiv url: http://arxiv.org/abs/2203.11691v1
- Date: Thu, 17 Mar 2022 09:09:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-27 05:11:50.348827
- Title: GAM(L)A: An econometric model for interpretable Machine Learning
- Title(参考訳): GAM(L)A: 解釈可能な機械学習のための計量モデル
- Authors: Emmanuel Flachaire, Gilles Hacheme, Sullivan Hu\'e and S\'ebastien
Laurent
- Abstract要約: 本稿では,GAMLA(GAMLA)とGAMA(GAMA)を紹介する。
GAM(L)A)はパラメトリック関数と非パラメトリック関数を組み合わせて、依存変数と説明変数の間の線形性と非線型性を正確に捉える。
本稿では,GAM(L)Aの回帰と分類問題に対する予測性能と解釈可能性について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite their high predictive performance, random forest and gradient
boosting are often considered as black boxes or uninterpretable models which
has raised concerns from practitioners and regulators. As an alternative, we
propose in this paper to use partial linear models that are inherently
interpretable. Specifically, this article introduces GAM-lasso (GAMLA) and
GAM-autometrics (GAMA), denoted as GAM(L)A in short. GAM(L)A combines
parametric and non-parametric functions to accurately capture linearities and
non-linearities prevailing between dependent and explanatory variables, and a
variable selection procedure to control for overfitting issues. Estimation
relies on a two-step procedure building upon the double residual method. We
illustrate the predictive performance and interpretability of GAM(L)A on a
regression and a classification problem. The results show that GAM(L)A
outperforms parametric models augmented by quadratic, cubic and interaction
effects. Moreover, the results also suggest that the performance of GAM(L)A is
not significantly different from that of random forest and gradient boosting.
- Abstract(参考訳): その高い予測性能にもかかわらず、ランダムフォレストや勾配ブースティングは、しばしばブラックボックスや解釈不能なモデルと見なされ、実践者や規制当局から懸念を集めている。
代替として本論文では,本質的に解釈可能な部分線形モデルを提案する。
具体的には,GAM-lasso (GAMLA) とGAMA-autometrics (GAMA) を略して紹介する。
GAM(L)Aはパラメトリック関数と非パラメトリック関数を組み合わせて、依存変数と説明変数の間の線形性や非線形性を正確に捉える。
推定は二重残差法に基づく2段階の手順に依拠する。
本稿では,GAM(L)Aの回帰と分類問題に対する予測性能と解釈可能性について述べる。
その結果, GAM(L)Aは2次, 立方および相互作用効果で増強されたパラメトリックモデルより優れていた。
また,gam(l)aの性能は,ランダム林や勾配ブースティングと大きく異なるものではないことが示唆された。
関連論文リスト
- Learning High-Dimensional Differential Graphs From Multi-Attribute Data [12.94486861344922]
類似構造を持つことが知られている2つのガウス図形モデル(GGM)の違いを推定する問題を考える。
差分グラフ推定の既存の方法は単一属性(SA)モデルに基づいている。
本稿では,多属性データから差分グラフ学習のためのグループラッソペナル化Dトレース損失関数手法を解析する。
論文 参考訳(メタデータ) (2023-12-05T18:54:46Z) - Model-Based Reparameterization Policy Gradient Methods: Theory and
Practical Algorithms [88.74308282658133]
Reization (RP) Policy Gradient Methods (PGM) は、ロボット工学やコンピュータグラフィックスにおける連続的な制御タスクに広く採用されている。
近年の研究では、長期強化学習問題に適用した場合、モデルベースRP PGMはカオス的かつ非滑らかな最適化環境を経験する可能性があることが示されている。
本稿では,長期モデルアンロールによる爆発的分散問題を緩和するスペクトル正規化法を提案する。
論文 参考訳(メタデータ) (2023-10-30T18:43:21Z) - The Generalization Error of Stochastic Mirror Descent on
Over-Parametrized Linear Models [37.6314945221565]
ディープネットワークは、目に見えないデータにうまく一般化することが知られている。
正規化特性は「良い」性質を持つ補間解が見つかることを保証している。
理論を検証し、2つのデータモデルを導入するシミュレーション結果を提案する。
論文 参考訳(メタデータ) (2023-02-18T22:23:42Z) - Manifold Gaussian Variational Bayes on the Precision Matrix [70.44024861252554]
複雑なモデルにおける変分推論(VI)の最適化アルゴリズムを提案する。
本研究では,変分行列上の正定値制約を満たすガウス変分推論の効率的なアルゴリズムを開発した。
MGVBPはブラックボックスの性質のため、複雑なモデルにおけるVIのための準備が整ったソリューションである。
論文 参考訳(メタデータ) (2022-10-26T10:12:31Z) - Training Discrete Deep Generative Models via Gapped Straight-Through
Estimator [72.71398034617607]
再サンプリングのオーバーヘッドを伴わずに分散を低減するため, GST (Gapped Straight-Through) 推定器を提案する。
この推定子は、Straight-Through Gumbel-Softmaxの本質的な性質に着想を得たものである。
実験により,提案したGST推定器は,2つの離散的な深部生成モデリングタスクの強いベースラインと比較して,優れた性能を享受できることが示された。
論文 参考訳(メタデータ) (2022-06-15T01:46:05Z) - Exploring Local Explanations of Nonlinear Models Using Animated Linear
Projections [5.524804393257921]
eXplainable AI(XAI)を使用して、モデルが予測器を使用して予測に到達する方法を示す。
予測器間の相互作用が変数重要度推定にどのように影響するかを理解するために,LVAを線形射影に変換することができる。
このアプローチは、分類学的(ペンギン種、チョコレートタイプ)と定量的(靴と足の給与、住宅価格)の応答モデルから例を示します。
論文 参考訳(メタデータ) (2022-05-11T09:11:02Z) - Generalised Gaussian Process Latent Variable Models (GPLVM) with
Stochastic Variational Inference [9.468270453795409]
ミニバッチ学習が可能なBayesianVMモデルの2倍の定式化について検討する。
このフレームワークが、異なる潜在変数の定式化とどのように互換性を持つかを示し、モデルの組を比較する実験を行う。
我々は、膨大な量の欠落データの存在下でのトレーニングと、高忠実度再構築の実施を実証する。
論文 参考訳(メタデータ) (2022-02-25T21:21:51Z) - Weight Vector Tuning and Asymptotic Analysis of Binary Linear
Classifiers [82.5915112474988]
本稿では,スカラーによる判別器の分解をパラメータ化することで,ジェネリックバイナリ線形分類器の重みベクトルチューニングを提案する。
また,重みベクトルチューニングは,高推定雑音下での線形判別分析(LDA)の性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2021-10-01T17:50:46Z) - A Data-driven feature selection and machine-learning model benchmark for
the prediction of longitudinal dispersion coefficient [29.58577229101903]
縦方向分散(LD)係数の正確な予測は、関連するシミュレーションにおいて性能の飛躍をもたらすことができる。
本研究では, 蒸留した局所最適値と代表MLモデルとの数値比較により, 大域的最適特徴集合を提案した。
その結果,サポートベクタマシンは他のモデルよりも大幅に性能が向上していることがわかった。
論文 参考訳(メタデータ) (2021-07-16T09:50:38Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Shaping Deep Feature Space towards Gaussian Mixture for Visual
Classification [74.48695037007306]
視覚分類のためのディープニューラルネットワークのためのガウス混合損失関数(GM)を提案する。
分類マージンと可能性正規化により、GM損失は高い分類性能と特徴分布の正確なモデリングの両方を促進する。
提案したモデルは、追加のトレーニング可能なパラメータを使わずに、簡単かつ効率的に実装できる。
論文 参考訳(メタデータ) (2020-11-18T03:32:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。