論文の概要: A Generalized Stacking for Implementing Ensembles of Gradient Boosting
Machines
- arxiv url: http://arxiv.org/abs/2010.06026v1
- Date: Mon, 12 Oct 2020 21:05:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 06:04:14.423269
- Title: A Generalized Stacking for Implementing Ensembles of Gradient Boosting
Machines
- Title(参考訳): 傾斜昇降機のアンサンブル化のための一般化スタック化
- Authors: Andrei V. Konstantinov and Lev V. Utkin
- Abstract要約: 勾配ブースティングモデルのアンサンブル構築手法を提案する。
提案手法は任意の微分可能な組合せモデル上で簡単に拡張できることが示されている。
- 参考スコア(独自算出の注目度): 5.482532589225552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The gradient boosting machine is one of the powerful tools for solving
regression problems. In order to cope with its shortcomings, an approach for
constructing ensembles of gradient boosting models is proposed. The main idea
behind the approach is to use the stacking algorithm in order to learn a
second-level meta-model which can be regarded as a model for implementing
various ensembles of gradient boosting models. First, the linear regression of
the gradient boosting models is considered as a simplest realization of the
meta-model under condition that the linear model is differentiable with respect
to its coefficients (weights). Then it is shown that the proposed approach can
be simply extended on arbitrary differentiable combination models, for example,
on neural networks which are differentiable and can implement arbitrary
functions of gradient boosting models. Various numerical examples illustrate
the proposed approach.
- Abstract(参考訳): 勾配向上機は回帰問題を解くための強力なツールの1つである。
その欠点に対処するため、勾配促進モデルのアンサンブルを構築するためのアプローチを提案する。
このアプローチの背後にある主要なアイデアは、傾斜ブースティングモデルの様々なアンサンブルを実装するモデルと見なされる2レベルメタモデルを学ぶためにスタックアルゴリズムを使用することである。
まず、勾配ブースティングモデルの線形回帰は、線形モデルがその係数(重み)に対して微分可能であるという条件下でのメタモデルの最も単純な実現と見なされる。
そこで,提案手法は,例えば,微分可能で勾配ブースティングモデルの任意の関数を実装できるニューラルネットワーク上で,任意の微分可能結合モデル上で単純に拡張できることを示した。
様々な数値的な例が提案されている。
関連論文リスト
- Supervised Score-Based Modeling by Gradient Boosting [49.556736252628745]
本稿では,スコアマッチングを組み合わせた勾配向上アルゴリズムとして,SSM(Supervised Score-based Model)を提案する。
推測時間と予測精度のバランスをとるため,SSMの学習とサンプリングに関する理論的解析を行った。
我々のモデルは、精度と推測時間の両方で既存のモデルより優れています。
論文 参考訳(メタデータ) (2024-11-02T07:06:53Z) - Model-Based Reparameterization Policy Gradient Methods: Theory and
Practical Algorithms [88.74308282658133]
Reization (RP) Policy Gradient Methods (PGM) は、ロボット工学やコンピュータグラフィックスにおける連続的な制御タスクに広く採用されている。
近年の研究では、長期強化学習問題に適用した場合、モデルベースRP PGMはカオス的かつ非滑らかな最適化環境を経験する可能性があることが示されている。
本稿では,長期モデルアンロールによる爆発的分散問題を緩和するスペクトル正規化法を提案する。
論文 参考訳(メタデータ) (2023-10-30T18:43:21Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - Geometrically Guided Integrated Gradients [0.3867363075280543]
我々は「幾何学的誘導積分勾配」と呼ばれる解釈可能性法を導入する。
提案手法は,入力の複数のスケールバージョンからモデルの動的挙動を探索し,各入力に対する最適な属性をキャプチャする。
また,従来のモデルランダム化試験を補完する「モデル摂動」正当性チェックを提案する。
論文 参考訳(メタデータ) (2022-06-13T05:05:43Z) - Differentiable Spline Approximations [48.10988598845873]
微分プログラミングは機械学習のスコープを大幅に強化した。
標準的な微分可能なプログラミング手法(autodiffなど)は、通常、機械学習モデルが微分可能であることを要求する。
この再設計されたヤコビアンを予測モデルにおける微分可能な「層」の形で活用することで、多様なアプリケーションの性能が向上することを示す。
論文 参考訳(メタデータ) (2021-10-04T16:04:46Z) - Probabilistic Circuits for Variational Inference in Discrete Graphical
Models [101.28528515775842]
変分法による離散的グラフィカルモデルの推論は困難である。
エビデンス・ロウアーバウンド(ELBO)を推定するためのサンプリングに基づく多くの手法が提案されている。
Sum Product Networks (SPN) のような確率的回路モデルのトラクタビリティを活用する新しい手法を提案する。
選択的SPNが表現的変動分布として適していることを示し、対象モデルの対数密度が重み付けされた場合、対応するELBOを解析的に計算可能であることを示す。
論文 参考訳(メタデータ) (2020-10-22T05:04:38Z) - A Multilevel Approach to Training [0.0]
本稿では, 離散化大規模偏微分方程式の解法としてよく用いられる非線形多値法に基づく新しい学習法を提案する。
本手法は,サンプル数を減らして階層構造を構築する。
元のモデルのトレーニングは、より少ないサンプルで構築されたシュロゲートモデルを内部でトレーニングすることで強化される。
論文 参考訳(メタデータ) (2020-06-28T13:34:48Z) - Uncertainty in Gradient Boosting via Ensembles [37.808845398471874]
勾配促進モデルのアンサンブルは、予測された総不確実性を改善する能力に制限があるにもかかわらず、異常な入力を検出することに成功した。
本稿では,1つの勾配押し上げモデルのみでアンサンブルの利点を得るための仮想アンサンブルの概念を提案する。
論文 参考訳(メタデータ) (2020-06-18T14:11:27Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。