論文の概要: Generalized XGBoost Method
- arxiv url: http://arxiv.org/abs/2109.07473v1
- Date: Wed, 15 Sep 2021 01:52:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-17 13:54:18.513220
- Title: Generalized XGBoost Method
- Title(参考訳): 一般化XGBoost法
- Authors: Yang Guang
- Abstract要約: XGBoost法には利点があり、特に統計解析のビッグデータに適している。
本稿では,より弱い一般化損失関数を必要とする一般応用を提案する。
関連するアルゴリズムと、非生命保険のいくつかの例が与えられる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The XGBoost method has many advantages and is especially suitable for
statistical analysis of big data, but its loss function is limited to convex
functions. In many specific applications, a nonconvex loss function would be
preferable. In this paper, we propose a generalized XGBoost method, which
requires weaker loss function condition and involves more general loss
functions, including convex loss functions and some non-convex loss functions.
Furthermore, this generalized XGBoost method is extended to multivariate loss
function to form a more generalized XGBoost method. This method is a
multivariate regularized tree boosting method, which can model multiple
parameters in most of the frequently-used parametric probability distributions
to be fitted by predictor variables. Meanwhile, the related algorithms and some
examples in non-life insurance pricing are given.
- Abstract(参考訳): XGBoost法には多くの利点があり、特にビッグデータの統計解析に適しているが、損失関数は凸関数に限定されている。
多くの特定のアプリケーションでは、非凸損失関数が好ましい。
本稿では,より弱い損失関数条件と,凸損失関数と非凸損失関数を含むより一般的な損失関数を含む一般化xgboost法を提案する。
さらに、この一般化されたXGBoost法は、より一般化されたXGBoost法を形成するために多変量損失関数に拡張される。
この方法は多変量正規化ツリーブースティング法であり、予測変数に適合するパラメトリック確率分布のほとんどにおいて、複数のパラメータをモデル化することができる。
一方、関連するアルゴリズムと非生命保険価格のいくつかの例が与えられる。
関連論文リスト
- How to Boost Any Loss Function [63.573324901948716]
損失関数はブースティングにより最適化可能であることを示す。
また、古典的な$0の注文設定でまだ不可能な成果を達成できることも示しています。
論文 参考訳(メタデータ) (2024-07-02T14:08:23Z) - Composite Quantile Regression With XGBoost Using the Novel Arctan Pinball Loss [1.0446041735532203]
量子回帰は、点推定だけでは不十分な条件付き量子状態を得るための一般的なアプローチである。
既存の回避策は典型的には非効率であり、深刻な量的交差をもたらす。
我々は,XGBoostのニーズに合わせて,ピンボール損失,アークタンピンボール損失のスムーズな近似を提示する。
論文 参考訳(メタデータ) (2024-06-04T13:13:29Z) - Fast and interpretable Support Vector Classification based on the truncated ANOVA decomposition [0.0]
サポートベクタマシン(SVM)は、散在するデータの分類を行うための重要なツールである。
三角関数やウェーブレットに基づく特徴写像を用いて,SVMを原始形式で解くことを提案する。
論文 参考訳(メタデータ) (2024-02-04T10:27:42Z) - Universal Online Convex Optimization Meets Second-order Bounds [74.0120666722487]
ユニバーサルオンライン凸最適化のための簡単な戦略を提案する。
主要なアイデアは、オリジナルのオンライン機能を処理するための専門家のセットを構築し、線形化された損失に対してメタアルゴリズムをデプロイすることである。
このようにして、私たちはブラックボックスの専門家として、既成のオンライン問題解決者をプラグインして、問題依存の後悔の限界を提供することができます。
論文 参考訳(メタデータ) (2021-05-08T11:43:49Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - Piecewise Linear Regression via a Difference of Convex Functions [50.89452535187813]
本稿では,データに対する凸関数(DC関数)の差を利用した線形回帰手法を提案する。
実際に実装可能であることを示すとともに,実世界のデータセット上で既存の回帰/分類手法に匹敵する性能を有することを実証的に検証した。
論文 参考訳(メタデータ) (2020-07-05T18:58:47Z) - Revisiting SGD with Increasingly Weighted Averaging: Optimization and
Generalization Perspectives [50.12802772165797]
平均化手法は、全ての反復解を一つの解に結合する。
実験は、他の平均化方式と比較して、トレードオフと平均化の有効性を示した。
論文 参考訳(メタデータ) (2020-03-09T18:14:00Z) - Nonlinear Functional Output Regression: a Dictionary Approach [1.8160945635344528]
本稿では,辞書上に拡張された関数の予測を学習する新しい辞書ベースの手法であるプロジェクション・ラーニング(PL)を紹介する。
PLは機能的損失に基づいて経験的リスクを最小限にする。
PLは特に計算コストとパフォーマンスのトレードオフを享受しています。
論文 参考訳(メタデータ) (2020-03-03T10:31:17Z) - SGLB: Stochastic Gradient Langevin Boosting [28.224889996383396]
Gradient Langevin Boosting (SGLB)は、パワフルで効率的な機械学習フレームワークである。
SGLBは,0-1の損失関数を持つ分類タスクに適用した場合,古典的勾配向上よりも優れることを示す。
論文 参考訳(メタデータ) (2020-01-20T20:44:52Z) - Polynomial-Time Exact MAP Inference on Discrete Models with Global
Dependencies [83.05591911173332]
ジャンクションツリーアルゴリズムは、実行時の保証と正確なMAP推論のための最も一般的な解である。
本稿では,ノードのクローン化による新たなグラフ変換手法を提案する。
論文 参考訳(メタデータ) (2019-12-27T13:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。