論文の概要: GBHT: Gradient Boosting Histogram Transform for Density Estimation
- arxiv url: http://arxiv.org/abs/2106.05738v1
- Date: Thu, 10 Jun 2021 13:40:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-11 14:34:35.539264
- Title: GBHT: Gradient Boosting Histogram Transform for Density Estimation
- Title(参考訳): GBHT:密度推定のための勾配ブースティングヒストグラム変換
- Authors: Jingyi Cui, Hanyuan Hang, Yisen Wang, Zhouchen Lin
- Abstract要約: textitGradient Boosting Histogram Transform (GBHT) と呼ばれる密度推定アルゴリズムを提案する。
そこで本研究では,高揚化がベース学習者の性能向上に寄与する理由を理論的に説明するための最初の試みを行う。
- 参考スコア(独自算出の注目度): 73.94900378709023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a density estimation algorithm called
\textit{Gradient Boosting Histogram Transform} (GBHT), where we adopt the
\textit{Negative Log Likelihood} as the loss function to make the boosting
procedure available for the unsupervised tasks. From a learning theory
viewpoint, we first prove fast convergence rates for GBHT with the smoothness
assumption that the underlying density function lies in the space
$C^{0,\alpha}$. Then when the target density function lies in spaces
$C^{1,\alpha}$, we present an upper bound for GBHT which is smaller than the
lower bound of its corresponding base learner, in the sense of convergence
rates. To the best of our knowledge, we make the first attempt to theoretically
explain why boosting can enhance the performance of its base learners for
density estimation problems. In experiments, we not only conduct performance
comparisons with the widely used KDE, but also apply GBHT to anomaly detection
to showcase a further application of GBHT.
- Abstract(参考訳): 本稿では,GBHT と呼ばれる密度推定アルゴリズムを提案する。ここでは,教師なしタスクに対してブースティング手順を利用可能にするために,損失関数として \textit{Negative Log Likelihood} を採用する。
学習理論の観点からは、まず、基礎となる密度関数が空間 $c^{0,\alpha}$ にあるという滑らかさを仮定して、gbht の高速収束率を証明する。
このとき、対象密度関数が空間$C^{1,\alpha}$ にあるとき、収束率という意味では、対応するベース学習者の下限よりも小さい GBHT の上限を示す。
我々の知識を最大限に活用するために,我々は,密度推定問題に対する基礎学習者の性能向上を理論的に説明するための最初の試みを行う。
実験では、広く使われているKDEと性能比較を行うだけでなく、異常検出にGBHTを適用し、GBHTのさらなる応用を示す。
関連論文リスト
- Truncated Kernel Stochastic Gradient Descent on Spheres [1.4583059436979549]
球面高調波の構造に着想を得て,T-カーネルSGDアルゴリズムを提案する。
T-カーネルSGDは「トランケーション」演算を採用し、勾配降下における直列ベースのカーネル関数の適用を可能にする。
従来のカーネルSGDとは対照的に、TカーネルSGDはバイアスと分散のバランスをとるのにより効果的である。
論文 参考訳(メタデータ) (2024-10-02T14:09:51Z) - SHOT: Suppressing the Hessian along the Optimization Trajectory for
Gradient-Based Meta-Learning [28.26143547479141]
SHOT(Suppressing the Hessian along the Optimization Trajectory)と呼ばれるアルゴリズムを導入する。
SHOTはベースラインモデルの計算複雑性をあまり増やさない。
本仮説を実証的に検証し,SHOTが対応するベースラインより優れていることを示す。
論文 参考訳(メタデータ) (2023-10-04T11:43:08Z) - Lassoed Tree Boosting [53.56229983630983]
有界断面変動のカドラー関数の大きな非パラメトリック空間において,早期に停止するn-1/4$ L2の収束速度を持つ勾配向上木アルゴリズムを証明した。
我々の収束証明は、ネストしたドンスカー類の経験的損失最小化子による早期停止に関する新しい一般定理に基づいている。
論文 参考訳(メタデータ) (2022-05-22T00:34:41Z) - Maximum Spatial Perturbation Consistency for Unpaired Image-to-Image
Translation [56.44946660061753]
本稿では,最大空間摂動整合(MSPC)と呼ばれる普遍正規化手法を提案する。
MSPCは空間摂動関数(T)と変換演算子(G)を可換(TG = GT)に強制する。
提案手法は,ほとんどのI2Iベンチマークにおいて最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2022-03-23T19:59:04Z) - Local Adaptivity of Gradient Boosting in Histogram Transform Ensemble
Learning [5.241402683680909]
テクティタダプティブ・ブースティング・ヒストグラム変換(textitABHT)という勾配促進アルゴリズム
ABHTは、異なる順の滑らかさで領域をフィルタリングできることを示します。
論文 参考訳(メタデータ) (2021-12-05T14:56:56Z) - Density-Based Clustering with Kernel Diffusion [59.4179549482505]
単位$d$次元ユークリッド球のインジケータ関数に対応するナイーブ密度は、密度に基づくクラスタリングアルゴリズムで一般的に使用される。
局所分布特性と滑らかさの異なるデータに適応する新しいカーネル拡散密度関数を提案する。
論文 参考訳(メタデータ) (2021-10-11T09:00:33Z) - Gradient Boosted Binary Histogram Ensemble for Large-scale Regression [60.16351608335641]
本研究では,2値ヒストグラム分割とアンサンブル学習に基づくテキストグラディエント2値ヒストグラムアンサンブル(GBBHE)と呼ばれる大規模回帰問題に対する勾配向上アルゴリズムを提案する。
実験では, 勾配向上回帰木 (GBRT) などの他の最先端アルゴリズムと比較して, GBBHEアルゴリズムは大規模データセット上での実行時間が少なく, 有望な性能を示す。
論文 参考訳(メタデータ) (2021-06-03T17:05:40Z) - Detached Error Feedback for Distributed SGD with Random Sparsification [98.98236187442258]
コミュニケーションのボトルネックは、大規模なディープラーニングにおいて重要な問題である。
非効率な分散問題に対する誤りフィードバックよりも優れた収束性を示す分散誤差フィードバック(DEF)アルゴリズムを提案する。
また、DEFよりも優れた境界を示すDEFの一般化を加速するDEFAを提案する。
論文 参考訳(メタデータ) (2020-04-11T03:50:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。