論文の概要: Local Adaptivity of Gradient Boosting in Histogram Transform Ensemble
Learning
- arxiv url: http://arxiv.org/abs/2112.02589v1
- Date: Sun, 5 Dec 2021 14:56:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 15:03:43.257721
- Title: Local Adaptivity of Gradient Boosting in Histogram Transform Ensemble
Learning
- Title(参考訳): ヒストグラム変換アンサンブル学習における勾配ブースティングの局所的適応性
- Authors: Hanyuan Hang
- Abstract要約: テクティタダプティブ・ブースティング・ヒストグラム変換(textitABHT)という勾配促進アルゴリズム
ABHTは、異なる順の滑らかさで領域をフィルタリングできることを示します。
- 参考スコア(独自算出の注目度): 5.241402683680909
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a gradient boosting algorithm called
\textit{adaptive boosting histogram transform} (\textit{ABHT}) for regression
to illustrate the local adaptivity of gradient boosting algorithms in histogram
transform ensemble learning. From the theoretical perspective, when the target
function lies in a locally H\"older continuous space, we show that our ABHT can
filter out the regions with different orders of smoothness. Consequently, we
are able to prove that the upper bound of the convergence rates of ABHT is
strictly smaller than the lower bound of \textit{parallel ensemble histogram
transform} (\textit{PEHT}). In the experiments, both synthetic and real-world
data experiments empirically validate the theoretical results, which
demonstrates the advantageous performance and local adaptivity of our ABHT.
- Abstract(参考訳): 本稿では,ヒストグラム変換アンサンブル学習における勾配促進アルゴリズムの局所的適応性を示すために,レグレッションのための勾配促進アルゴリズムである \textit{adaptive boosting histogram transform} (\textit{ABHT})を提案する。
理論的な観点からは、対象函数が局所的 H より古い連続空間にあるとき、ABHT が滑らか性の異なる領域をフィルタリングできることが示される。
したがって、ABHT の収束率の上限が \textit{parallel ensemble histogram transform} (\textit{PEHT}) の下限よりも厳密に小さいことが証明できる。
実験では、合成データと実世界のデータ実験の両方が理論結果を実証的に検証し、abhtの有利な性能と局所的適応性を示す。
関連論文リスト
- Enabling Tensor Decomposition for Time-Series Classification via A Simple Pseudo-Laplacian Contrast [26.28414569796961]
本稿では, Pseudo Laplacian Contrast (PLC) テンソル分解フレームワークを提案する。
データ拡張とラプラシアンのクロスビューを統合し、クラス認識表現の抽出を可能にする。
様々なデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-23T16:48:13Z) - Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Entropy Transformer Networks: A Learning Approach via Tangent Bundle
Data Manifold [8.893886200299228]
本稿では,CNNアーキテクチャの設計における画像変換の高精度かつ高速なアプローチについて述べる。
データ多様体分布を補間する新しいエントロピーSTN(ESTN)を提案する。
挑戦的なベンチマークの実験は、提案されたESTNがコンピュータビジョンタスクの範囲で予測精度を向上させることを示している。
論文 参考訳(メタデータ) (2023-07-24T04:21:51Z) - Gradient Boosted Binary Histogram Ensemble for Large-scale Regression [60.16351608335641]
本研究では,2値ヒストグラム分割とアンサンブル学習に基づくテキストグラディエント2値ヒストグラムアンサンブル(GBBHE)と呼ばれる大規模回帰問題に対する勾配向上アルゴリズムを提案する。
実験では, 勾配向上回帰木 (GBRT) などの他の最先端アルゴリズムと比較して, GBBHEアルゴリズムは大規模データセット上での実行時間が少なく, 有望な性能を示す。
論文 参考訳(メタデータ) (2021-06-03T17:05:40Z) - Efficient Semi-Implicit Variational Inference [65.07058307271329]
効率的でスケーラブルな半単純外挿 (SIVI) を提案する。
本手法はSIVIの証拠を低勾配値の厳密な推測にマッピングする。
論文 参考訳(メタデータ) (2021-01-15T11:39:09Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Feature Whitening via Gradient Transformation for Improved Convergence [3.5579740292581]
機能白化の複雑さの欠点に対処する。
サンプル変換を重み勾配への変換によって置き換える等価な手法をBサンプルの各バッチに適用する。
CIFAR と Imagenet データセットで実証された画像分類のためのResNet ベースのネットワークを用いて提案アルゴリズムを例示する。
論文 参考訳(メタデータ) (2020-10-04T11:30:20Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。