論文の概要: Condensed Gradient Boosting
- arxiv url: http://arxiv.org/abs/2211.14599v2
- Date: Tue, 14 May 2024 07:51:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 20:19:44.751216
- Title: Condensed Gradient Boosting
- Title(参考訳): 凝縮グラディエントブースティング
- Authors: Seyedsaman Emami, Gonzalo Martínez-Muñoz,
- Abstract要約: 本稿では,マルチクラス問題を単一タスクとして扱うためのベースモデルとしてマルチ出力回帰器を提案する。
一般化と計算効率の観点から,他のマルチオプタットベース勾配促進法との比較を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents a computationally efficient variant of gradient boosting for multi-class classification and multi-output regression tasks. Standard gradient boosting uses a 1-vs-all strategy for classifications tasks with more than two classes. This strategy translates in that one tree per class and iteration has to be trained. In this work, we propose the use of multi-output regressors as base models to handle the multi-class problem as a single task. In addition, the proposed modification allows the model to learn multi-output regression problems. An extensive comparison with other multi-ouptut based gradient boosting methods is carried out in terms of generalization and computational efficiency. The proposed method showed the best trade-off between generalization ability and training and predictions speeds.
- Abstract(参考訳): 本稿では,多クラス分類と多出力回帰タスクのための勾配ブースティングの計算効率の良い変種を提案する。
標準勾配強化は2つ以上のクラスを持つタスクの分類に1-vs-all戦略を使用する。
この戦略は、クラス毎に1つのツリーを変換し、イテレーションをトレーニングする必要があります。
本研究では,マルチクラス問題を単一タスクとして扱うためのベースモデルとしてマルチ出力回帰器を提案する。
さらに、提案した修正により、モデルがマルチ出力回帰問題を学習できるようになる。
一般化と計算効率の観点から,他のマルチオプタットベース勾配促進法との比較を行った。
提案手法は、一般化能力とトレーニングと予測速度の最良のトレードオフを示す。
関連論文リスト
- Accelerating Inference in Large Language Models with a Unified Layer Skipping Strategy [67.45518210171024]
動的計算手法は、いくつかの計算層をスキップすることで、Large Language Models (LLM) に対する顕著な加速を示す。
対象の高速化率のみに基づいて計算をスキップする層数を選択する統一層スキーッピング戦略を提案する。
機械翻訳とテキスト要約という2つの共通タスクの実験結果は、目標速度比が与えられた場合、統一層スキーピング戦略は推論性能と実際のモデルスループットの両方を著しく向上させることを示している。
論文 参考訳(メタデータ) (2024-04-10T12:12:07Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Adapting tree-based multiple imputation methods for multi-level data? A
simulation study [0.0]
本研究は,マルチレベルデータに対する多重計算手法の有効性を評価する。
連鎖方程式(MICE)による従来の多重計算の性能と木に基づく手法との比較を行う。
論文 参考訳(メタデータ) (2024-01-25T13:12:50Z) - Class Gradient Projection For Continual Learning [99.105266615448]
破滅的な忘れは継続的学習(CL)における最も重要な課題の1つです。
タスクではなく個々のクラスから勾配部分空間を計算するクラスグラディエント・プロジェクション(CGP)を提案する。
論文 参考訳(メタデータ) (2023-11-25T02:45:56Z) - Generalization for multiclass classification with overparameterized
linear models [3.3434274586532515]
クラスが多すぎる限り、多クラス分類は二分分類のように振る舞うことが示される。
様々な技術的課題に加えて、二項分類設定との大きな違いは、クラス数が増加するにつれて、各クラスの正のトレーニング例がマルチクラス設定で比較的少ないことである。
論文 参考訳(メタデータ) (2022-06-03T05:52:43Z) - GuideBP: Guiding Backpropagation Through Weaker Pathways of Parallel
Logits [6.764324841419295]
提案手法は、最も弱い概念表現に沿ったバックプロパゲーションの勾配を導く。
弱点スコアは、ロジットの作成に使用される個々の経路のクラス固有のパフォーマンスを定義する。
提案手法は従来のカラムマージ手法よりも優れていることが示されている。
論文 参考訳(メタデータ) (2021-04-23T14:14:00Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z) - A Multilevel Approach to Training [0.0]
本稿では, 離散化大規模偏微分方程式の解法としてよく用いられる非線形多値法に基づく新しい学習法を提案する。
本手法は,サンプル数を減らして階層構造を構築する。
元のモデルのトレーニングは、より少ないサンプルで構築されたシュロゲートモデルを内部でトレーニングすることで強化される。
論文 参考訳(メタデータ) (2020-06-28T13:34:48Z) - Variance Reduction with Sparse Gradients [82.41780420431205]
SVRGやSpiderBoostのような分散還元法では、大きなバッチ勾配と小さなバッチ勾配が混在している。
我々は、新しい空間演算子:ランダムトップk演算子を導入する。
我々のアルゴリズムは、画像分類、自然言語処理、スパース行列分解など様々なタスクにおいて、一貫してSpiderBoostより優れています。
論文 参考訳(メタデータ) (2020-01-27T08:23:58Z) - Adaptive Correlated Monte Carlo for Contextual Categorical Sequence
Generation [77.7420231319632]
我々は,モンテカルロ (MC) ロールアウトの集合を分散制御のために評価する政策勾配推定器に,カテゴリー列の文脈的生成を適用する。
また,二分木ソフトマックスモデルに相関したMCロールアウトを用いることで,大語彙シナリオにおける高生成コストを低減できることを示す。
論文 参考訳(メタデータ) (2019-12-31T03:01:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。