論文の概要: Robust-GBDT: A Novel Gradient Boosting Model for Noise-Robust
Classification
- arxiv url: http://arxiv.org/abs/2310.05067v1
- Date: Sun, 8 Oct 2023 08:28:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 12:57:30.716960
- Title: Robust-GBDT: A Novel Gradient Boosting Model for Noise-Robust
Classification
- Title(参考訳): Robust-GBDT:ノイズ・ロバスト分類のための新しい勾配ブースティングモデル
- Authors: Jiaqi Luo, Yuedong Quan, Shixin Xu
- Abstract要約: 我々は、ロバストGBDTと呼ばれる新しいノイズロストブースティングモデルを導入し、堅牢な損失を伴う高度なGBDTフレームワークをシームレスに統合する。
また,クラス不均衡に対処するために,ロバスト・フォカル・ロスという新しいロバスト・ロス関数を導入する。
その結果、Robust-GBDTはより正確な予測を生成し、その能力を大幅に向上させた。
- 参考スコア(独自算出の注目度): 0.46040036610482665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust boosting algorithms have emerged as alternative solutions to
traditional boosting techniques for addressing label noise in classification
tasks. However, these methods have predominantly focused on binary
classification, limiting their applicability to multi-class tasks. Furthermore,
they encounter challenges with imbalanced datasets, missing values, and
computational efficiency. In this paper, we establish that the loss function
employed in advanced Gradient Boosting Decision Trees (GBDT), particularly
Newton's method-based GBDT, need not necessarily exhibit global convexity.
Instead, the loss function only requires convexity within a specific region.
Consequently, these GBDT models can leverage the benefits of nonconvex robust
loss functions, making them resilient to noise. Building upon this theoretical
insight, we introduce a new noise-robust boosting model called Robust-GBDT,
which seamlessly integrates the advanced GBDT framework with robust losses.
Additionally, we enhance the existing robust loss functions and introduce a
novel robust loss function, Robust Focal Loss, designed to address class
imbalance. As a result, Robust-GBDT generates more accurate predictions,
significantly enhancing its generalization capabilities, especially in
scenarios marked by label noise and class imbalance. Furthermore, Robust-GBDT
is user-friendly and can easily integrate existing open-source code, enabling
it to effectively handle complex datasets while improving computational
efficiency. Numerous experiments confirm the superiority of Robust-GBDT over
other noise-robust methods.
- Abstract(参考訳): ロバストブースティングアルゴリズムは、分類タスクにおけるラベルノイズに対処する従来のブースティング手法の代替ソリューションとして登場した。
しかし、これらの手法は主にバイナリ分類に重点を置いており、多クラスタスクに適用性を制限する。
さらに、不均衡なデータセット、欠落した値、計算効率といった課題に直面している。
本稿では,先進的なグラディエントブースティング決定木(GBDT)における損失関数,特にニュートン法に基づくGBDTが必ずしもグローバルな凸性を示す必要はないことを確かめる。
代わりに、損失関数は特定の領域内の凸性のみを必要とする。
したがって、これらのGBDTモデルは、非凸ロバスト損失関数の利点を活用でき、ノイズに耐性がある。
この理論的知見に基づいて、ロバストGBDTと呼ばれる新しいノイズロストブースティングモデルを導入し、堅牢な損失を伴う高度なGBDTフレームワークをシームレスに統合する。
さらに,既存のロバスト損失関数を拡張し,クラス不均衡に対処するために設計された新しいロバスト損失関数ロバスト焦点損失を導入する。
結果として、Robust-GBDTはより正確な予測を生成し、特にラベルノイズとクラス不均衡を特徴とするシナリオにおいて、その一般化能力を大幅に向上する。
さらに、Robust-GBDTはユーザフレンドリで、既存のオープンソースコードを容易に統合でき、計算効率を改善しながら複雑なデータセットを効果的に処理できる。
多くの実験により、ロバストGBDTは他のノイズローバスト法よりも優れていることが確認された。
関連論文リスト
- One-step Noisy Label Mitigation [86.57572253460125]
ノイズラベルのトレーニング過程に対する有害な影響の軽減がますます重要になっている。
モデルに依存しないノイズラベル緩和パラダイムである1ステップアンチノイズ(OSA)を提案する。
我々はOSAの優位性を実証的に実証し、トレーニングの堅牢性の向上、タスク転送性の向上、デプロイメントの容易性、計算コストの削減を強調した。
論文 参考訳(メタデータ) (2024-10-02T18:42:56Z) - An Embedding is Worth a Thousand Noisy Labels [0.11999555634662634]
本稿では,重み付けされたアダプティブNearest Neighborアプローチを用いてラベルノイズに対処するWANNを提案する。
WANNの参照手法は、様々な大きさの多様なデータセットや、様々なノイズタイプや重大さで優れていることを示す。
私たちのアプローチは、効率性と説明可能性を強調し、ディープニューラルネットワークトレーニングの固有の制限を克服するための、シンプルで堅牢なソリューションとして現れます。
論文 参考訳(メタデータ) (2024-08-26T15:32:31Z) - Improving GBDT Performance on Imbalanced Datasets: An Empirical Study of Class-Balanced Loss Functions [3.559225731091162]
本稿では,3つのグラディエントブースティング決定木(GBDT)アルゴリズムにクラスバランス損失関数を適用するための総合的研究について述べる。
各種GBDTモデルに対するクラスバランス損失の影響を評価するため,複数のデータセットに対する広範囲な実験を行った。
この結果から,不均衡データセット上でのGBDT性能を向上させるためのクラスバランス損失関数の可能性が示された。
論文 参考訳(メタデータ) (2024-07-19T15:10:46Z) - Robust Learning under Hybrid Noise [24.36707245704713]
本稿では,データリカバリの観点からハイブリッドノイズに対処するため,新たな統合学習フレームワーク"Feature and Label Recovery"(FLR)を提案する。
論文 参考訳(メタデータ) (2024-07-04T16:13:25Z) - Stable Neighbor Denoising for Source-free Domain Adaptive Segmentation [91.83820250747935]
擬似ラベルノイズは主に不安定なサンプルに含まれており、ほとんどのピクセルの予測は自己学習中に大きく変化する。
我々は, 安定・不安定な試料を効果的に発見する, SND(Stable Neighbor Denoising)アプローチを導入する。
SNDは、様々なSFUDAセマンティックセグメンテーション設定における最先端メソッドよりも一貫して優れている。
論文 参考訳(メタデータ) (2024-06-10T21:44:52Z) - SoftPatch: Unsupervised Anomaly Detection with Noisy Data [67.38948127630644]
本稿では,画像センサ異常検出におけるラベルレベルのノイズを初めて考察する。
本稿では,メモリベースの非教師付きAD手法であるSoftPatchを提案する。
既存の手法と比較して、SoftPatchは通常のデータの強力なモデリング能力を維持し、コアセットにおける過信問題を軽減する。
論文 参考訳(メタデータ) (2024-03-21T08:49:34Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Improve Noise Tolerance of Robust Loss via Noise-Awareness [60.34670515595074]
本稿では,NARL-Adjuster(NARL-Adjuster for brevity)と呼ばれる,ハイパーパラメータ予測関数を適応的に学習するメタラーニング手法を提案する。
4つのSOTAロバストな損失関数を我々のアルゴリズムに統合し,提案手法の一般性および性能をノイズ耐性と性能の両面で検証した。
論文 参考訳(メタデータ) (2023-01-18T04:54:58Z) - Open-set Label Noise Can Improve Robustness Against Inherent Label Noise [27.885927200376386]
オープンセットノイズラベルは非毒性であり, 固有ノイズラベルに対するロバスト性にも寄与することを示した。
本研究では,動的雑音ラベル(ODNL)を用いたオープンセットサンプルをトレーニングに導入することで,シンプルかつ効果的な正規化を提案する。
論文 参考訳(メタデータ) (2021-06-21T07:15:50Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。