論文の概要: GAdaBoost: An Efficient and Robust AdaBoost Algorithm Based on Granular-Ball Structure
- arxiv url: http://arxiv.org/abs/2506.02390v1
- Date: Tue, 03 Jun 2025 03:10:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.206997
- Title: GAdaBoost: An Efficient and Robust AdaBoost Algorithm Based on Granular-Ball Structure
- Title(参考訳): GAdaBoost: 粒界構造に基づく効率的かつロバストなAdaBoostアルゴリズム
- Authors: Qin Xie, Qinghua Zhang, Shuyin Xia, Xinran Zhou, Guoyin Wang,
- Abstract要約: 本稿では,データグラニュレーション段階とアダプティブ・ブースティング段階からなる新しい2段階のフレームワークであるGAdaBoostを提案する。
まず, 多様性を保ち, ラベルノイズを軽減しつつ, データを圧縮するグラニュラーボール生成法を考案した。
第二に、グラニュラーボールに基づくSAMMEアルゴリズムは、個々のサンプルではなく、グラニュラーボールに焦点を当て、効率を改善し、ノイズに対する感度を低下させる。
- 参考スコア(独自算出の注目度): 12.147096394257103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adaptive Boosting (AdaBoost) faces significant challenges posed by label noise, especially in multiclass classification tasks. Existing methods either lack mechanisms to handle label noise effectively or suffer from high computational costs due to redundant data usage. Inspired by granular computing, this paper proposes granular adaptive boosting (GAdaBoost), a novel two-stage framework comprising a data granulation stage and an adaptive boosting stage, to enhance efficiency and robustness under noisy conditions. To validate its feasibility, an extension of SAMME, termed GAdaBoost.SA, is proposed. Specifically, first, a granular-ball generation method is designed to compress data while preserving diversity and mitigating label noise. Second, the granular ball-based SAMME algorithm focuses on granular balls rather than individual samples, improving efficiency and reducing sensitivity to noise. Experimental results on some noisy datasets show that the proposed approach achieves superior robustness and efficiency compared with existing methods, demonstrating that this work effectively extends AdaBoost and SAMME.
- Abstract(参考訳): Adaptive Boosting (AdaBoost)は、特にマルチクラス分類タスクにおいて、ラベルノイズによって生じる重大な課題に直面している。
既存の手法ではラベルノイズを効果的に処理するメカニズムが欠如しているか、冗長なデータ使用のために高い計算コストに悩まされている。
本稿では,データグラニュレーション段階とアダプティブ・ブースティング段階からなる新しい2段階のフレームワークであるGAdaBoostを提案する。
その実現可能性を検証するため、SAMMEの拡張(GAdaBoost.SA)が提案されている。
具体的には、まず、多様性を保ち、ラベルノイズを緩和しながらデータを圧縮するグラニュラーボール生成法を設計する。
第二に、グラニュラーボールに基づくSAMMEアルゴリズムは、個々のサンプルではなく、グラニュラーボールに焦点を当て、効率を改善し、ノイズに対する感度を低下させる。
いくつかのノイズのあるデータセットの実験結果から,提案手法は既存手法と比較して頑健さと効率性に優れており,AdaBoostとSAMMEを効果的に拡張できることが示されている。
関連論文リスト
- AEON: Adaptive Estimation of Instance-Dependent In-Distribution and Out-of-Distribution Label Noise for Robust Learning [17.397478141194778]
実世界のデータセットには、イン・ディストリビューション(ID)とアウト・オブ・ディストリビューション(OOD)のインスタンス依存ラベルノイズが混在することが多い。
本稿では,これらの研究ギャップに対処するために,インスタンス依存型In-DistributionとOut-of-Distribution Label Noise(AEON)の適応推定手法を提案する。
AEONは、インスタンス依存IDとOODラベルのノイズ率を動的に推定する効率的な1段階雑音ラベル学習手法である。
論文 参考訳(メタデータ) (2025-01-23T05:19:00Z) - Faster WIND: Accelerating Iterative Best-of-$N$ Distillation for LLM Alignment [81.84950252537618]
本稿では,反復的BONDと自己プレイアライメントの統一的なゲーム理論接続を明らかにする。
WINレート支配(WIN rate Dominance, WIND)という新しいフレームワークを構築し, 正規化利率支配最適化のためのアルゴリズムを多数提案する。
論文 参考訳(メタデータ) (2024-10-28T04:47:39Z) - One-step Noisy Label Mitigation [86.57572253460125]
ノイズラベルのトレーニング過程に対する有害な影響の軽減がますます重要になっている。
モデルに依存しないノイズラベル緩和パラダイムである1ステップアンチノイズ(OSA)を提案する。
我々はOSAの優位性を実証的に実証し、トレーニングの堅牢性の向上、タスク転送性の向上、デプロイメントの容易性、計算コストの削減を強調した。
論文 参考訳(メタデータ) (2024-10-02T18:42:56Z) - Increasing Model Capacity for Free: A Simple Strategy for Parameter Efficient Fine-tuning [7.239534396071191]
CapaBoostは、ターゲット層における並列重みモジュールによる低ランク更新を活用することで、モデルキャパシティを向上させる戦略である。
本稿では,自然言語理解,質問応答,画像分類など,さまざまな下流タスクの実験を通じて,CapaBoostの有効性を広く検証する。
以上の結果から,計算コストやストレージコストを増大させることなく,ベースラインよりも大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-07-01T14:26:48Z) - Iso-Diffusion: Improving Diffusion Probabilistic Models Using the Isotropy of the Additive Gaussian Noise [0.0]
本稿では、DDPMの忠実度を高めるために、目的関数の制約として添加音の等方性を利用する方法を示す。
我々のアプローチは単純であり、DDPMの変種にも適用できる。
論文 参考訳(メタデータ) (2024-03-25T14:05:52Z) - Fine tuning Pre trained Models for Robustness Under Noisy Labels [34.68018860186995]
トレーニングデータセットにノイズの多いラベルが存在することは、機械学習モデルのパフォーマンスに大きな影響を及ぼす可能性がある。
我々は、事前学習されたモデルの事前知識を頑健かつ効率的に伝達するTURNと呼ばれる新しいアルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-10-24T20:28:59Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - Boosting the Discriminant Power of Naive Bayes [17.43377106246301]
本稿では,スタックオートエンコーダを用いた特徴拡張手法を提案し,データ中のノイズを低減し,ベイズの識別力を高める。
実験結果から,提案手法は最先端のベイズ分類器よりも大きく,かつ一貫した性能を示した。
論文 参考訳(メタデータ) (2022-09-20T08:02:54Z) - Improving Face Recognition by Clustering Unlabeled Faces in the Wild [77.48677160252198]
極値理論に基づく新しいアイデンティティ分離法を提案する。
重なり合うラベルノイズによる問題を大幅に低減する。
制御された設定と実際の設定の両方の実験は、我々のメソッドの一貫性のある改善を示している。
論文 参考訳(メタデータ) (2020-07-14T12:26:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。