論文の概要: Collaborative Optimization of Multiclass Imbalanced Learning: Density-Aware and Region-Guided Boosting
- arxiv url: http://arxiv.org/abs/2512.22478v1
- Date: Sat, 27 Dec 2025 05:50:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.076196
- Title: Collaborative Optimization of Multiclass Imbalanced Learning: Density-Aware and Region-Guided Boosting
- Title(参考訳): 多クラス不均衡学習の協調的最適化:密度認識と地域誘導ブースティング
- Authors: Chuantao Li, Zhi Li, Jiahao Xu, Jie Li, Sheng Li,
- Abstract要約: 本研究では,不均衡学習のための協調最適化ブースティングモデルを提案する。
20の公開不均衡データセットの実験では、提案されたモデルが8つの最先端ベースラインを大幅に上回っていることが示されている。
- 参考スコア(独自算出の注目度): 14.12540411997216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Numerous studies attempt to mitigate classification bias caused by class imbalance. However, existing studies have yet to explore the collaborative optimization of imbalanced learning and model training. This constraint hinders further performance improvements. To bridge this gap, this study proposes a collaborative optimization Boosting model of multiclass imbalanced learning. This model is simple but effective by integrating the density factor and the confidence factor, this study designs a noise-resistant weight update mechanism and a dynamic sampling strategy. Rather than functioning as independent components, these modules are tightly integrated to orchestrate weight updates, sample region partitioning, and region-guided sampling. Thus, this study achieves the collaborative optimization of imbalanced learning and model training. Extensive experiments on 20 public imbalanced datasets demonstrate that the proposed model significantly outperforms eight state-of-the-art baselines. The code for the proposed model is available at: https://github.com/ChuantaoLi/DARG.
- Abstract(参考訳): 多くの研究が、階級不均衡に起因する分類バイアスを緩和しようと試みている。
しかし、既存の研究では、不均衡学習とモデルトレーニングの協調的な最適化についてはまだ検討されていない。
この制約はさらなるパフォーマンス向上を妨げる。
このギャップを埋めるために,多クラス不均衡学習の協調最適化促進モデルを提案する。
本モデルでは, 密度係数と信頼性係数を統合することで, 耐雑音重量更新機構と動的サンプリング戦略を設計する。
独立したコンポーネントとして機能するのではなく、これらのモジュールは、重み更新、サンプル領域分割、領域誘導サンプリングのオーケストレーションに密に統合されている。
そこで本研究では,不均衡学習とモデル学習の協調的最適化を実現する。
20の公開不均衡データセットに対する大規模な実験により、提案モデルが8つの最先端ベースラインを著しく上回ることを示した。
提案されたモデルのコードは、https://github.com/ChuantaoLi/DARG.comで公開されている。
関連論文リスト
- Did Models Sufficient Learn? Attribution-Guided Training via Subset-Selected Counterfactual Augmentation [61.248535801314375]
Subset-Selected Counterfactual Augmentation (SS-CA)
我々は,モデル予測を選択的に変更可能な最小空間領域集合を識別するために,対実的LIMAを開発した。
実験により,SS-CAは分布内テストデータ(ID)の一般化を改善し,分布外ベンチマーク(OOD)において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-11-15T08:39:22Z) - Multi-Strategy Improved Snake Optimizer Accelerated CNN-LSTM-Attention-Adaboost for Trajectory Prediction [9.489729227685057]
本稿では,マルチストラテジー改良型スネークハード最適化(SO)アルゴリズムを取り入れたハイブリッドCNN-LSTM-attention-adaboostニューラルネットワークモデルを提案する。
その結果,SO-adaboostは粒子群,クジラ,オオカミなどの従来のCLAよりも大規模な高次元軌道データの処理に優れていた。
さらに、フルストラテジー協調改善SOアルゴリズムの導入により、モデルの予測精度は39.89%向上した。
論文 参考訳(メタデータ) (2025-07-21T17:44:06Z) - Rethinking Multimodal Learning from the Perspective of Mitigating Classification Ability Disproportion [6.749782429802639]
マルチモーダル学習は、モダリティの不均衡によって著しく制約される。
本稿では,強化の原理を取り入れて,弱いモダリティと強いモダリティの分類能力のバランスをとる新しい手法を提案する。
論文 参考訳(メタデータ) (2025-02-27T14:12:20Z) - Regularized Neural Ensemblers [55.15643209328513]
本研究では,正規化ニューラルネットワークをアンサンブル手法として活用することを検討する。
低多様性のアンサンブルを学習するリスクを動機として,ランダムにベースモデル予測をドロップすることで,アンサンブルモデルの正規化を提案する。
このアプローチはアンサンブル内の多様性の低い境界を提供し、過度な適合を減らし、一般化能力を向上させる。
論文 参考訳(メタデータ) (2024-10-06T15:25:39Z) - Joint Training of Deep Ensembles Fails Due to Learner Collusion [61.557412796012535]
機械学習モデルのアンサンブルは、単一のモデルよりもパフォーマンスを改善する強力な方法として確立されている。
伝統的に、アンサンブルアルゴリズムは、ジョイントパフォーマンスの最適化を目標として、ベースラーナーを独立または逐次訓練する。
アンサンブルの損失を最小化することは、実際にはほとんど適用されないことを示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:07Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - MixKD: Towards Efficient Distillation of Large-scale Language Models [129.73786264834894]
データに依存しない蒸留フレームワークであるMixKDを提案する。
妥当な条件下では、MixKDは誤差と経験的誤差の間のギャップを小さくする。
限定的なデータ設定とアブレーションによる実験は、提案手法の利点をさらに証明している。
論文 参考訳(メタデータ) (2020-11-01T18:47:51Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。