論文の概要: Robust Minimax Boosting with Performance Guarantees
- arxiv url: http://arxiv.org/abs/2510.13445v1
- Date: Wed, 15 Oct 2025 11:45:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.652531
- Title: Robust Minimax Boosting with Performance Guarantees
- Title(参考訳): Robust Minimaxがパフォーマンス保証で強化
- Authors: Santiago Mazuelas, Veronica Alvarez,
- Abstract要約: ブースティング法は、しばしば優れた分類精度を達成するが、ラベルノイズの存在下での顕著な性能劣化を経験することができる。
本稿では,最悪のエラー確率を最小限に抑え,一般的なラベルノイズに対して頑健であるRMBoost法を提案する。
- 参考スコア(独自算出の注目度): 8.243212777125752
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Boosting methods often achieve excellent classification accuracy, but can experience notable performance degradation in the presence of label noise. Existing robust methods for boosting provide theoretical robustness guarantees for certain types of label noise, and can exhibit only moderate performance degradation. However, previous theoretical results do not account for realistic types of noise and finite training sizes, and existing robust methods can provide unsatisfactory accuracies, even without noise. This paper presents methods for robust minimax boosting (RMBoost) that minimize worst-case error probabilities and are robust to general types of label noise. In addition, we provide finite-sample performance guarantees for RMBoost with respect to the error obtained without noise and with respect to the best possible error (Bayes risk). The experimental results corroborate that RMBoost is not only resilient to label noise but can also provide strong classification accuracy.
- Abstract(参考訳): ブースティング法は、しばしば優れた分類精度を達成するが、ラベルノイズの存在下での顕著な性能劣化を経験することができる。
既存のロバストな手法は、特定の種類のラベルノイズに対して理論的なロバスト性を保証するとともに、中程度の性能劣化しか示さない。
しかし、従来の理論的結果は、現実的なノイズの種類や有限の訓練サイズを考慮せず、既存の頑健な手法は、ノイズなしでも不満足な精度を提供することができる。
本稿では,最悪のエラー確率を最小限に抑え,一般的なラベルノイズに対して頑健であるRMBoost法を提案する。
また,雑音のない誤りに対してRMBoostに対して,最高の誤差(ベイズリスク)について有限サンプル性能保証を行う。
実験結果は、RMBoostはラベルノイズに耐性があるだけでなく、高い分類精度を提供できることを裏付けるものである。
関連論文リスト
- $ε$-Softmax: Approximating One-Hot Vectors for Mitigating Label Noise [99.91399796174602]
ノイズラベルは、正確なディープニューラルネットワークをトレーニングする上で共通の課題となる。
我々は,ソフトマックス層の出力を制御可能な誤差で1ホットベクトルに近似させる,$epsilon$-softmaxを提案する。
理論的には、$epsilon$-softmaxは、ほぼ任意の損失関数に対して制御可能な過剰リスクを持つ耐雑音学習を実現することができる。
論文 参考訳(メタデータ) (2025-08-04T13:10:48Z) - Multi-Layer Cycle Benchmarking for high-accuracy error characterization [0.0]
実効パウリ雑音モデルに関連する学習性を改善するために,MLCB(Multi-Layer Cycle Benchmarking)を導入する。
現実的なシナリオでは、MLCBは難解な自由度を最大75%まで低減し、スパースなパウリ・リンドブラッドノイズモデルの精度を向上させることができる。
以上の結果から,MLCBは精度の高いノイズ評価と量子計算の改善を目的とした,スケーラブルで実用的なツールとして注目されている。
論文 参考訳(メタデータ) (2024-12-12T15:00:31Z) - SoftPatch: Unsupervised Anomaly Detection with Noisy Data [67.38948127630644]
本稿では,画像センサ異常検出におけるラベルレベルのノイズを初めて考察する。
本稿では,メモリベースの非教師付きAD手法であるSoftPatchを提案する。
既存の手法と比較して、SoftPatchは通常のデータの強力なモデリング能力を維持し、コアセットにおける過信問題を軽減する。
論文 参考訳(メタデータ) (2024-03-21T08:49:34Z) - Label Noise: Correcting the Forward-Correction [0.0]
ラベルノイズのあるデータセット上でニューラルネットワーク分類器を訓練することは、ノイズのあるラベルに過度に適合するリスクをもたらす。
ラベルノイズによる過度適合に対処する手法を提案する。
本研究は, オーバーフィッティングを緩和するために, トレーニング損失に低い限界を課すことを提案する。
論文 参考訳(メタデータ) (2023-07-24T19:41:19Z) - Operational Markovianization in Randomized Benchmarking [7.680510419135912]
我々は、動的デカップリング(DD)やランダムコンパイル(RC)のようなエラー抑制技術がランダムベンチマーク(RB)を動作的にマーカビアン化できることを解析的に示す。
提案手法は,非マルコフ雑音を同時に低減し,標準かつ信頼性の高いゲート品質推定を可能にする。
論文 参考訳(メタデータ) (2023-05-08T13:37:18Z) - Improve Noise Tolerance of Robust Loss via Noise-Awareness [60.34670515595074]
本稿では,NARL-Adjuster(NARL-Adjuster for brevity)と呼ばれる,ハイパーパラメータ予測関数を適応的に学習するメタラーニング手法を提案する。
4つのSOTAロバストな損失関数を我々のアルゴリズムに統合し,提案手法の一般性および性能をノイズ耐性と性能の両面で検証した。
論文 参考訳(メタデータ) (2023-01-18T04:54:58Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Robustness and reliability when training with noisy labels [12.688634089849023]
教師付き学習のためのデータの遅延は、コストと時間を要する可能性がある。
ディープニューラルネットワークは、ランダムラベルの適合、正規化、ロバストな損失関数の使用を証明している。
論文 参考訳(メタデータ) (2021-10-07T10:30:20Z) - Open-set Label Noise Can Improve Robustness Against Inherent Label Noise [27.885927200376386]
オープンセットノイズラベルは非毒性であり, 固有ノイズラベルに対するロバスト性にも寄与することを示した。
本研究では,動的雑音ラベル(ODNL)を用いたオープンセットサンプルをトレーニングに導入することで,シンプルかつ効果的な正規化を提案する。
論文 参考訳(メタデータ) (2021-06-21T07:15:50Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。