論文の概要: Bounding the Worst-class Error: A Boosting Approach
- arxiv url: http://arxiv.org/abs/2310.14890v2
- Date: Sat, 12 Jul 2025 00:13:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:20.767861
- Title: Bounding the Worst-class Error: A Boosting Approach
- Title(参考訳): 最悪のエラーの境界: ブースティングアプローチ
- Authors: Yuya Saito, Shinnosuke Matsuo, Seiichi Uchida, Daiki Suehiro,
- Abstract要約: 最悪のクラスエラーは多くのアプリケーションで重要である。
本稿では,全てのクラスの平均誤差率ではなく,最悪のクラスエラー率の問題に取り組む。
- 参考スコア(独自算出の注目度): 6.19352064268264
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper tackles the problem of the worst-class error rate, instead of the standard error rate averaged over all classes. For example, a three-class classification task with class-wise error rates of 10%, 10%, and 40% has a worst-class error rate of 40%, whereas the average is 20% under the class-balanced condition. The worst-class error is important in many applications. For example, in a medical image classification task, it would not be acceptable for the malignant tumor class to have a 40% error rate, while the benign and healthy classes have a 10% error rates. To avoid overfitting in worst-class error minimization using Deep Neural Networks (DNNs), we design a problem formulation for bounding the worst-class error instead of achieving zero worst-class error. Moreover, to correctly bound the worst-class error, we propose a boosting approach which ensembles DNNs. We give training and generalization worst-class-error bound. Experimental results show that the algorithm lowers worst-class test error rates while avoiding overfitting to the training set.
- Abstract(参考訳): 本稿では,全てのクラスの平均誤差率ではなく,最悪のクラスエラー率の問題に取り組む。
例えば、クラス単位でのエラー率10%、10%、40%の3クラス分類タスクは、クラスバランスの条件下では平均が20%であるのに対して、最悪のクラスエラー率40%の3クラス分類タスクである。
最悪のクラスエラーは多くのアプリケーションで重要である。
例えば、医療画像分類タスクでは、悪性腫瘍のクラスが40%のエラー率を持つのに対して、良性クラスと健康なクラスは10%のエラー率を持つのが受け入れられない。
ディープニューラルネットワーク(DNN)を用いた最悪のエラー最小化における過度な最適化を回避するため、最悪のエラーをゼロにするのではなく、最悪のエラーをバウンドする問題の定式化を設計する。
さらに、最悪のクラスエラーを正しくバインドするために、DNNをアンサンブルするブースティングアプローチを提案する。
トレーニングと一般化の最悪のクラスエラー境界を与えます。
実験結果から,アルゴリズムはトレーニングセットへの過度な適合を回避しながら,最悪のテストエラー率を低下させることが示された。
関連論文リスト
- Rethinking Early Stopping: Refine, Then Calibrate [49.966899634962374]
校正誤差と校正誤差は,訓練中に同時に最小化されないことを示す。
我々は,早期停止とハイパーパラメータチューニングのための新しい指標を導入し,トレーニング中の改善誤差を最小限に抑える。
本手法は,任意のアーキテクチャとシームレスに統合し,多様な分類タスクにおける性能を継続的に向上する。
論文 参考訳(メタデータ) (2025-01-31T15:03:54Z) - Classification Error Bound for Low Bayes Error Conditions in Machine Learning [50.25063912757367]
機械学習における誤りミスマッチとKulback-Leibler分散の関係について検討する。
多くの機械学習タスクにおける低モデルに基づく分類誤差の最近の観測により、低ベイズ誤差条件に対する分類誤差の線形近似を提案する。
論文 参考訳(メタデータ) (2025-01-27T11:57:21Z) - Let the Fuzzy Rule Speak: Enhancing In-context Learning Debiasing with Interpretability [12.287692969438169]
大規模言語モデル(LLM)は、テキスト分類タスクにおいて、文脈内学習(ICL)を用いたバランスの取れたクラス精度に苦慮することが多い。
本稿では、クラス精度の不均衡問題を深く掘り下げ、あるクラスが不均等に高いICL確率を常に受けているため、それが生じることを確かめる。
本稿では,サンプルレベルのクラス確率補正手法であるFuRudを紹介する。
論文 参考訳(メタデータ) (2024-12-26T01:56:42Z) - Understanding the Detrimental Class-level Effects of Data Augmentation [63.1733767714073]
最適な平均精度を達成するには、ImageNetで最大20%の個々のクラスの精度を著しく損なうコストがかかる。
本稿では,DAがクラスレベルの学習力学とどのように相互作用するかを理解するためのフレームワークを提案する。
そこで本研究では, クラス条件拡張戦略により, 負の影響を受けるクラスの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-07T18:37:43Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Revisiting adversarial training for the worst-performing class [60.231877895663956]
多くのデータセットにおいて、トップパフォーマンスクラスと最悪のパフォーマンスクラスの間には、かなりのギャップがある。
我々は、最悪のパフォーマンスのクラスを明示的に最適化することで、このギャップを減らせることができると論じる。
本手法は,クラス集中型オンライン学習(CFOL)と呼ばれ,最悪のクラス損失に対する高い確率収束保証を含む。
論文 参考訳(メタデータ) (2023-02-17T13:41:40Z) - Review of Methods for Handling Class-Imbalanced in Classification
Problems [0.0]
場合によっては、あるクラスはほとんどの例を含むが、他方はより重要なクラスであり、しかしながら、少数の例で表される。
本稿では、データレベル、アルゴリズムレベル、ハイブリッド、コスト感受性学習、ディープラーニングを含む、クラス不均衡による学習の問題に対処する最も広く使われている手法について検討する。
論文 参考訳(メタデータ) (2022-11-10T10:07:10Z) - Learning from Multiple Unlabeled Datasets with Partial Risk
Regularization [80.54710259664698]
本稿では,クラスラベルを使わずに正確な分類器を学習することを目的とする。
まず、与えられたラベルのない集合から推定できる分類リスクの偏りのない推定器を導出する。
その結果、経験的リスクがトレーニング中に負になるにつれて、分類器が過度に適合する傾向があることが判明した。
実験により,本手法は,複数の未ラベル集合から学習する最先端の手法を効果的に緩和し,性能を向上することを示した。
論文 参考訳(メタデータ) (2022-07-04T16:22:44Z) - On Non-Random Missing Labels in Semi-Supervised Learning [114.62655062520425]
Semi-Supervised Learning (SSL)は基本的にラベルの問題である。
SSL に "class" を明示的に組み込んでいます。
提案手法は,既存のベースラインを著しく上回るだけでなく,他のラベルバイアス除去SSL法を上回ります。
論文 参考訳(メタデータ) (2022-06-29T22:01:29Z) - Throwing Away Data Improves Worst-Class Error in Imbalanced
Classification [36.91428748713018]
クラス不均衡は分類問題に悪影響を及ぼすが、その治療は理論と実践において異なる。
本稿では,線形分離可能なデータに対する分類器の誤りを記述できる学習理論の開発に挑戦する。
論文 参考訳(メタデータ) (2022-05-23T23:43:18Z) - Repairing Group-Level Errors for DNNs Using Weighted Regularization [15.180437840817785]
ディープニューラルネットワーク(DNN)は、人々の生活に影響を与える決定を下すソフトウェアで広く使われている。
それらは、不運な結果につながる可能性のある重度の誤った行動を示すことが判明した。
以前の研究では、そのような不行は単一の画像上のエラーではなく、クラスプロパティの違反によって発生することが多かった。
本稿では,DNNの修正を目的とした5つの具体的手法からなる重み付き正規化法を提案する。
論文 参考訳(メタデータ) (2022-03-24T15:45:23Z) - Is the Performance of My Deep Network Too Good to Be True? A Direct
Approach to Estimating the Bayes Error in Binary Classification [86.32752788233913]
分類問題において、ベイズ誤差は、最先端の性能を持つ分類器を評価するための基準として用いられる。
我々はベイズ誤差推定器を提案する。そこでは,クラスの不確かさを示すラベルの平均値のみを評価できる。
我々の柔軟なアプローチは、弱い教師付きデータであってもベイズ誤差を推定できる。
論文 参考訳(メタデータ) (2022-02-01T13:22:26Z) - Asymmetric error control under imperfect supervision: a
label-noise-adjusted Neyman-Pearson umbrella algorithm [9.680436421852768]
Neyman-Pearson(NP)分類パラダイムは、望ましいレベルでより厳しいタイプのエラーを制約する。
NPパラダイムに基づくトレーニングラベルノイズに対して,ほとんどの最先端分類手法を適応する最初の理論支援アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-01T07:10:19Z) - Shift Happens: Adjusting Classifiers [2.8682942808330703]
ブレアスコアやログロス(クロスエントロピー)のような適切なスコアリングルールによって測定される期待損失を最小限に抑えることは、確率的分類器を訓練する際の共通の目的である。
本稿では,全ての予測を平均予測とクラス分布に等化させる手法を提案する。
実際に、クラス分布が概ね知られている場合、シフトの量やクラス分布が知られている精度に応じて、損失が減少することがしばしばあることを実験によって実証した。
論文 参考訳(メタデータ) (2021-11-03T21:27:27Z) - How to Control the Error Rates of Binary Classifiers [0.0]
本稿では,二項分類を統計的テストに変換し,p値の分類を計算し,対象の誤差率を制限する方法を示す。
特に、二項分類器を統計検査に変換し、p-値の分類を計算し、対象の誤差率を制限する方法を示す。
論文 参考訳(メタデータ) (2020-10-21T14:43:14Z) - Understanding and Mitigating the Tradeoff Between Robustness and
Accuracy [88.51943635427709]
逆行訓練は、堅牢なエラーを改善するために、摂動でトレーニングセットを増強する。
拡張摂動が最適線形予測器からノイズのない観測を行う場合であっても,標準誤差は増大する可能性がある。
論文 参考訳(メタデータ) (2020-02-25T08:03:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。