論文の概要: Boosting for Bounding the Worst-class Error
- arxiv url: http://arxiv.org/abs/2310.14890v1
- Date: Fri, 20 Oct 2023 07:49:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 20:05:41.037531
- Title: Boosting for Bounding the Worst-class Error
- Title(参考訳): 最悪のクラスエラーのバウンダリングの促進
- Authors: Yuya Saito, Shinnosuke Matsuo, Seiichi Uchida, Daiki Suehiro
- Abstract要約: 本稿では,全てのクラスの平均誤差率ではなく,最悪のクラスエラー率の問題に取り組む。
本稿では,最悪級トレーニングエラーの上限を保証し,その一般化境界を導出するブースティングアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 6.7659763626415135
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper tackles the problem of the worst-class error rate, instead of the
standard error rate averaged over all classes. For example, a three-class
classification task with class-wise error rates of 10\%, 10\%, and 40\% has a
worst-class error rate of 40\%, whereas the average is 20\% under the
class-balanced condition. The worst-class error is important in many
applications. For example, in a medical image classification task, it would not
be acceptable for the malignant tumor class to have a 40\% error rate, while
the benign and healthy classes have 10\% error rates.We propose a boosting
algorithm that guarantees an upper bound of the worst-class training error and
derive its generalization bound. Experimental results show that the algorithm
lowers worst-class test error rates while avoiding overfitting to the training
set.
- Abstract(参考訳): 本稿では,すべてのクラスで平均される標準誤差率ではなく,最悪のクラスエラー率の問題に取り組む。
例えば、クラス毎のエラーレートが10\%、10\%、40\%の3つのクラス分類タスクは、クラスバランス条件下では平均が20\%であるのに対して、最悪のクラスエラー率は40\%である。
最悪のクラスエラーは多くのアプリケーションで重要です。
例えば、医用画像分類タスクでは、悪性腫瘍のクラスが40 %のエラー率を持つのに対して、良性クラスと健性クラスは10 %のエラー率を持つのに対して、悪性腫瘍のクラスが40 %のエラー率を持つことは許されない。
実験の結果,アルゴリズムはトレーニングセットへの過度な適合を回避しながら,最悪のテストエラー率を低下させることがわかった。
関連論文リスト
- Understanding the Detrimental Class-level Effects of Data Augmentation [63.1733767714073]
最適な平均精度を達成するには、ImageNetで最大20%の個々のクラスの精度を著しく損なうコストがかかる。
本稿では,DAがクラスレベルの学習力学とどのように相互作用するかを理解するためのフレームワークを提案する。
そこで本研究では, クラス条件拡張戦略により, 負の影響を受けるクラスの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-07T18:37:43Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Revisiting adversarial training for the worst-performing class [60.231877895663956]
多くのデータセットにおいて、トップパフォーマンスクラスと最悪のパフォーマンスクラスの間には、かなりのギャップがある。
我々は、最悪のパフォーマンスのクラスを明示的に最適化することで、このギャップを減らせることができると論じる。
本手法は,クラス集中型オンライン学習(CFOL)と呼ばれ,最悪のクラス損失に対する高い確率収束保証を含む。
論文 参考訳(メタデータ) (2023-02-17T13:41:40Z) - Review of Methods for Handling Class-Imbalanced in Classification
Problems [0.0]
場合によっては、あるクラスはほとんどの例を含むが、他方はより重要なクラスであり、しかしながら、少数の例で表される。
本稿では、データレベル、アルゴリズムレベル、ハイブリッド、コスト感受性学習、ディープラーニングを含む、クラス不均衡による学習の問題に対処する最も広く使われている手法について検討する。
論文 参考訳(メタデータ) (2022-11-10T10:07:10Z) - Learning from Multiple Unlabeled Datasets with Partial Risk
Regularization [80.54710259664698]
本稿では,クラスラベルを使わずに正確な分類器を学習することを目的とする。
まず、与えられたラベルのない集合から推定できる分類リスクの偏りのない推定器を導出する。
その結果、経験的リスクがトレーニング中に負になるにつれて、分類器が過度に適合する傾向があることが判明した。
実験により,本手法は,複数の未ラベル集合から学習する最先端の手法を効果的に緩和し,性能を向上することを示した。
論文 参考訳(メタデータ) (2022-07-04T16:22:44Z) - Throwing Away Data Improves Worst-Class Error in Imbalanced
Classification [36.91428748713018]
クラス不均衡は分類問題に悪影響を及ぼすが、その治療は理論と実践において異なる。
本稿では,線形分離可能なデータに対する分類器の誤りを記述できる学習理論の開発に挑戦する。
論文 参考訳(メタデータ) (2022-05-23T23:43:18Z) - Is the Performance of My Deep Network Too Good to Be True? A Direct
Approach to Estimating the Bayes Error in Binary Classification [86.32752788233913]
分類問題において、ベイズ誤差は、最先端の性能を持つ分類器を評価するための基準として用いられる。
我々はベイズ誤差推定器を提案する。そこでは,クラスの不確かさを示すラベルの平均値のみを評価できる。
我々の柔軟なアプローチは、弱い教師付きデータであってもベイズ誤差を推定できる。
論文 参考訳(メタデータ) (2022-02-01T13:22:26Z) - Shift Happens: Adjusting Classifiers [2.8682942808330703]
ブレアスコアやログロス(クロスエントロピー)のような適切なスコアリングルールによって測定される期待損失を最小限に抑えることは、確率的分類器を訓練する際の共通の目的である。
本稿では,全ての予測を平均予測とクラス分布に等化させる手法を提案する。
実際に、クラス分布が概ね知られている場合、シフトの量やクラス分布が知られている精度に応じて、損失が減少することがしばしばあることを実験によって実証した。
論文 参考訳(メタデータ) (2021-11-03T21:27:27Z) - How to Control the Error Rates of Binary Classifiers [0.0]
本稿では,二項分類を統計的テストに変換し,p値の分類を計算し,対象の誤差率を制限する方法を示す。
特に、二項分類器を統計検査に変換し、p-値の分類を計算し、対象の誤差率を制限する方法を示す。
論文 参考訳(メタデータ) (2020-10-21T14:43:14Z) - Understanding and Mitigating the Tradeoff Between Robustness and
Accuracy [88.51943635427709]
逆行訓練は、堅牢なエラーを改善するために、摂動でトレーニングセットを増強する。
拡張摂動が最適線形予測器からノイズのない観測を行う場合であっても,標準誤差は増大する可能性がある。
論文 参考訳(メタデータ) (2020-02-25T08:03:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。