論文の概要: Label Distributionally Robust Losses for Multi-class Classification:
Consistency, Robustness and Adaptivity
- arxiv url: http://arxiv.org/abs/2112.14869v4
- Date: Wed, 28 Jun 2023 04:53:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 19:02:02.442286
- Title: Label Distributionally Robust Losses for Multi-class Classification:
Consistency, Robustness and Adaptivity
- Title(参考訳): 多クラス分類のためのラベル分布ロバスト損失:一貫性,ロバスト性,適応性
- Authors: Dixian Zhu, Yiming Ying and Tianbao Yang
- Abstract要約: 多クラス分類のためのラベル分布ロバスト(LDR)損失という損失関数群について検討した。
我々の貢献は、多クラス分類のためのLDR損失のトップ$kの一貫性を確立することによって、一貫性と堅牢性の両方を含んでいる。
本稿では,各インスタンスのクラスラベルの雑音度に個別化温度パラメータを自動的に適応させる適応型LDR損失を提案する。
- 参考スコア(独自算出の注目度): 55.29408396918968
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study a family of loss functions named label-distributionally robust (LDR)
losses for multi-class classification that are formulated from distributionally
robust optimization (DRO) perspective, where the uncertainty in the given label
information are modeled and captured by taking the worse case of distributional
weights. The benefits of this perspective are several fold: (i) it provides a
unified framework to explain the classical cross-entropy (CE) loss and SVM loss
and their variants, (ii) it includes a special family corresponding to the
temperature-scaled CE loss, which is widely adopted but poorly understood;
(iii) it allows us to achieve adaptivity to the uncertainty degree of label
information at an instance level. Our contributions include: (1) we study both
consistency and robustness by establishing top-$k$ ($\forall k\geq 1$)
consistency of LDR losses for multi-class classification, and a negative result
that a top-$1$ consistent and symmetric robust loss cannot achieve top-$k$
consistency simultaneously for all $k\geq 2$; (2) we propose a new adaptive LDR
loss that automatically adapts the individualized temperature parameter to the
noise degree of class label of each instance; (3) we demonstrate stable and
competitive performance for the proposed adaptive LDR loss on 7 benchmark
datasets under 6 noisy label and 1 clean settings against 13 loss functions,
and on one real-world noisy dataset. The code is open-sourced at
\url{https://github.com/Optimization-AI/ICML2023_LDR}.
- Abstract(参考訳): 本研究では,分布的ロバスト最適化(dro)の観点から定式化した多クラス分類のためのラベル分散ロバスト(ldr)損失と呼ばれる損失関数の族について検討する。
この観点の利点はいくつかあります。
i) 古典的クロスエントロピー(CE)損失とSVM損失とその変種を説明する統一的なフレームワークを提供する。
(ii)広く採用されているが、よく理解されていない温度スケールのce損失に対応する特殊ファミリーを含む。
(iii)インスタンスレベルでラベル情報の不確実性度に適応することができる。
Our contributions include: (1) we study both consistency and robustness by establishing top-$k$ ($\forall k\geq 1$) consistency of LDR losses for multi-class classification, and a negative result that a top-$1$ consistent and symmetric robust loss cannot achieve top-$k$ consistency simultaneously for all $k\geq 2$; (2) we propose a new adaptive LDR loss that automatically adapts the individualized temperature parameter to the noise degree of class label of each instance; (3) we demonstrate stable and competitive performance for the proposed adaptive LDR loss on 7 benchmark datasets under 6 noisy label and 1 clean settings against 13 loss functions, and on one real-world noisy dataset.
コードは \url{https://github.com/Optimization-AI/ICML2023_LDR} でオープンソース化されている。
関連論文リスト
- Energy Score-based Pseudo-Label Filtering and Adaptive Loss for Imbalanced Semi-supervised SAR target recognition [1.2035771704626825]
既存の半教師付きSAR ATRアルゴリズムは、クラス不均衡の場合、認識精度が低い。
この研究は、動的エネルギースコアと適応損失を用いた非平衡半教師付きSAR目標認識手法を提供する。
論文 参考訳(メタデータ) (2024-11-06T14:45:16Z) - An extended asymmetric sigmoid with Perceptron (SIGTRON) for imbalanced linear classification [0.0]
本稿では、SIGTRONと呼ばれる新しいパラメータ化シグモノイドと、SIGTRON不均衡分類(SIC)モデルと呼ばれる同伴凸モデルを提案する。
従来の$pi$重み付きコスト依存学習モデルとは対照的に、SICモデルは損失関数に外部の$pi$重みを持たない。
提案したSICモデルは,データセットのバリエーションに適応可能であることを示す。
論文 参考訳(メタデータ) (2023-12-26T13:14:17Z) - Generating Unbiased Pseudo-labels via a Theoretically Guaranteed
Chebyshev Constraint to Unify Semi-supervised Classification and Regression [57.17120203327993]
分類におけるしきい値と擬似ラベルプロセス(T2L)は、ラベルの品質を決定するために信頼性を使用する。
本質的には、レグレッションは高品質なラベルを生成するためにバイアスのない方法も必要である。
チェビシェフの不等式に基づく不偏ラベルを生成するための理論的に保証された制約を提案する。
論文 参考訳(メタデータ) (2023-11-03T08:39:35Z) - Uncertainty-Aware Source-Free Adaptive Image Super-Resolution with Wavelet Augmentation Transformer [60.31021888394358]
Unsupervised Domain Adaptation (UDA)は、現実世界の超解像(SR)における領域ギャップ問題に効果的に対処できる
本稿では,画像SR(SODA-SR)のためのSOurce-free Domain Adaptationフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-31T03:14:44Z) - The KFIoU Loss for Rotated Object Detection [115.334070064346]
本稿では,SkewIoU損失とトレンドレベルアライメントを両立できる近似的損失を考案する上で,有効な方法の1つとして論じる。
具体的には、対象をガウス分布としてモデル化し、SkewIoUのメカニズムを本質的に模倣するためにカルマンフィルタを採用する。
KFIoUと呼ばれる新たな損失は実装が容易で、正確なSkewIoUよりもうまく動作する。
論文 参考訳(メタデータ) (2022-01-29T10:54:57Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Robust Classification via Support Vector Machines [1.7520660701924717]
データ不確実性下での2つの堅牢な分類器を提案する。
1つ目はSP-SVM(Single Perturbation SVM)と呼ばれ、データの1つの特徴に対して制御された摂動を許容することで構成的な方法を提供する。
第2の方法は Extreme Empirical Loss SVM (EEL-SVM) と呼ばれ、新しい経験的損失推定、すなわち Extreme Empirical Loss (EEL) に基づいている。
論文 参考訳(メタデータ) (2021-04-27T20:20:12Z) - Label-Imbalanced and Group-Sensitive Classification under
Overparameterization [32.923780772605596]
ラベルの不均衡でグループに敏感な分類は、関連するメトリクスを最適化するための標準トレーニングアルゴリズムを適切に修正することを目指す。
標準実証的リスク最小化に対するロジット調整による損失修正は,一般的には効果がない可能性がある。
本研究では, 2つの共通する不均衡(ラベル/グループ)を統一的に処理し, 敏感群の二値分類に自然に適用できることを示した。
論文 参考訳(メタデータ) (2021-03-02T08:09:43Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。