論文の概要: Binary Classification with Confidence Difference
- arxiv url: http://arxiv.org/abs/2310.05632v1
- Date: Mon, 9 Oct 2023 11:44:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 05:19:53.899450
- Title: Binary Classification with Confidence Difference
- Title(参考訳): 信頼差のあるバイナリ分類
- Authors: Wei Wang, Lei Feng, Yuchen Jiang, Gang Niu, Min-Ling Zhang, Masashi
Sugiyama
- Abstract要約: 本稿では,信頼性差分法 (ConfDiff) という,弱教師付き二項分類問題について考察する。
本稿では,この問題に対処するためのリスク一貫性のあるアプローチを提案し,推定誤差が最適収束率と一致することを示す。
また,整合性や収束率も証明されたオーバーフィッティング問題を緩和するためのリスク補正手法も導入する。
- 参考スコア(独自算出の注目度): 100.08818204756093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, learning with soft labels has been shown to achieve better
performance than learning with hard labels in terms of model generalization,
calibration, and robustness. However, collecting pointwise labeling confidence
for all training examples can be challenging and time-consuming in real-world
scenarios. This paper delves into a novel weakly supervised binary
classification problem called confidence-difference (ConfDiff) classification.
Instead of pointwise labeling confidence, we are given only unlabeled data
pairs with confidence difference that specifies the difference in the
probabilities of being positive. We propose a risk-consistent approach to
tackle this problem and show that the estimation error bound achieves the
optimal convergence rate. We also introduce a risk correction approach to
mitigate overfitting problems, whose consistency and convergence rate are also
proven. Extensive experiments on benchmark data sets and a real-world
recommender system data set validate the effectiveness of our proposed
approaches in exploiting the supervision information of the confidence
difference.
- Abstract(参考訳): 近年,ソフトラベルによる学習は,モデル一般化,キャリブレーション,ロバスト性の観点から,ハードラベルによる学習よりも優れた性能を実現することが示されている。
しかし、すべてのトレーニング例の信頼度をポイントワイズにラベル付けする収集は、現実のシナリオでは困難で時間がかかります。
本稿では,信頼性差分法 (ConfDiff) と呼ばれる二項分類問題について述べる。
信頼度をポイントワイズする代わりに、正であることの確率の差を示す信頼差を持つラベルのないデータペアのみを与えられる。
本稿では,この問題に対処するためのリスク一貫性のあるアプローチを提案し,推定誤差が最適収束率を達成することを示す。
また,整合性や収束率も証明されたオーバーフィッティング問題を緩和するためのリスク補正手法も導入する。
ベンチマークデータセットと実世界のレコメンデータシステムデータセットの大規模な実験により,信頼度差の監視情報を活用する上で,提案手法の有効性が検証された。
関連論文リスト
- Self Adaptive Threshold Pseudo-labeling and Unreliable Sample Contrastive Loss for Semi-supervised Image Classification [6.920336485308536]
擬似ラベルに基づく半教師付きアプローチは、画像分類において2つの問題に悩まされる。
我々は,各クラスの閾値を動的に調整し,信頼性の高いサンプル数を増やす自己適応型閾値擬似ラベル戦略を開発した。
しきい値以下でラベル付けされていないデータを効果的に活用するために、信頼できないサンプルコントラスト損失を提案する。
論文 参考訳(メタデータ) (2024-07-04T03:04:56Z) - Confidence Estimation Using Unlabeled Data [12.512654188295764]
トレーニングラベルがほとんど利用できない場合, 半教師付き設定に対する最初の信頼度推定法を提案する。
トレーニングの一貫性を代理関数として使用し、信頼度推定のための一貫性ランキング損失を提案する。
画像分類とセグメンテーションの両方のタスクにおいて,本手法は信頼度推定における最先端性能を実現する。
論文 参考訳(メタデータ) (2023-07-19T20:11:30Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Learning from Similarity-Confidence Data [94.94650350944377]
類似度信頼性(Sconf)データから学習する新しい弱監督学習問題について検討する。
本研究では,Sconfデータのみから計算可能な分類リスクの非バイアス推定器を提案し,推定誤差境界が最適収束率を達成することを示す。
論文 参考訳(メタデータ) (2021-02-13T07:31:16Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z) - Pointwise Binary Classification with Pairwise Confidence Comparisons [97.79518780631457]
ペアワイズ比較(Pcomp)分類を提案し、ラベルのないデータのペアしか持たない。
我々はPcomp分類をノイズラベル学習に結びつけて、進歩的UREを開発し、一貫性の正則化を課すことにより改善する。
論文 参考訳(メタデータ) (2020-10-05T09:23:58Z) - Binary Classification from Positive Data with Skewed Confidence [85.18941440826309]
肯定的信頼度(Pconf)分類は、有望な弱教師付き学習法である。
実際には、信頼はアノテーションプロセスで生じるバイアスによって歪められることがある。
本稿では、スキュード信頼度のパラメータ化モデルを導入し、ハイパーパラメータを選択する方法を提案する。
論文 参考訳(メタデータ) (2020-01-29T00:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。