論文の概要: Soft-Label Training Preserves Epistemic Uncertainty
- arxiv url: http://arxiv.org/abs/2511.14117v1
- Date: Tue, 18 Nov 2025 04:02:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.925817
- Title: Soft-Label Training Preserves Epistemic Uncertainty
- Title(参考訳): ソフトラベルトレーニングはてんかんを予防する
- Authors: Agamdeep Singh, Ashish Tiwari, Hosein Hasanbeig, Priyanshu Gupta,
- Abstract要約: 機械学習タスクには固有の主観性が含まれており、アノテータは自然に様々なラベルを提供する。
標準的な慣行は、これらのラベルの分布を単一のラベルに分解し、様々な人間の判断を点推定に集約する。
このアプローチは曖昧なデータに対して不一致であり、アノテーションの分布自体が基礎となる真理と見なされるべきである、と我々は主張する。
- 参考スコア(独自算出の注目度): 4.2541480167286005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many machine learning tasks involve inherent subjectivity, where annotators naturally provide varied labels. Standard practice collapses these label distributions into single labels, aggregating diverse human judgments into point estimates. We argue that this approach is epistemically misaligned for ambiguous data--the annotation distribution itself should be regarded as the ground truth. Training on collapsed single labels forces models to express false confidence on fundamentally ambiguous cases, creating a misalignment between model certainty and the diversity of human perception. We demonstrate empirically that soft-label training, which treats annotation distributions as ground truth, preserves epistemic uncertainty. Across both vision and NLP tasks, soft-label training achieves 32% lower KL divergence from human annotations and 61% stronger correlation between model and annotation entropy, while matching the accuracy of hard-label training. Our work repositions annotation distributions from noisy signals to be aggregated away, to faithful representations of epistemic uncertainty that models should learn to reproduce.
- Abstract(参考訳): 多くの機械学習タスクには固有の主観性が含まれており、アノテータは自然に様々なラベルを提供する。
標準的な慣行は、これらのラベルの分布を単一のラベルに分解し、様々な人間の判断を点推定に集約する。
このアプローチは曖昧なデータに対して認識的に不一致である,と我々は主張する。
崩壊したシングルラベルのトレーニングは、モデルに基本的に曖昧なケースに対する誤った自信を表現させ、モデルの確実性と人間の知覚の多様性の相違を生み出します。
我々は,注釈分布を基底的真実として扱うソフトラベルトレーニングが,てんかんの不確実性を保っていることを実証的に証明した。
視覚とNLPの両方のタスクにおいて、ソフトラベルトレーニングは、人間のアノテーションから32%低いKL分岐を実現し、モデルとアノテーションのエントロピーの間に61%強い相関関係を保ちながら、ハードラベルトレーニングの精度を一致させる。
我々の研究は、ノイズの多い信号から、モデルを再生するべきという認識の不確実性の忠実な表現まで、アノテーションの分布を再構成する。
関連論文リスト
- Label Distribution Learning with Biased Annotations by Learning Multi-Label Representation [120.97262070068224]
マルチラベル学習(MLL)は,実世界のデータ表現能力に注目されている。
ラベル分布学習(LDL)は正確なラベル分布の収集において課題に直面している。
論文 参考訳(メタデータ) (2025-02-03T09:04:03Z) - Towards the Mitigation of Confirmation Bias in Semi-supervised Learning: a Debiased Training Perspective [6.164100243945264]
半教師付き学習(SSL)は、モデルが特定のクラスを不均等に好むという、一般的に確認バイアスを示す。
SSLのデバイアスドトレーニングのための統合フレームワークであるTaMatchを紹介します。
TaMatchは,様々な課題の画像分類タスクにおいて,既存の最先端手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-09-26T21:50:30Z) - Self-Knowledge Distillation for Learning Ambiguity [11.755814660833549]
最近の言語モデルは、その正確さを考慮せずに単一のラベルを過度に予測することが多い。
本稿では,ラベル分布をより正確に学習できる新しい自己知識蒸留法を提案する。
本手法を多種多様なNLUベンチマークデータセットで検証し,実験結果から,より優れたラベル分布を生成する上での有効性を実証した。
論文 参考訳(メタデータ) (2024-06-14T05:11:32Z) - Perceptual Quality-based Model Training under Annotator Label Uncertainty [15.015925663078377]
アノテーションは、アノテータラベルの不確実性と呼ばれるデータラベリング中に不一致を示す。
モデル学習のための複数のラベルを客観的に生成する新しい知覚品質ベースモデルトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-15T10:52:18Z) - Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Probabilistic Test-Time Generalization by Variational Neighbor-Labeling [62.158807685159736]
本稿では、ドメインの一般化を試み、モデルが未確認のターゲットドメインにデプロイされる前に、ソースドメインにのみトレーニングされる。
ソーストレーニングされたモデルをテスト時にターゲットドメインに一般化するための、ターゲットサンプルの擬似ラベル化の確率。
より堅牢な擬似ラベルを生成するために、近隣のターゲットサンプルの情報を含む変分隣接ラベル。
論文 参考訳(メタデータ) (2023-07-08T18:58:08Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Uncertainty-aware Label Distribution Learning for Facial Expression
Recognition [13.321770808076398]
本研究では,不確実性と曖昧性に対する深層モデルのロバスト性を改善するために,新しい不確実性を考慮したラベル分布学習法を提案する。
本手法は深層ネットワークに容易に組み込んで,より訓練の監督と認識精度の向上を図ることができる。
論文 参考訳(メタデータ) (2022-09-21T15:48:41Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - Credal Self-Supervised Learning [0.0]
未ラベルのインスタンスに対して,学習者が"擬似スーパービジョン"を生成する方法を示す。
整合性正規化と組み合わせて、擬似ラベルは様々な領域で有望な性能を示している。
我々は、我々の方法論を最先端のセルフスーパービジョンアプローチと比較する。
論文 参考訳(メタデータ) (2021-06-22T15:19:04Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。