論文の概要: Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces
- arxiv url: http://arxiv.org/abs/2105.05736v1
- Date: Wed, 12 May 2021 15:40:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 15:54:57.483027
- Title: Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces
- Title(参考訳): 大出力空間での学習のためのサンプリングとラベル付けバイアス
- Authors: Ankit Singh Rawat, Aditya Krishna Menon, Wittawat Jitkrittum, Sadeep
Jayasumana, Felix X. Yu, Sashank Reddi, Sanjiv Kumar
- Abstract要約: 異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
- 参考スコア(独自算出の注目度): 64.23172847182109
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Negative sampling schemes enable efficient training given a large number of
classes, by offering a means to approximate a computationally expensive loss
function that takes all labels into account. In this paper, we present a new
connection between these schemes and loss modification techniques for
countering label imbalance. We show that different negative sampling schemes
implicitly trade-off performance on dominant versus rare labels. Further, we
provide a unified means to explicitly tackle both sampling bias, arising from
working with a subset of all labels, and labeling bias, which is inherent to
the data due to label imbalance. We empirically verify our findings on
long-tail classification and retrieval benchmarks.
- Abstract(参考訳): 負のサンプリングスキームは、全てのラベルを考慮に入れた計算コストのかかる損失関数を近似する手段を提供することで、多数のクラスを与えられた効率的なトレーニングを可能にする。
本稿では,これらのスキームとラベルの不均衡に対応するための損失修正手法の新たな関連性を示す。
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
さらに,すべてのラベルのサブセットによる処理から生じるサンプリングバイアスと,ラベルの不均衡に起因するデータに固有のラベルバイアスの両方に明示的に対処するための統一的な手段を提供する。
ロングテール分類と検索ベンチマークの結果を実証的に検証した。
関連論文リスト
- Label Distribution Learning with Biased Annotations by Learning Multi-Label Representation [120.97262070068224]
マルチラベル学習(MLL)は,実世界のデータ表現能力に注目されている。
ラベル分布学習(LDL)は正確なラベル分布の収集において課題に直面している。
論文 参考訳(メタデータ) (2025-02-03T09:04:03Z) - Improving Multi-Label Contrastive Learning by Leveraging Label Distribution [13.276821681189166]
マルチラベル学習において、より良い表現を学ぶためにコントラスト学習を活用することは、正と負のサンプルを選択するという重要な課題に直面している。
従来の研究ではラベル間の重なり合いに基づいて正と負のサンプルを選択し、ラベル単位の損失分散に使用していた。
ラベル分布によるマルチラベルコントラスト学習を改善する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-31T14:00:02Z) - Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - CLAF: Contrastive Learning with Augmented Features for Imbalanced
Semi-Supervised Learning [40.5117833362268]
半教師付き学習とコントラスト学習は、ポピュラーなアプリケーションでより良いパフォーマンスを達成するために徐々に組み合わせられてきた。
1つの一般的な方法は、擬似ラベルを未ラベルのサンプルに割り当て、擬似ラベルのサンプルから正と負のサンプルを選択して、対照的な学習を適用することである。
比較学習における少数クラスサンプルの不足を軽減するために,CLAF(Contrastive Learning with Augmented Features)を提案する。
論文 参考訳(メタデータ) (2023-12-15T08:27:52Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Acknowledging the Unknown for Multi-label Learning with Single Positive
Labels [65.5889334964149]
伝統的に、全ての無注釈ラベルは、単一正のマルチラベル学習(SPML)において負のラベルとして仮定される。
本研究では, 予測確率のエントロピーを最大化するエントロピー最大化(EM)損失を提案する。
非通知ラベルの正負ラベル不均衡を考慮し、非対称耐性戦略とより精密な監視を行うセルフペースト手順を備えた非対称擬似ラベル(APL)を提案する。
論文 参考訳(メタデータ) (2022-03-30T11:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。