論文の概要: Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces
- arxiv url: http://arxiv.org/abs/2105.05736v1
- Date: Wed, 12 May 2021 15:40:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 15:54:57.483027
- Title: Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces
- Title(参考訳): 大出力空間での学習のためのサンプリングとラベル付けバイアス
- Authors: Ankit Singh Rawat, Aditya Krishna Menon, Wittawat Jitkrittum, Sadeep
Jayasumana, Felix X. Yu, Sashank Reddi, Sanjiv Kumar
- Abstract要約: 異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
- 参考スコア(独自算出の注目度): 64.23172847182109
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Negative sampling schemes enable efficient training given a large number of
classes, by offering a means to approximate a computationally expensive loss
function that takes all labels into account. In this paper, we present a new
connection between these schemes and loss modification techniques for
countering label imbalance. We show that different negative sampling schemes
implicitly trade-off performance on dominant versus rare labels. Further, we
provide a unified means to explicitly tackle both sampling bias, arising from
working with a subset of all labels, and labeling bias, which is inherent to
the data due to label imbalance. We empirically verify our findings on
long-tail classification and retrieval benchmarks.
- Abstract(参考訳): 負のサンプリングスキームは、全てのラベルを考慮に入れた計算コストのかかる損失関数を近似する手段を提供することで、多数のクラスを与えられた効率的なトレーニングを可能にする。
本稿では,これらのスキームとラベルの不均衡に対応するための損失修正手法の新たな関連性を示す。
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
さらに,すべてのラベルのサブセットによる処理から生じるサンプリングバイアスと,ラベルの不均衡に起因するデータに固有のラベルバイアスの両方に明示的に対処するための統一的な手段を提供する。
ロングテール分類と検索ベンチマークの結果を実証的に検証した。
関連論文リスト
- Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Acknowledging the Unknown for Multi-label Learning with Single Positive
Labels [65.5889334964149]
伝統的に、全ての無注釈ラベルは、単一正のマルチラベル学習(SPML)において負のラベルとして仮定される。
本研究では, 予測確率のエントロピーを最大化するエントロピー最大化(EM)損失を提案する。
非通知ラベルの正負ラベル不均衡を考慮し、非対称耐性戦略とより精密な監視を行うセルフペースト手順を備えた非対称擬似ラベル(APL)を提案する。
論文 参考訳(メタデータ) (2022-03-30T11:43:59Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - Label-Occurrence-Balanced Mixup for Long-tailed Recognition [6.482544017574614]
本稿では,各クラスにおけるラベル発生率を統計的にバランスよく保ちながら,データ量を増やすためのラベル・オクレンス・バランサード・ミックスアップを提案する。
長い視力と音声認識のベンチマークで本手法を検証した。
論文 参考訳(メタデータ) (2021-10-11T02:22:02Z) - Debiased Contrastive Learning [64.98602526764599]
我々は,同ラベルデータポイントのサンプリングを補正する,偏りのあるコントラスト目的の開発を行う。
実証的に、提案する目的は、視覚、言語、強化学習ベンチマークにおける表現学習の最先端を一貫して上回る。
論文 参考訳(メタデータ) (2020-07-01T04:25:24Z) - Rethinking the Value of Labels for Improving Class-Imbalanced Learning [20.953282288425118]
クラス不均衡学習は、半教師ありと自己教師ありの両方の方法において有益である。
不均衡なラベルは常に役に立ちません。
この結果から,現実的な長期タスクにおける不均衡ラベルの使用を再考する必要性が浮き彫りとなった。
論文 参考訳(メタデータ) (2020-06-13T01:35:58Z) - MatchGAN: A Self-Supervised Semi-Supervised Conditional Generative
Adversarial Network [51.84251358009803]
本稿では,条件付き生成逆数ネットワーク(GAN)に対する,半教師付き環境下での自己教師型学習手法を提案する。
利用可能な数少ないラベル付きサンプルのラベル空間から無作為なラベルをサンプリングして拡張を行う。
本手法は,ベースラインのトレーニングに使用したラベル付きサンプルの20%に過ぎません。
論文 参考訳(メタデータ) (2020-06-11T17:14:55Z) - Multi-Label Sampling based on Local Label Imbalance [7.355362369511579]
クラス不均衡は、ほとんどのマルチラベル学習方法を妨げるマルチラベルデータ固有の特徴である。
既存のマルチラベルサンプリングアプローチは、マルチラベルデータセットのグローバル不均衡を軽減する。
実際に、パフォーマンス劣化において重要な役割を果たすマイノリティクラス例の局所的な地区における不均衡レベルである。
論文 参考訳(メタデータ) (2020-05-07T04:14:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。