論文の概要: Importance of negative sampling in weak label learning
- arxiv url: http://arxiv.org/abs/2309.13227v1
- Date: Sat, 23 Sep 2023 01:11:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 21:24:54.701560
- Title: Importance of negative sampling in weak label learning
- Title(参考訳): 弱ラベル学習における負サンプリングの重要性
- Authors: Ankit Shah, Fuyu Tang, Zelin Ye, Rita Singh, Bhiksha Raj
- Abstract要約: 弱ラベル学習(Weak-label learning)は、正と負のインスタンスを含むデータ“バグ”から学ぶことが必要な課題である。
本研究では,弱ラベル学習における負のインスタンスの有用性を計測し,それに応じて抽出する手法について検討する。
私たちの研究は、負のインスタンスがすべて等しく無関係ではないことを明らかにし、それらを賢明に選択することで、弱いラベル学習の恩恵を受けることができる。
- 参考スコア(独自算出の注目度): 33.97406573051897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Weak-label learning is a challenging task that requires learning from data
"bags" containing positive and negative instances, but only the bag labels are
known. The pool of negative instances is usually larger than positive
instances, thus making selecting the most informative negative instance
critical for performance. Such a selection strategy for negative instances from
each bag is an open problem that has not been well studied for weak-label
learning. In this paper, we study several sampling strategies that can measure
the usefulness of negative instances for weak-label learning and select them
accordingly. We test our method on CIFAR-10 and AudioSet datasets and show that
it improves the weak-label classification performance and reduces the
computational cost compared to random sampling methods. Our work reveals that
negative instances are not all equally irrelevant, and selecting them wisely
can benefit weak-label learning.
- Abstract(参考訳): 弱いラベル学習は、ポジティブなインスタンスとネガティブなインスタンスを含むデータ"バッグ"から学ぶ必要がある困難なタスクだが、バッグラベルのみが知られている。
負のインスタンスのプールは通常、正のインスタンスよりも大きいため、パフォーマンスにとって最も有益な負のインスタンスを選択する。
各バッグからの負のインスタンスの選択戦略は、弱いラベル学習のために十分に研究されていないオープンな問題である。
本稿では,弱いラベル学習における負のインスタンスの有用性を計測し,それに応じて選択できるいくつかのサンプリング戦略について検討する。
提案手法をcifar-10およびaudiosetデータセット上でテストし,弱いラベル分類性能を改善し,ランダムサンプリング法と比較して計算コストを低減できることを示した。
私たちの研究は、負のインスタンスがすべて等しく無関係ではないことを明らかにし、それらを賢明に選択することは、弱いラベル学習の恩恵をもたらす。
関連論文リスト
- CLAF: Contrastive Learning with Augmented Features for Imbalanced
Semi-Supervised Learning [40.5117833362268]
半教師付き学習とコントラスト学習は、ポピュラーなアプリケーションでより良いパフォーマンスを達成するために徐々に組み合わせられてきた。
1つの一般的な方法は、擬似ラベルを未ラベルのサンプルに割り当て、擬似ラベルのサンプルから正と負のサンプルを選択して、対照的な学習を適用することである。
比較学習における少数クラスサンプルの不足を軽減するために,CLAF(Contrastive Learning with Augmented Features)を提案する。
論文 参考訳(メタデータ) (2023-12-15T08:27:52Z) - Your Negative May not Be True Negative: Boosting Image-Text Matching
with False Negative Elimination [62.18768931714238]
提案手法は, サンプリングによる新規な偽陰性除去 (FNE) 戦略である。
その結果,提案した偽陰性除去戦略の優位性が示された。
論文 参考訳(メタデータ) (2023-08-08T16:31:43Z) - Robust Positive-Unlabeled Learning via Noise Negative Sample
Self-correction [48.929877651182885]
正および未ラベルのデータから学ぶことは、文学における正の未ラベル(PU)学習として知られている。
本研究では,人間の学習の性質を動機とした学習戦略を取り入れた,新しい堅牢なPU学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-01T04:34:52Z) - Better Sampling of Negatives for Distantly Supervised Named Entity
Recognition [39.264878763160766]
本稿では, 正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正
提案手法は,4つの遠隔教師付きNERデータセットに対して一貫した性能向上を実現する。
論文 参考訳(メタデータ) (2023-05-22T15:35:39Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Adaptive Positive-Unlabelled Learning via Markov Diffusion [0.0]
Positive-Unlabelled (PU) 学習は、正のインスタンスのセットのみをラベル付けする機械学習環境である。
このアルゴリズムの主な目的は、元来問題のない正のインスタンスを含む可能性のあるインスタンスの集合を特定することである。
論文 参考訳(メタデータ) (2021-08-13T10:25:47Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z) - Are Fewer Labels Possible for Few-shot Learning? [81.89996465197392]
ごく限られたデータとラベルのため、わずかなショット学習は難しい。
近年のBiT (Big Transfer) 研究は、異なる領域における大規模ラベル付きデータセットの事前トレーニングによって、少数ショット学習が大きな恩恵を受けることを示した。
本稿では,ファインチューニングにおけるクラスタリングと固有サンプルの共進化を活かし,ショット学習の削減を図る。
論文 参考訳(メタデータ) (2020-12-10T18:59:29Z) - Contrastive Learning with Hard Negative Samples [80.12117639845678]
我々は, 厳密な陰性サンプルを選択するために, 教師なしサンプリング手法を新たに開発する。
このサンプリングの制限ケースは、各クラスをしっかりとクラスタ化し、可能な限り異なるクラスを遠くにプッシュする表現をもたらす。
提案手法は、複数のモードをまたいだダウンストリーム性能を改善し、実装するコード行数が少なく、計算オーバーヘッドを伴わない。
論文 参考訳(メタデータ) (2020-10-09T14:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。