論文の概要: A Unified Approach to Count-Based Weakly-Supervised Learning
- arxiv url: http://arxiv.org/abs/2311.13718v1
- Date: Wed, 22 Nov 2023 22:23:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 01:10:54.336571
- Title: A Unified Approach to Count-Based Weakly-Supervised Learning
- Title(参考訳): カウントベース弱教師付き学習への統一的アプローチ
- Authors: Vinay Shukla, Zhe Zeng, Kareem Ahmed, Guy Van den Broeck
- Abstract要約: 弱いラベル付きデータから学習するための統一的なアプローチを開発する。
我々は、n 個の出力が真に設定されていることを正確に k 個の確率で計算する。
我々は3つの弱い教師付き学習パラダイムに対するアプローチを評価する。
- 参考スコア(独自算出の注目度): 30.953260850416157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-quality labels are often very scarce, whereas unlabeled data with
inferred weak labels occurs more naturally. In many cases, these weak labels
dictate the frequency of each respective class over a set of instances. In this
paper, we develop a unified approach to learning from such weakly-labeled data,
which we call count-based weakly-supervised learning. At the heart of our
approach is the ability to compute the probability of exactly k out of n
outputs being set to true. This computation is differentiable, exact, and
efficient. Building upon the previous computation, we derive a count loss
penalizing the model for deviations in its distribution from an arithmetic
constraint defined over label counts. We evaluate our approach on three common
weakly-supervised learning paradigms and observe that our proposed approach
achieves state-of-the-art or highly competitive results across all three of the
paradigms.
- Abstract(参考訳): 高品質なラベルは非常に少ないが、推論された弱いラベルを持つラベルのないデータはより自然に発生する。
多くの場合、これらの弱いラベルは各クラスの周波数をインスタンスの集合上で規定する。
本稿では,このような弱いラベル付きデータから学習する統一的な手法を開発し,これをカウントベースの弱教師付き学習と呼ぶ。
我々のアプローチの核心は、n 個の出力から真に設定された正確な k の確率を計算する能力である。
この計算は微分可能で正確で効率的である。
先行計算に基づいて,ラベルカウント上で定義された算術制約から,分布の偏差に対するモデルにペナルティを課すカウントロスを導出する。
提案手法は,3つのパラダイムのすべてにまたがって,最先端あるいは高度に競争的な結果が得られることを観察し,弱教師付き学習パラダイムに対するアプローチを評価した。
関連論文リスト
- Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Learning from Label Proportions by Learning with Label Noise [30.7933303912474]
ラベル比例(LLP)からの学習は、データポイントをバッグに分類する弱い教師付き分類問題である。
ラベル雑音による学習の低減に基づくLLPに対する理論的基礎的なアプローチを提案する。
このアプローチは、複数のデータセットやアーキテクチャにわたるディープラーニングシナリオにおける経験的パフォーマンスの向上を実証する。
論文 参考訳(メタデータ) (2022-03-04T18:52:21Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - Multi-class Probabilistic Bounds for Self-learning [13.875239300089861]
Pseudo-labelingはエラーを起こしやすいため、ラベルなしのトレーニングデータにノイズのあるラベルを追加するリスクがある。
本稿では,多クラス分類シナリオにおける自己学習を部分的にラベル付きデータで分析する確率的枠組みを提案する。
論文 参考訳(メタデータ) (2021-09-29T13:57:37Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z) - Cost-Based Budget Active Learning for Deep Learning [0.9732863739456035]
予算に制約のある集団における分類の不確実性やインスタンスの多様性を考慮したコストベースのバグデットアクティブラーニング(CBAL)を提案する。
min-maxに基づく原則的アプローチは、選択されたインスタンスのラベル付けと決定コストを最小化すると考えられる。
論文 参考訳(メタデータ) (2020-12-09T17:42:44Z) - Structured Prediction with Partial Labelling through the Infimum Loss [85.4940853372503]
弱い監督の目標は、収集コストの安いラベル付け形式のみを使用してモデルを学習できるようにすることである。
これは、各データポイントに対して、実際のものを含むラベルのセットとして、監督がキャストされる不完全なアノテーションの一種です。
本稿では、構造化された予測と、部分的なラベリングを扱うための無限損失の概念に基づく統一的なフレームワークを提供する。
論文 参考訳(メタデータ) (2020-03-02T13:59:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。