論文の概要: Two-stage Training for Learning from Label Proportions
- arxiv url: http://arxiv.org/abs/2105.10635v1
- Date: Sat, 22 May 2021 03:55:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-27 10:09:45.772936
- Title: Two-stage Training for Learning from Label Proportions
- Title(参考訳): ラベルから学ぶための2段階学習
- Authors: Jiabin Liu, Bo Wang, Xin Shen, Zhiquan Qi, Yingjie Tian
- Abstract要約: ラベルパーセンテージ(LLP)からの学習は、グループ化されたトレーニングデータにおいてラベルパーセンテージを持つインスタンスレベルの分類器を学習することを目的としている。
ラベルノイズをさらに低減するために,混合戦略と対称クロスエントロピーを導入する。
我々のフレームワークはモデルに依存しず、広範な実験において魅力的なパフォーマンス向上を示す。
- 参考スコア(独自算出の注目度): 18.78148397471913
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning from label proportions (LLP) aims at learning an instance-level
classifier with label proportions in grouped training data. Existing deep
learning based LLP methods utilize end-to-end pipelines to obtain the
proportional loss with Kullback-Leibler divergence between the bag-level prior
and posterior class distributions. However, the unconstrained optimization on
this objective can hardly reach a solution in accordance with the given
proportions. Besides, concerning the probabilistic classifier, this strategy
unavoidably results in high-entropy conditional class distributions at the
instance level. These issues further degrade the performance of the
instance-level classification. In this paper, we regard these problems as noisy
pseudo labeling, and instead impose the strict proportion consistency on the
classifier with a constrained optimization as a continuous training stage for
existing LLP classifiers. In addition, we introduce the mixup strategy and
symmetric crossentropy to further reduce the label noise. Our framework is
model-agnostic, and demonstrates compelling performance improvement in
extensive experiments, when incorporated into other deep LLP models as a
post-hoc phase.
- Abstract(参考訳): ラベルパーセンテージ(LLP)からの学習は、グループ化されたトレーニングデータにおけるラベルパーセンテージを持つインスタンスレベルの分類器の学習を目的としている。
既存のディープラーニングに基づくLPP手法では,バッグレベルの事前分布と後続のクラス分布とのKulback-Leibler分散による比例損失を得るために,エンドツーエンドのパイプラインを利用する。
しかし、この目的に対する制約のない最適化は、与えられた比率に応じて解に達することはほとんどできない。
さらに、確率的分類器に関して、この戦略は必然的にインスタンスレベルでの高エントロピー条件付きクラス分布をもたらす。
これらの問題は、インスタンスレベルの分類のパフォーマンスをさらに低下させる。
本稿では,これらの問題をノイズの多い擬似ラベリングと捉え,制約付き最適化を既存のllp分類器の連続学習段階として分類器に厳密な比例一貫性を課す。
さらに,ラベルノイズをさらに低減するために,混合戦略と対称クロスエントロピーを導入する。
我々のフレームワークはモデル非依存であり、他の深層LPPモデルにポストホックフェーズとして組み込む場合、広範囲な実験において魅力的な性能向上を示す。
関連論文リスト
- Forming Auxiliary High-confident Instance-level Loss to Promote Learning from Label Proportions [17.36538357653019]
ラベルパーセンテージ(LLP)からの学習は、各インスタンスのアノテートラベルではなく、インスタンスのバッグとバッグ内のクラスの割合を使用して分類器をトレーニングすることを目的としている。
本稿では,L2P-AHILを用いたLLP手法を提案する。
我々は,L2P-AHILが既存のベースライン法を超越し,バッグサイズが大きくなるにつれて性能向上がさらに重要であることを示す。
論文 参考訳(メタデータ) (2024-11-15T17:14:18Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Decoupled Prototype Learning for Reliable Test-Time Adaptation [50.779896759106784]
テスト時間適応(TTA)は、推論中にトレーニング済みのソースモデルをターゲットドメインに継続的に適応させるタスクである。
1つの一般的なアプローチは、推定擬似ラベルによるクロスエントロピー損失を伴う微調整モデルである。
本研究は, 各試料の分類誤差を最小化することで, クロスエントロピー損失の脆弱性がラベルノイズを引き起こすことを明らかにした。
本稿では,プロトタイプ中心の損失計算を特徴とする新しいDPL法を提案する。
論文 参考訳(メタデータ) (2024-01-15T03:33:39Z) - Learning with Noisy Labels Using Collaborative Sample Selection and
Contrastive Semi-Supervised Learning [76.00798972439004]
Collaborative Sample Selection (CSS)は、特定されたクリーンセットからノイズの多いサンプルを削除する。
半教師付き学習において、対照的な損失を伴う協調学習機構を導入する。
論文 参考訳(メタデータ) (2023-10-24T05:37:20Z) - Flexible Distribution Alignment: Towards Long-tailed Semi-supervised Learning with Proper Calibration [18.376601653387315]
Longtailed semi-supervised learning (LTSSL)は、半教師付きアプリケーションのための実践的なシナリオである。
この問題は、ラベル付きとラベルなしのクラス分布の相違によってしばしば悪化する。
本稿では,新しい適応ロジット調整型損失フレームワークFlexDAを紹介する。
論文 参考訳(メタデータ) (2023-06-07T17:50:59Z) - Class-Imbalanced Complementary-Label Learning via Weighted Loss [8.934943507699131]
補完ラベル学習(Complementary-label Learning, CLL)は、弱い教師付き分類において広く用いられている。
クラス不均衡のトレーニングサンプルに直面すると、現実世界のデータセットでは大きな課題に直面します。
多クラス分類のためのクラス不均衡補完ラベルからの学習を可能にする新しい問題設定を提案する。
論文 参考訳(メタデータ) (2022-09-28T16:02:42Z) - PercentMatch: Percentile-based Dynamic Thresholding for Multi-Label
Semi-Supervised Classification [64.39761523935613]
トレーニング中の各クラスに対する正と負の擬似ラベルのスコア閾値を動的に変更するためのパーセンタイルベースのしきい値調整手法を提案する。
近年のSSL方式と比較して, Pascal VOC2007 と MS-COCO のデータセットの性能は高い。
論文 参考訳(メタデータ) (2022-08-30T01:27:48Z) - Learning from Label Proportions by Learning with Label Noise [30.7933303912474]
ラベル比例(LLP)からの学習は、データポイントをバッグに分類する弱い教師付き分類問題である。
ラベル雑音による学習の低減に基づくLLPに対する理論的基礎的なアプローチを提案する。
このアプローチは、複数のデータセットやアーキテクチャにわたるディープラーニングシナリオにおける経験的パフォーマンスの向上を実証する。
論文 参考訳(メタデータ) (2022-03-04T18:52:21Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - Adaptive Adversarial Logits Pairing [65.51670200266913]
逆行訓練ソリューションであるAdversarial Logits Pairing (ALP)は、脆弱なものに比べて、高い貢献度を少なくする傾向にある。
これらの観測により,適応型対数対数対数対数対数対数法 (AALP) を設計し,ALPのトレーニングプロセスとトレーニングターゲットを変更する。
AALPは適応的な機能最適化モジュールと Guided Dropout から構成されており、より少ない高コントリビューション機能を体系的に追求する。
論文 参考訳(メタデータ) (2020-05-25T03:12:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。