論文の概要: Adversary-Aware Partial label learning with Label distillation
- arxiv url: http://arxiv.org/abs/2304.00498v1
- Date: Sun, 2 Apr 2023 10:18:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 17:38:36.627086
- Title: Adversary-Aware Partial label learning with Label distillation
- Title(参考訳): ラベル蒸留によるadversary-aware partial label learning
- Authors: Cheng Chen, Yueming Lyu, Ivor W.Tsang
- Abstract要約: 本稿では、Ad-Aware partial Label Learningを紹介し、各インスタンスの候補ラベルのコレクションに、ノイズの多いラベルのセットである$textitrival$を紹介します。
提案手法は, CIFAR10, CIFAR100, CUB200データセットに対して有望な結果を得る。
- 参考スコア(独自算出の注目度): 47.18584755798137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To ensure that the data collected from human subjects is entrusted with a
secret, rival labels are introduced to conceal the information provided by the
participants on purpose. The corresponding learning task can be formulated as a
noisy partial-label learning problem. However, conventional partial-label
learning (PLL) methods are still vulnerable to the high ratio of noisy partial
labels, especially in a large labelling space. To learn a more robust model, we
present Adversary-Aware Partial Label Learning and introduce the
$\textit{rival}$, a set of noisy labels, to the collection of candidate labels
for each instance. By introducing the rival label, the predictive distribution
of PLL is factorised such that a handy predictive label is achieved with less
uncertainty coming from the transition matrix, assuming the rival generation
process is known. Nonetheless, the predictive accuracy is still insufficient to
produce an sufficiently accurate positive sample set to leverage the clustering
effect of the contrastive loss function. Moreover, the inclusion of rivals also
brings an inconsistency issue for the classifier and risk function due to the
intractability of the transition matrix. Consequently, an adversarial teacher
within momentum (ATM) disambiguation algorithm is proposed to cope with the
situation, allowing us to obtain a provably consistent classifier and risk
function. In addition, our method has shown high resiliency to the choice of
the label noise transition matrix. Extensive experiments demonstrate that our
method achieves promising results on the CIFAR10, CIFAR100 and CUB200 datasets.
- Abstract(参考訳): 被写体から収集したデータが秘密に託されることを保証するため、参加者が意図的に提供した情報を隠蔽するライバルラベルを導入する。
対応する学習タスクは、ノイズのある部分ラベル学習問題として定式化することができる。
しかし、従来の部分ラベル学習(pll)法は、特に大きなラベル空間において、ノイズの大きい部分ラベルの比率に対して脆弱である。
より堅牢なモデルを学ぶために、Adversary-Aware partial Label Learningを紹介し、各インスタンスの候補ラベルのコレクションに、ノイズの多いラベルのセットである$\textit{rival}$を紹介します。
競合ラベルの導入により、pllの予測分布は、競合生成過程が知られていると仮定して、遷移行列からの不確実性が少なく、便利な予測ラベルが達成されるように分解される。
しかし, 相関損失関数のクラスタリング効果を利用するのに十分な正の正のセットを生成するには, 予測精度が不十分である。
さらに、競合の包含は、遷移行列の難易度による分類器とリスク関数の整合性の問題も引き起こす。
その結果,運動量(ATM)の曖昧さを解消するアルゴリズムが提案され,一貫した分類器とリスク関数が得られた。
また,提案手法はラベルノイズ遷移行列の選択に対して高い親和性を示す。
CIFAR10, CIFAR100, CUB200データセットにおいて, 提案手法が有望な結果を得ることを示す。
関連論文リスト
- Learning with Confidence: Training Better Classifiers from Soft Labels [0.0]
教師付き機械学習では、モデルは通常、ハードラベルを持つデータ、すなわちクラスメンバーシップの明確な割り当てを用いて訓練される。
クラスラベル上の離散確率分布として表されるラベルの不確実性を組み込むことで,分類モデルの予測性能が向上するかどうかを検討する。
論文 参考訳(メタデータ) (2024-09-24T13:12:29Z) - Multi-Label Noise Transition Matrix Estimation with Label Correlations:
Theory and Algorithm [73.94839250910977]
ノイズの多いマルチラベル学習は、大規模な正確なラベルの収集によって生じる課題により、注目を集めている。
遷移行列の導入は、マルチラベルノイズをモデル化し、統計的に一貫したアルゴリズムの開発に役立つ。
そこで本稿では, アンカーポイントを必要とせずに, ラベル相関を利用した新しい推定器を提案する。
論文 参考訳(メタデータ) (2023-09-22T08:35:38Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Label Noise-Robust Learning using a Confidence-Based Sieving Strategy [15.997774467236352]
ラベルノイズを伴うタスクの学習では、オーバーフィッティングに対するモデルの堅牢性を改善することが重要な課題である。
サンプルをノイズのあるラベルで識別し、モデルを学習するのを防ぐことは、この課題に対処するための有望なアプローチである。
本研究では, 信頼度誤差と呼ばれる新しい判別基準と, クリーンサンプルとノイズサンプルを効果的に識別するためのCONFESと呼ばれるシービング戦略を提案する。
論文 参考訳(メタデータ) (2022-10-11T10:47:28Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Multi-class Probabilistic Bounds for Self-learning [13.875239300089861]
Pseudo-labelingはエラーを起こしやすいため、ラベルなしのトレーニングデータにノイズのあるラベルを追加するリスクがある。
本稿では,多クラス分類シナリオにおける自己学習を部分的にラベル付きデータで分析する確率的枠組みを提案する。
論文 参考訳(メタデータ) (2021-09-29T13:57:37Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。