論文の概要: Multi-Label Gold Asymmetric Loss Correction with Single-Label Regulators
- arxiv url: http://arxiv.org/abs/2108.02032v1
- Date: Wed, 4 Aug 2021 12:57:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-05 17:36:31.996253
- Title: Multi-Label Gold Asymmetric Loss Correction with Single-Label Regulators
- Title(参考訳): 単一ラベルレギュレータによる多層金不斉損失補正
- Authors: Cosmin Octavian Pene, Amirmasoud Ghiassi, Taraneh Younesian, Robert
Birke, Lydia Y.Chen
- Abstract要約: 本稿では,単一ラベルレギュレータ(GALC-SLR)を用いたGold Asymmetric Loss Correctionを提案する。
GALC-SLRは、単一ラベルサンプルを用いてノイズ混乱行列を推定し、推定された混乱行列を介して非対称な損失補正を構築し、雑音ラベルへの過度な適合を避ける。
実験結果から,本手法は,全ての汚損レベルにおいて,最先端の非対称損失マルチラベル分類器よりも優れた性能を示すことが示された。
- 参考スコア(独自算出の注目度): 6.129273021888717
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-label learning is an emerging extension of the multi-class
classification where an image contains multiple labels. Not only acquiring a
clean and fully labeled dataset in multi-label learning is extremely expensive,
but also many of the actual labels are corrupted or missing due to the
automated or non-expert annotation techniques. Noisy label data decrease the
prediction performance drastically. In this paper, we propose a novel Gold
Asymmetric Loss Correction with Single-Label Regulators (GALC-SLR) that
operates robust against noisy labels. GALC-SLR estimates the noise confusion
matrix using single-label samples, then constructs an asymmetric loss
correction via estimated confusion matrix to avoid overfitting to the noisy
labels. Empirical results show that our method outperforms the state-of-the-art
original asymmetric loss multi-label classifier under all corruption levels,
showing mean average precision improvement up to 28.67% on a real world dataset
of MS-COCO, yielding a better generalization of the unseen data and increased
prediction performance.
- Abstract(参考訳): マルチラベル学習は、画像が複数のラベルを含むマルチクラス分類の新たな拡張である。
クリーンで完全なラベル付きデータセットをマルチラベル学習で取得するのは非常に高価であるだけでなく、実際のラベルの多くは、自動的または非専門的なアノテーション技術のために破損または欠落している。
ノイズラベルデータにより予測性能が大幅に低下する。
本稿では,シングルラベルレギュレータ(galc-slr)を用いた,ノイズラベルに対してロバストな新しい非対称損失補正を提案する。
galc-slrは、単一ラベルのサンプルを用いてノイズ混乱行列を推定し、ノイズラベルへの過剰フィットを避けるために推定混乱行列を介して非対称損失補正を構築する。
その結果,MS-COCOのリアルタイムデータセットの平均精度は28.67%向上し,非対称データの一般化が向上し,予測性能が向上した。
関連論文リスト
- Toward Robustness in Multi-label Classification: A Data Augmentation
Strategy against Imbalance and Noise [31.917931364881625]
マルチラベル分類は、トレーニングデータにおける不均衡なラベルとノイズの多いラベルによる課題を提起する。
本稿では,これらの課題に対処する統合データ拡張手法である BalanceMix を提案する。
提案手法には,不均衡ラベルに対する2つのサンプルが組み込まれ,多様性の高いマイノリティ拡張インスタンスが生成される。
論文 参考訳(メタデータ) (2023-12-12T09:09:45Z) - Complementary to Multiple Labels: A Correlation-Aware Correction
Approach [65.59584909436259]
理論上, マルチクラスCLLにおける遷移行列が, 複数ラベルの場合どのように歪むかを示す。
候補ラベルから遷移行列を推定する2段階の手法を提案する。
論文 参考訳(メタデータ) (2023-02-25T04:48:48Z) - Learning from Noisy Labels with Decoupled Meta Label Purifier [33.87292143223425]
ディープニューラルネットワークをノイズラベルでトレーニングすることは、DNNが不正確なラベルを容易に記憶できるため、難しい。
本稿では,DMLPと呼ばれる新しい多段ラベル浄化器を提案する。
DMLPはラベル訂正プロセスをラベルなし表現学習と単純なメタラベル精製器に分離する。
論文 参考訳(メタデータ) (2023-02-14T03:39:30Z) - Exploiting Completeness and Uncertainty of Pseudo Labels for Weakly
Supervised Video Anomaly Detection [149.23913018423022]
弱教師付きビデオ異常検出は、ビデオレベルのラベルのみを用いて、ビデオ内の異常事象を特定することを目的としている。
2段階の自己学習法は擬似ラベルの自己生成によって著しく改善されている。
本稿では,自己学習のための完全性と不確実性を利用した強化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-08T05:53:53Z) - Acknowledging the Unknown for Multi-label Learning with Single Positive
Labels [65.5889334964149]
伝統的に、全ての無注釈ラベルは、単一正のマルチラベル学習(SPML)において負のラベルとして仮定される。
本研究では, 予測確率のエントロピーを最大化するエントロピー最大化(EM)損失を提案する。
非通知ラベルの正負ラベル不均衡を考慮し、非対称耐性戦略とより精密な監視を行うセルフペースト手順を備えた非対称擬似ラベル(APL)を提案する。
論文 参考訳(メタデータ) (2022-03-30T11:43:59Z) - Two Wrongs Don't Make a Right: Combating Confirmation Bias in Learning
with Label Noise [6.303101074386922]
Robust Label Refurbishment (Robust LR) は、擬似ラベルと信頼度推定技術を組み込んだ新しいハイブリッド手法である。
本手法はラベルノイズと確認バイアスの両方の損傷を軽減できることを示す。
例えば、Robust LRは、実世界のノイズデータセットであるWebVisionにおいて、以前の最高値よりも最大4.5%の絶対的トップ1精度の向上を実現している。
論文 参考訳(メタデータ) (2021-12-06T12:10:17Z) - Learning with Noisy Labels by Efficient Transition Matrix Estimation to
Combat Label Miscorrection [3.48062110627933]
ノイズラベルを用いた学習に関する最近の研究は、小さなクリーンデータセットを利用して顕著な性能を示した。
モデルメタラーニングに基づくラベル補正手法は, ハエの雑音ラベルを補正することにより, さらなる性能向上を図っている。
しかし、ラベルの誤りに対する保護は存在せず、性能劣化は避けられない。
本研究では,ラベル遷移行列を高速に学習する頑健で効率的な手法を提案する。
論文 参考訳(メタデータ) (2021-11-29T20:12:17Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。