論文の概要: Learning in Imperfect Environment: Multi-Label Classification with
Long-Tailed Distribution and Partial Labels
- arxiv url: http://arxiv.org/abs/2304.10539v1
- Date: Thu, 20 Apr 2023 20:05:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 17:03:27.662388
- Title: Learning in Imperfect Environment: Multi-Label Classification with
Long-Tailed Distribution and Partial Labels
- Title(参考訳): 不完全環境における学習:長期分布と部分ラベルを用いたマルチラベル分類
- Authors: Wenqiao Zhang, Changshuo Liu, Lingze Zeng, Beng Chin Ooi, Siliang
Tang, Yueting Zhuang
- Abstract要約: 新しいタスク, 部分ラベリングとLong-Tailed Multi-Label Classification (PLT-MLC) を導入する。
その結果,ほとんどのLT-MLCとPL-MLCは劣化MLCの解決に失敗していることがわかった。
textbfCOrrection $rightarrow$ textbfModificattextbfIon $rightarrow$ balantextbfCe。
- 参考スコア(独自算出の注目度): 53.68653940062605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional multi-label classification (MLC) methods assume that all samples
are fully labeled and identically distributed. Unfortunately, this assumption
is unrealistic in large-scale MLC data that has long-tailed (LT) distribution
and partial labels (PL). To address the problem, we introduce a novel task,
Partial labeling and Long-Tailed Multi-Label Classification (PLT-MLC), to
jointly consider the above two imperfect learning environments. Not
surprisingly, we find that most LT-MLC and PL-MLC approaches fail to solve the
PLT-MLC, resulting in significant performance degradation on the two proposed
PLT-MLC benchmarks. Therefore, we propose an end-to-end learning framework:
\textbf{CO}rrection $\rightarrow$ \textbf{M}odificat\textbf{I}on $\rightarrow$
balan\textbf{C}e, abbreviated as \textbf{\method{}}. Our bootstrapping
philosophy is to simultaneously correct the missing labels (Correction) with
convinced prediction confidence over a class-aware threshold and to learn from
these recall labels during training. We next propose a novel multi-focal
modifier loss that simultaneously addresses head-tail imbalance and
positive-negative imbalance to adaptively modify the attention to different
samples (Modification) under the LT class distribution. In addition, we develop
a balanced training strategy by distilling the model's learning effect from
head and tail samples, and thus design a balanced classifier (Balance)
conditioned on the head and tail learning effect to maintain stable performance
for all samples. Our experimental study shows that the proposed \method{}
significantly outperforms general MLC, LT-MLC and PL-MLC methods in terms of
effectiveness and robustness on our newly created PLT-MLC datasets.
- Abstract(参考訳): 従来のマルチラベル分類法(MLC)は、全てのサンプルが完全にラベル付けされ、同一に分散されていると仮定する。
残念ながら、この仮定は長期分布(LT)と部分ラベル(PL)を持つ大規模MLCデータでは非現実的である。
この問題に対処するために、上記の2つの不完全な学習環境を共同で検討するために、新しいタスク、Partial labeling and Long-Tailed Multi-Label Classification (PLT-MLC)を導入する。
当然のことながら、ほとんどのLT-MLCとPL-MLCのアプローチはPLT-MLCの解決に失敗し、2つのPLT-MLCベンチマークで性能が大幅に低下する。
そこで, エンドツーエンドの学習フレームワークを提案する。 \textbf{CO}rrection $\rightarrow$ \textbf{M}odificat\textbf{I}on $\rightarrow$ balan\textbf{C}e, 略して \textbf{\method{}}。
我々のブートストラッピング哲学は、クラス認識しきい値に対する確実な予測信頼と、トレーニング中のこれらのリコールラベルからの学習を同時に補正することである。
次に、LTクラス分布の異なるサンプル(修正)に対する注意を適応的に修正するために、ヘッドテール不均衡と正負の不均衡に同時に対処する新しい多焦点変調器損失を提案する。
さらに, モデル学習効果を頭と尾のサンプルから蒸留し, 頭と尾の学習効果に条件付きバランス付き分類器(Balance)を設計し, 全試料の安定的な性能を維持することで, バランスの取れた学習戦略を開発する。
実験により,提案した<method{} は,新たに作成したPLT-MLCデータセットの有効性とロバスト性の観点から,一般 MLC,LT-MLC,PL-MLC法より有意に優れていた。
関連論文リスト
- A Channel-ensemble Approach: Unbiased and Low-variance Pseudo-labels is Critical for Semi-supervised Classification [61.473485511491795]
半教師付き学習(SSL)はコンピュータビジョンにおける実践的な課題である。
Pseudo-label (PL) メソッド、例えば FixMatch や FreeMatch は SSL で State of The Art (SOTA) のパフォーマンスを取得する。
本稿では,複数の下位PLを理論的に保証された非偏りと低分散のPLに集約する,軽量なチャネルベースアンサンブル法を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:49:37Z) - Twice Class Bias Correction for Imbalanced Semi-Supervised Learning [59.90429949214134]
textbfTwice textbfClass textbfBias textbfCorrection (textbfTCBC) と呼ばれる新しいアプローチを導入する。
トレーニング過程におけるモデルパラメータのクラスバイアスを推定する。
非ラベル標本に対してモデルの擬似ラベルに二次補正を適用する。
論文 参考訳(メタデータ) (2023-12-27T15:06:36Z) - Three Heads Are Better Than One: Complementary Experts for Long-Tailed Semi-supervised Learning [74.44500692632778]
本稿では,様々なクラス分布をモデル化するComPlementary Experts (CPE) を提案する。
CPEは、CIFAR-10-LT、CIFAR-100-LT、STL-10-LTのベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-25T11:54:07Z) - Flexible Distribution Alignment: Towards Long-tailed Semi-supervised Learning with Proper Calibration [18.376601653387315]
Longtailed semi-supervised learning (LTSSL)は、半教師付きアプリケーションのための実践的なシナリオである。
この問題は、ラベル付きとラベルなしのクラス分布の相違によってしばしば悪化する。
本稿では,新しい適応ロジット調整型損失フレームワークFlexDAを紹介する。
論文 参考訳(メタデータ) (2023-06-07T17:50:59Z) - Class-Imbalanced Complementary-Label Learning via Weighted Loss [8.934943507699131]
補完ラベル学習(Complementary-label Learning, CLL)は、弱い教師付き分類において広く用いられている。
クラス不均衡のトレーニングサンプルに直面すると、現実世界のデータセットでは大きな課題に直面します。
多クラス分類のためのクラス不均衡補完ラベルからの学習を可能にする新しい問題設定を提案する。
論文 参考訳(メタデータ) (2022-09-28T16:02:42Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - PML: Progressive Margin Loss for Long-tailed Age Classification [9.020103398777653]
非拘束顔面年齢分類のためのプログレッシブマージンロス(PML)アプローチを提案する。
私たちのPMLは、いくつかのマージンを強制することによって、年齢ラベルパターンを適応的に洗練することを目指しています。
論文 参考訳(メタデータ) (2021-03-03T02:47:09Z) - Distribution Aligning Refinery of Pseudo-label for Imbalanced
Semi-supervised Learning [126.31716228319902]
Pseudo-label (DARP) アルゴリズムの分散アライメント・リファナリーを開発する。
DARPは最先端のSSLスキームと有効かつ効率的に互換性があることを示す。
論文 参考訳(メタデータ) (2020-07-17T09:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。