論文の概要: Asymmetric Loss For Multi-Label Classification
- arxiv url: http://arxiv.org/abs/2009.14119v4
- Date: Thu, 29 Jul 2021 15:02:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 05:43:12.178072
- Title: Asymmetric Loss For Multi-Label Classification
- Title(参考訳): マルチラベル分類における非対称損失
- Authors: Emanuel Ben-Baruch, Tal Ridnik, Nadav Zamir, Asaf Noy, Itamar
Friedman, Matan Protter, Lihi Zelnik-Manor
- Abstract要約: 新規な非対称損失(ASL)を導入し,正および負のサンプルに対して異なる動作を行う。
ASLが異なるサンプルの確率のバランスをとる方法と、このバランスがより良いmAPスコアにどのように変換されるかを示す。
ASLは効果的で実装が容易で、トレーニング時間や複雑さを増大させません。
- 参考スコア(独自算出の注目度): 11.498912417354191
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a typical multi-label setting, a picture contains on average few positive
labels, and many negative ones. This positive-negative imbalance dominates the
optimization process, and can lead to under-emphasizing gradients from positive
labels during training, resulting in poor accuracy. In this paper, we introduce
a novel asymmetric loss ("ASL"), which operates differently on positive and
negative samples. The loss enables to dynamically down-weights and
hard-thresholds easy negative samples, while also discarding possibly
mislabeled samples. We demonstrate how ASL can balance the probabilities of
different samples, and how this balancing is translated to better mAP scores.
With ASL, we reach state-of-the-art results on multiple popular multi-label
datasets: MS-COCO, Pascal-VOC, NUS-WIDE and Open Images. We also demonstrate
ASL applicability for other tasks, such as single-label classification and
object detection. ASL is effective, easy to implement, and does not increase
the training time or complexity.
Implementation is available at: https://github.com/Alibaba-MIIL/ASL.
- Abstract(参考訳): 典型的なマルチラベル設定では、画像は平均的な少数の正のラベルと多くの負のラベルを含む。
この正負の不均衡は最適化プロセスを支配し、トレーニング中に正のラベルから過度に強調される勾配をもたらし、精度が低下する。
本稿では,正のサンプルと負のサンプルで異なる動作をする新しい非対称損失(asl)を提案する。
この損失により、動的に重量を減らし、容易に陰性なサンプルを保ちつつ、おそらくラベルのつかないサンプルを破棄することができる。
ASLが異なるサンプルの確率のバランスをとる方法と、このバランスがより良いmAPスコアにどのように変換されるかを示す。
ASLでは、MS-COCO、Pascal-VOC、NAS-WIDE、Open Imagesなど、複数の一般的なマルチラベルデータセットの最先端結果が得られる。
また、単一ラベル分類やオブジェクト検出など、他のタスクに対するASLの適用性を示す。
ASLは効果的で実装が容易で、トレーニング時間や複雑さを増大させません。
実装は、https://github.com/Alibaba-MIIL/ASLで利用可能である。
関連論文リスト
- Learning Label Refinement and Threshold Adjustment for Imbalanced Semi-Supervised Learning [6.904448748214652]
半教師付き学習アルゴリズムは、不均衡なトレーニングデータに晒された場合、うまく機能しない。
Validation Data(SEVAL)に基づく擬似ラベル最適化によるセミ教師あり学習について紹介する。
SEVALは、擬似ラベルの精度を改善して特定のタスクに適応し、クラスごとに擬似ラベルの正確性を保証する。
論文 参考訳(メタデータ) (2024-07-07T13:46:22Z) - InstanT: Semi-supervised Learning with Instance-dependent Thresholds [75.91684890150283]
本稿では,既存手法と比較して高い自由度を有するインスタンス依存しきい値の研究を提案する。
インスタンスレベルのあいまいさと擬似ラベルのインスタンス依存エラー率を利用して、すべての未ラベルインスタンスに対して新しいインスタンス依存しきい値関数を考案する。
論文 参考訳(メタデータ) (2023-10-29T05:31:43Z) - Boosting Semi-Supervised Learning by Exploiting All Unlabeled Data [21.6350640726058]
半教師付き学習(SSL)は、大きなラベル付きデータセットへの依存を緩和する大きな可能性を秘めているため、大きな注目を集めている。
エントロピー平均損失(EML)と適応負学習(ANL)の2つの新しい手法を提案する。
これらのテクニックをFixMatchと統合し、シンプルながら強力なフレームワークであるFullMatchを開発します。
論文 参考訳(メタデータ) (2023-03-20T12:44:11Z) - Pseudo-Label Noise Suppression Techniques for Semi-Supervised Semantic
Segmentation [21.163070161951868]
半消費学習(SSL)は、教師なしデータをトレーニングに組み込むことで、大きなラベル付きデータセットの必要性を減らすことができる。
現在のSSLアプローチでは、初期教師付きトレーニングモデルを使用して、擬似ラベルと呼ばれる未ラベル画像の予測を生成する。
擬似ラベルノイズと誤りを3つのメカニズムで制御する。
論文 参考訳(メタデータ) (2022-10-19T09:46:27Z) - PercentMatch: Percentile-based Dynamic Thresholding for Multi-Label
Semi-Supervised Classification [64.39761523935613]
トレーニング中の各クラスに対する正と負の擬似ラベルのスコア閾値を動的に変更するためのパーセンタイルベースのしきい値調整手法を提案する。
近年のSSL方式と比較して, Pascal VOC2007 と MS-COCO のデータセットの性能は高い。
論文 参考訳(メタデータ) (2022-08-30T01:27:48Z) - Self-supervised Learning is More Robust to Dataset Imbalance [65.84339596595383]
データセット不均衡下での自己教師型学習について検討する。
既製の自己教師型表現は、教師型表現よりもクラス不均衡に対してすでに堅牢である。
我々は、不均衡なデータセット上でSSL表現品質を一貫して改善する、再重み付け正規化手法を考案した。
論文 参考訳(メタデータ) (2021-10-11T06:29:56Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - Whitening for Self-Supervised Representation Learning [129.57407186848917]
本稿では,潜在空間の特徴の白化に基づく自己教師付き表現学習(SSL)のための新しい損失関数を提案する。
我々の解は非対称なネットワークを必要とせず、概念的には単純である。
論文 参考訳(メタデータ) (2020-07-13T12:33:25Z) - Class-Imbalanced Semi-Supervised Learning [33.94685366079589]
Semi-Supervised Learning (SSL)はラベル付けの難しさを克服し、ラベルなしデータを完全に活用することで大きな成功を収めている。
本稿では,クラス不均衡データを用いた半教師あり学習(CISSL)の課題を紹介する。
本手法はCISSL環境における従来の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-02-17T07:48:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。