論文の概要: Disentangling Label Distribution for Long-tailed Visual Recognition
- arxiv url: http://arxiv.org/abs/2012.00321v2
- Date: Sat, 20 Mar 2021 15:22:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-30 20:02:36.344391
- Title: Disentangling Label Distribution for Long-tailed Visual Recognition
- Title(参考訳): ロングテール視覚認識のためのディペンタングリングラベル分布
- Authors: Youngkyu Hong, Seungju Han, Kwanghee Choi, Seokjun Seo, Beomsu Kim,
Buru Chang
- Abstract要約: 我々は、ターゲットとソースのラベルの分布が異なるラベルシフト問題として、長い尾の視覚認識を定式化する。
ラベルシフト問題に対処する上で重要なハードルの1つは、ソースラベル分布とモデル予測との絡み合いである。
我々は,ドンスカー・バラダン表現の最適境界に基づく新しい手法であるLAbel Distribution DisEntangling (LADE)損失を提案する。
- 参考スコア(独自算出の注目度): 8.538887358164438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The current evaluation protocol of long-tailed visual recognition trains the
classification model on the long-tailed source label distribution and evaluates
its performance on the uniform target label distribution. Such protocol has
questionable practicality since the target may also be long-tailed. Therefore,
we formulate long-tailed visual recognition as a label shift problem where the
target and source label distributions are different. One of the significant
hurdles in dealing with the label shift problem is the entanglement between the
source label distribution and the model prediction. In this paper, we focus on
disentangling the source label distribution from the model prediction. We first
introduce a simple but overlooked baseline method that matches the target label
distribution by post-processing the model prediction trained by the
cross-entropy loss and the Softmax function. Although this method surpasses
state-of-the-art methods on benchmark datasets, it can be further improved by
directly disentangling the source label distribution from the model prediction
in the training phase. Thus, we propose a novel method, LAbel distribution
DisEntangling (LADE) loss based on the optimal bound of Donsker-Varadhan
representation. LADE achieves state-of-the-art performance on benchmark
datasets such as CIFAR-100-LT, Places-LT, ImageNet-LT, and iNaturalist 2018.
Moreover, LADE outperforms existing methods on various shifted target label
distributions, showing the general adaptability of our proposed method.
- Abstract(参考訳): ロングテールビジュアル認識の現在の評価プロトコルは、ロングテールソースラベル分布の分類モデルを訓練し、その均一なターゲットラベル分布の性能を評価する。
このようなプロトコルは、ターゲットも長い尾を持つ可能性があるため、疑わしい実用性を持っている。
そこで,対象とソースのラベル分布が異なるラベルシフト問題として,ロングテール視覚認識を定式化する。
ラベルシフト問題に対処する上で重要なハードルのひとつは、ソースラベル分布とモデル予測との絡み合いである。
本稿では,モデル予測からソースラベルの分布を分離することに焦点を当てる。
まず,クロスエントロピー損失とソフトマックス関数で訓練されたモデル予測を後処理することで,対象ラベル分布にマッチする単純なベースライン手法を提案する。
この方法はベンチマークデータセットの最先端手法を超越するが、トレーニングフェーズのモデル予測からソースラベルの分布を直接切り離すことにより、さらに改善することができる。
そこで本稿では,Donsker-Varadhan表現の最適境界に基づく新しい手法であるLAbel Distribution DisEntangling (LADE)損失を提案する。
LADEは、CIFAR-100-LT、Places-LT、ImageNet-LT、iNaturalist 2018などのベンチマークデータセットで最先端のパフォーマンスを実現している。
さらに, LADEは, 様々なシフト対象ラベル分布の既存手法よりも優れた性能を示し, 提案手法の適応性を示した。
関連論文リスト
- Theory-inspired Label Shift Adaptation via Aligned Distribution Mixture [21.494268411607766]
ADM(Aligned Distribution Mixture)という名称の革新的なラベルシフトフレームワークを提案する。
本フレームワークでは,分類器学習プロセスに修正を加えることで,4つの典型的なラベルシフト手法を改良する。
提案手法の特異性を考慮し,効率的な二段階最適化戦略を開発する。
論文 参考訳(メタデータ) (2024-11-04T12:51:57Z) - Continuous Contrastive Learning for Long-Tailed Semi-Supervised Recognition [50.61991746981703]
現在の最先端のLTSSLアプローチは、大規模な未ラベルデータに対して高品質な擬似ラベルに依存している。
本稿では,長期学習における様々な提案を統一する新しい確率的枠組みを提案する。
我々は、信頼度とスムーズな擬似ラベルを用いて、我々のフレームワークをラベルなしデータに拡張する、連続的コントラスト学習手法であるCCLを導入する。
論文 参考訳(メタデータ) (2024-10-08T15:06:10Z) - Exploring Beyond Logits: Hierarchical Dynamic Labeling Based on Embeddings for Semi-Supervised Classification [49.09505771145326]
モデル予測に依存しない階層型動的ラベル付け(HDL)アルゴリズムを提案し,画像埋め込みを用いてサンプルラベルを生成する。
本手法は,半教師付き学習における擬似ラベル生成のパラダイムを変える可能性がある。
論文 参考訳(メタデータ) (2024-04-26T06:00:27Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Label Distribution Learning from Logical Label [19.632157794117553]
ラベル分布学習(LDL)は、サンプルのラベル記述度(ラベル分布)を予測する効果的な方法である。
しかし、トレーニングサンプルのラベル分布のアノテートは非常にコストがかかる。
論理ラベルから直接LDLモデルを学習する新しい手法を提案し,LEとLDLを結合モデルに統一する。
論文 参考訳(メタデータ) (2023-03-13T04:31:35Z) - Predicting Class Distribution Shift for Reliable Domain Adaptive Object
Detection [2.5193191501662144]
Unsupervised Domain Adaptive Object Detection (UDA-OD) は、オープンワールド環境におけるロボットビジョンシステムの信頼性を向上させるために、非ラベルデータを使用する。
自己学習に基づくUDA-ODに対する従来のアプローチは、画像の一般的な外観の変化を克服するのに有効である。
本稿では,自己学習における疑似ラベルの信頼性を向上させるために,クラス分散シフトに明示的に対処するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-13T00:46:34Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Label distribution learning via label correlation grid [9.340734188957727]
ラベル関係の不確かさをモデル化するための textbfLabel textbfCorrelation textbfGrid (LCG) を提案する。
我々のネットワークはLCGを学習し、各インスタンスのラベル分布を正確に推定する。
論文 参考訳(メタデータ) (2022-10-15T03:58:15Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - Re-distributing Biased Pseudo Labels for Semi-supervised Semantic
Segmentation: A Baseline Investigation [30.688753736660725]
疑似ラベルを生成するために,DARS法とDARS法を提案する。
我々の手法は最先端の手法と比較して好適に機能する。
論文 参考訳(メタデータ) (2021-07-23T14:45:14Z) - Coping with Label Shift via Distributionally Robust Optimisation [72.80971421083937]
分散ロバスト最適化(DRO)に基づく目的最小化モデルを提案する。
そこで我々は,提案した目的を最適化するために,大規模問題に適した勾配降下近位ミラー上昇アルゴリズムを設計し,解析する。
論文 参考訳(メタデータ) (2020-10-23T08:33:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。