論文の概要: BiSTF: Bilateral-Branch Self-Training Framework for Semi-Supervised
Large-scale Fine-Grained Recognition
- arxiv url: http://arxiv.org/abs/2107.06768v1
- Date: Wed, 14 Jul 2021 15:28:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-15 14:18:00.970751
- Title: BiSTF: Bilateral-Branch Self-Training Framework for Semi-Supervised
Large-scale Fine-Grained Recognition
- Title(参考訳): BiSTF:半改良大規模ファイングラインド認識のためのバイラテラルブランチ自己学習フレームワーク
- Authors: Hao Chang, Guochen Xie, Jun Yu, Qiang Ling
- Abstract要約: 半教師付きファイングラインド認識は、データ不均衡、高いクラス間類似性、ドメインミスマッチによる課題である。
本稿では,バイラテラルブランチ・セルフトレーニング・フレームワーク (Bilateral-Branch Self-Training Framework, BiSTF) を提案する。
BiSTFはSemi-iNatデータセット上で既存の最先端SSLよりも優れています。
- 参考スコア(独自算出の注目度): 28.06659482245647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised Fine-Grained Recognition is a challenge task due to the
difficulty of data imbalance, high inter-class similarity and domain mismatch.
Recent years, this field has witnessed great progress and many methods has
gained great performance. However, these methods can hardly generalize to the
large-scale datasets, such as Semi-iNat, as they are prone to suffer from noise
in unlabeled data and the incompetence for learning features from imbalanced
fine-grained data. In this work, we propose Bilateral-Branch Self-Training
Framework (BiSTF), a simple yet effective framework to improve existing
semi-supervised learning methods on class-imbalanced and domain-shifted
fine-grained data. By adjusting the update frequency through stochastic epoch
update, BiSTF iteratively retrains a baseline SSL model with a labeled set
expanded by selectively adding pseudo-labeled samples from an unlabeled set,
where the distribution of pseudo-labeled samples are the same as the labeled
data. We show that BiSTF outperforms the existing state-of-the-art SSL
algorithm on Semi-iNat dataset.
- Abstract(参考訳): 半教師付きファイングラインド認識は、データ不均衡、高いクラス間類似性、ドメインミスマッチの難しさによる課題である。
近年、この分野は非常に進歩し、多くの手法が大きな成果を上げている。
しかし,非ラベルデータのノイズや不均衡な細粒度データから特徴を学習する能力に乏しいため,semi-inatなどの大規模データセットへの一般化は困難である。
本研究では,クラス不均衡データとドメインシフトデータの半教師付き学習法を改善するための,シンプルかつ効果的なフレームワークであるBilateral-Branch Self-Training Framework (BiSTF)を提案する。
確率的エポック更新による更新頻度の調整により、BiSTFは、ラベル付きデータと同じ擬似ラベル付きサンプルの分布を持つ未ラベルセットから擬似ラベル付きサンプルを選択的に追加することにより拡張されたラベル付きセットで、ベースラインSSLモデルを反復的に再トレーニングする。
BiSTFはSemi-iNatデータセット上で既存の最先端SSLアルゴリズムよりも優れていることを示す。
関連論文リスト
- Continuous Contrastive Learning for Long-Tailed Semi-Supervised Recognition [50.61991746981703]
現在の最先端のLTSSLアプローチは、大規模な未ラベルデータに対して高品質な擬似ラベルに依存している。
本稿では,長期学習における様々な提案を統一する新しい確率的枠組みを提案する。
我々は、信頼度とスムーズな擬似ラベルを用いて、我々のフレームワークをラベルなしデータに拡張する、連続的コントラスト学習手法であるCCLを導入する。
論文 参考訳(メタデータ) (2024-10-08T15:06:10Z) - Boosting Semi-Supervised Learning by bridging high and low-confidence
predictions [4.18804572788063]
Pseudo-labelingは半教師あり学習(SSL)において重要な技術である
ReFixMatchと呼ばれる新しい手法を提案し、これはトレーニング中にラベルなしのデータをすべて活用することを目的としている。
論文 参考訳(メタデータ) (2023-08-15T00:27:18Z) - Flexible Distribution Alignment: Towards Long-tailed Semi-supervised Learning with Proper Calibration [18.376601653387315]
Longtailed semi-supervised learning (LTSSL)は、半教師付きアプリケーションのための実践的なシナリオである。
この問題は、ラベル付きとラベルなしのクラス分布の相違によってしばしば悪化する。
本稿では,新しい適応ロジット調整型損失フレームワークFlexDAを紹介する。
論文 参考訳(メタデータ) (2023-06-07T17:50:59Z) - Federated Semi-Supervised Learning with Class Distribution Mismatch [34.46190258291223]
フェデレート半教師付き学習(Fed-SSL)はラベル付きデータとラベルなしデータの両方を完全に活用するための魅力的なソリューションである。
我々は、Fed-SSLにおけるクラス分散ミスマッチ問題を効果的に緩和できる2つの適切な正規化項を導入する。
我々は、分散低減と正規化平均化技術を活用して、新しいFed-SSLアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-29T14:18:20Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Rethinking Re-Sampling in Imbalanced Semi-Supervised Learning [26.069534478556527]
Semi-Supervised Learning (SSL)はラベル付きデータが不足している場合にラベル付きデータを利用する強力な能力を示している。
ほとんどのSSLアルゴリズムは、クラスディストリビューションがトレーニングセットとテストセットの両方でバランスが取れているという仮定の下で動作します。
本研究では,クラス不均衡データに対するSSLの問題について考察する。
論文 参考訳(メタデータ) (2021-06-01T03:58:18Z) - OpenMatch: Open-set Consistency Regularization for Semi-supervised
Learning with Outliers [71.08167292329028]
我々はOpenMatchと呼ばれる新しいオープンセットセミスーパーバイザードラーニング(OSSL)アプローチを提案する。
OpenMatchは、1-vs-all(OVA)分類器に基づいた新規検出とFixMatchを統合する。
3つのデータセットで最先端のパフォーマンスを実現し、CIFAR10の未ラベルデータで見えないアウトリーチを検出する上で、完全な教師付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-28T23:57:15Z) - Semi-supervised Long-tailed Recognition using Alternate Sampling [95.93760490301395]
ロングテール認識の主な課題は、データ分布の不均衡とテールクラスにおけるサンプル不足である。
半教師付き長尾認識という新しい認識設定を提案する。
2つのデータセットで、他の競合方法よりも大幅な精度向上を実証します。
論文 参考訳(メタデータ) (2021-05-01T00:43:38Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - Distribution Aligning Refinery of Pseudo-label for Imbalanced
Semi-supervised Learning [126.31716228319902]
Pseudo-label (DARP) アルゴリズムの分散アライメント・リファナリーを開発する。
DARPは最先端のSSLスキームと有効かつ効率的に互換性があることを示す。
論文 参考訳(メタデータ) (2020-07-17T09:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。