論文の概要: A Realistic Evaluation of Semi-Supervised Learning for Fine-Grained
Classification
- arxiv url: http://arxiv.org/abs/2104.00679v1
- Date: Thu, 1 Apr 2021 17:59:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 15:22:52.579517
- Title: A Realistic Evaluation of Semi-Supervised Learning for Fine-Grained
Classification
- Title(参考訳): 細粒度分類のための半教師付き学習の現実的評価
- Authors: Jong-Chyi Su and Zezhou Cheng and Subhransu Maji
- Abstract要約: 本ベンチマークは, avesおよびfungi分類のクラスをサンプリングして得られた2つの細粒度分類データセットからなる。
最近提案されたSSLメソッドは大きなメリットをもたらし、深いネットワークがゼロから訓練されたときにクラス外のデータを効果的にパフォーマンスを向上させることができます。
我々の研究は、現実的データセットの専門家による半教師付き学習は、現在文学で普及しているものとは異なる戦略を必要とする可能性があることを示唆している。
- 参考スコア(独自算出の注目度): 38.68079253627819
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We evaluate the effectiveness of semi-supervised learning (SSL) on a
realistic benchmark where data exhibits considerable class imbalance and
contains images from novel classes. Our benchmark consists of two fine-grained
classification datasets obtained by sampling classes from the Aves and Fungi
taxonomy. We find that recently proposed SSL methods provide significant
benefits, and can effectively use out-of-class data to improve performance when
deep networks are trained from scratch. Yet their performance pales in
comparison to a transfer learning baseline, an alternative approach for
learning from a few examples. Furthermore, in the transfer setting, while
existing SSL methods provide improvements, the presence of out-of-class is
often detrimental. In this setting, standard fine-tuning followed by
distillation-based self-training is the most robust. Our work suggests that
semi-supervised learning with experts on realistic datasets may require
different strategies than those currently prevalent in the literature.
- Abstract(参考訳): そこで本研究では,クラス不均衡がかなり高く,新しいクラスの画像を含むリアルなベンチマークにおいて,半教師付き学習(SSL)の有効性を評価する。
本ベンチマークは,Aves分類とFungi分類から抽出した2つの詳細な分類データセットからなる。
最近提案されたSSLメソッドは大きなメリットがあり、ディープネットワークをゼロからトレーニングする際のパフォーマンスを向上させるために、クラス外のデータを効果的に利用することができる。
しかし、彼らのパフォーマンスは、いくつかの例から学ぶための代替アプローチであるトランスファーラーニングベースラインと比較すると劣っている。
さらに、転送設定では、既存のSSLメソッドは改善を提供するが、クラス外の存在はしばしば有害である。
この設定では、標準の微調整と蒸留ベースの自己訓練が最も堅牢である。
我々の研究は、現実的なデータセットの専門家による半教師付き学習が、現在文献で広く使われているものとは異なる戦略を必要とする可能性を示唆している。
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - Using Self-supervised Learning Can Improve Model Fairness [10.028637666224093]
自己教師型学習(SSL)は,大規模モデルのデファクトトレーニングパラダイムとなっている。
本研究では,事前学習と微調整が公正性に及ぼす影響について検討する。
SSLの公平性評価フレームワークを導入し、データセット要件の定義、事前トレーニング、段階的凍結による微調整、人口統計学的に条件付けられた表現類似性の評価、ドメイン固有の評価プロセスの確立の5段階を含む。
論文 参考訳(メタデータ) (2024-06-04T14:38:30Z) - Reinforcement Learning-Guided Semi-Supervised Learning [20.599506122857328]
本稿では,SSLを片腕バンディット問題として定式化する新しい強化学習ガイド型SSL手法 RLGSSL を提案する。
RLGSSLは、ラベル付きデータとラベルなしデータのバランスを保ち、一般化性能を向上させるために、慎重に設計された報酬関数を組み込んでいる。
我々は,複数のベンチマークデータセットに対する広範な実験を通じてRCGSSLの有効性を実証し,我々の手法が最先端のSSL手法と比較して一貫した優れた性能を実現することを示す。
論文 参考訳(メタデータ) (2024-05-02T21:52:24Z) - Self-supervised visual learning in the low-data regime: a comparative evaluation [40.27083924454058]
自己監視学習(SSL)は、現代のディープニューラルネットワーク(DNN)のための堅牢なトレーニング手法である
この研究は、現代のビジュアルSSLメソッドの分類を導入し、アプローチの主要なカテゴリに関する詳細な説明と洞察を添えた。
ドメイン固有のダウンストリームタスクでは、ドメイン内のローデータSSLプリトレーニングが大規模な事前トレーニングの一般的なアプローチより優れています。
論文 参考訳(メタデータ) (2024-04-26T07:23:14Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - Pruning the Unlabeled Data to Improve Semi-Supervised Learning [17.62242617965356]
PruneSSLは、オリジナルのラベルなしデータセットからサンプルを選択的に削除し、分離性を高める技術である。
PruneSSLは学習者の利用可能なトレーニングデータの量を減らすが、様々な競合するSSLアルゴリズムの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-08-27T09:45:41Z) - Improving Open-Set Semi-Supervised Learning with Self-Supervision [13.944469874692459]
オープンセット半教師あり学習(OSSL)は、半教師あり学習における実践的なシナリオを具現化する。
我々は,自己スーパービジョンを通じて,ラベルのないすべてのデータから学習を容易にするOSSLフレームワークを提案する。
提案手法は, 評価されたベンチマーク問題の多くに対して, 最先端の結果をもたらす。
論文 参考訳(メタデータ) (2023-01-24T16:46:37Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - On Data-Augmentation and Consistency-Based Semi-Supervised Learning [77.57285768500225]
最近提案された整合性に基づく半教師付き学習(SSL)手法は,複数のSSLタスクにおいて最先端技術である。
これらの進歩にもかかわらず、これらの手法の理解はまだ比較的限られている。
論文 参考訳(メタデータ) (2021-01-18T10:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。