論文の概要: STAR: Noisy Semi-Supervised Transfer Learning for Visual Classification
- arxiv url: http://arxiv.org/abs/2108.08362v1
- Date: Wed, 18 Aug 2021 19:35:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-20 14:35:12.596936
- Title: STAR: Noisy Semi-Supervised Transfer Learning for Visual Classification
- Title(参考訳): STAR:視覚分類のためのノイズ半教師伝達学習
- Authors: Hasib Zunair, Yan Gobeil, Samuel Mercier, A. Ben Hamza
- Abstract要約: 半教師付き学習(SSL)は、大規模なラベルなしデータの活用に有効であることが証明されている。
最近のSSLメソッドは、数十億のスケールでラベル付けされていないイメージデータに依存している。
本稿では,移動学習と自己学習を統合した半教師あり半教師ありトランスファー学習を提案する。
- 参考スコア(独自算出の注目度): 0.8662293148437356
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Semi-supervised learning (SSL) has proven to be effective at leveraging
large-scale unlabeled data to mitigate the dependency on labeled data in order
to learn better models for visual recognition and classification tasks.
However, recent SSL methods rely on unlabeled image data at a scale of billions
to work well. This becomes infeasible for tasks with relatively fewer unlabeled
data in terms of runtime, memory and data acquisition. To address this issue,
we propose noisy semi-supervised transfer learning, an efficient SSL approach
that integrates transfer learning and self-training with noisy student into a
single framework, which is tailored for tasks that can leverage unlabeled image
data on a scale of thousands. We evaluate our method on both binary and
multi-class classification tasks, where the objective is to identify whether an
image displays people practicing sports or the type of sport, as well as to
identify the pose from a pool of popular yoga poses. Extensive experiments and
ablation studies demonstrate that by leveraging unlabeled data, our proposed
framework significantly improves visual classification, especially in
multi-class classification settings compared to state-of-the-art methods.
Moreover, incorporating transfer learning not only improves classification
performance, but also requires 6x less compute time and 5x less memory. We also
show that our method boosts robustness of visual classification models, even
without specifically optimizing for adversarial robustness.
- Abstract(参考訳): 半教師付き学習(SSL)は、視覚認識と分類タスクのためのより良いモデルを学ぶためにラベル付きデータへの依存を軽減するために、大規模なラベル付きデータを活用するのに有効であることが証明されている。
しかし、最近のSSLメソッドは、数十億のスケールでラベルのないイメージデータに依存している。
これは、実行時、メモリ、データ取得の点で、比較的ラベルのないデータが少ないタスクでは不可能になる。
そこで本研究では,無ラベル画像データを数千のスケールで活用可能なタスク用に調整した,単一フレームワークに転送学習と自己学習を統合する効率的なssl手法である,半教師付き転送学習を提案する。
本研究の目的は,スポーツを練習している人物やスポーツの種類を画像で識別することと,人気のあるヨガポーズのプールからポーズを識別することである。
広範囲な実験とアブレーション研究により,提案手法はラベルのないデータを活用することにより,視覚分類,特に多クラス分類において,最先端の手法と比較して著しく改善することが示された。
さらに、転送学習の導入は分類性能を向上させるだけでなく、6倍の計算時間と5倍のメモリを必要とする。
また,本手法は,対向的ロバスト性を特に最適化することなく,視覚分類モデルのロバスト性を高めることを示す。
関連論文リスト
- Two-Step Active Learning for Instance Segmentation with Uncertainty and
Diversity Sampling [20.982992381790034]
本研究では,不確実性に基づくサンプリングと多様性に基づくサンプリングを統合したポストホック能動学習アルゴリズムを提案する。
提案アルゴリズムは単純で実装が容易なだけでなく,様々なデータセットに対して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-09-28T03:40:30Z) - CSP: Self-Supervised Contrastive Spatial Pre-Training for
Geospatial-Visual Representations [90.50864830038202]
ジオタグ付き画像の自己教師型学習フレームワークであるContrastive Spatial Pre-Training(CSP)を提案する。
デュアルエンコーダを用いて画像とその対応する位置情報を別々に符号化し、コントラスト目的を用いて画像から効果的な位置表現を学習する。
CSPは、様々なラベル付きトレーニングデータサンプリング比と10~34%の相対的な改善で、モデル性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-05-01T23:11:18Z) - Domain Adaptive Multiple Instance Learning for Instance-level Prediction
of Pathological Images [45.132775668689604]
アノテーションのコストを増大させることなく、ターゲットデータセットの分類性能を向上させるためのタスク設定を提案する。
両手法の監督情報を効果的に組み合わせるために,信頼性の高い擬似ラベルを作成する手法を提案する。
論文 参考訳(メタデータ) (2023-04-07T08:31:06Z) - Masked Unsupervised Self-training for Zero-shot Image Classification [98.23094305347709]
Masked Unsupervised Self-Training (MUST)は、疑似ラベルと生画像という2つの異なる、補完的な監督源を活用する新しいアプローチである。
MUSTはCLIPを大きなマージンで改善し、教師なしと教師なしの分類のパフォーマンスギャップを狭める。
論文 参考訳(メタデータ) (2022-06-07T02:03:06Z) - UniVIP: A Unified Framework for Self-Supervised Visual Pre-training [50.87603616476038]
単一中心オブジェクトまたは非調和データセット上で,汎用的な視覚表現を学習するための,新しい自己教師型フレームワークを提案する。
大規模実験により、非高調波COCOで事前訓練されたUniVIPは、最先端の転送性能を実現することが示された。
また、ImageNetのような単一中心オブジェクトのデータセットを利用でき、線形探索において同じ事前学習エポックでBYOLを2.5%上回る。
論文 参考訳(メタデータ) (2022-03-14T10:04:04Z) - Semi-weakly Supervised Contrastive Representation Learning for Retinal
Fundus Images [0.2538209532048867]
本稿では,半弱化アノテーションを用いた表現学習のための,半弱化教師付きコントラスト学習フレームワークを提案する。
SWCLの移動学習性能を7つの公立網膜眼底データセットで実証的に検証した。
論文 参考訳(メタデータ) (2021-08-04T15:50:09Z) - Few-Shot Learning for Image Classification of Common Flora [0.0]
MAML(Model-Agnostic Meta Learning)を用いた画像分類のためのメタラーニング分野の最先端の研究と、さまざまな最先端のトランスファーラーニングウェイトとアーキテクチャをテストした結果を紹介します。
その結果、データセットが十分に大きい場合、両方のプラクティスが十分なパフォーマンスを提供しますが、十分なパフォーマンスを維持するためにデータスパーシャビリティが導入されると、どちらも苦労しています。
論文 参考訳(メタデータ) (2021-05-07T03:54:51Z) - Unsupervised Noisy Tracklet Person Re-identification [100.85530419892333]
本稿では,非照合トラックレットデータから識別的人物再識別モデルを訓練できる選択的トラックレット学習(STL)手法を提案する。
これにより、カメラビュー全体で人物の画像/トラックレットの真のマッチングペアを完全にラベル付けする面倒でコストのかかるプロセスが回避されます。
提案手法は生トラックレットの任意のノイズデータに対して特に頑健であるため,制約のない追跡データから識別モデル学習にスケーラブルである。
論文 参考訳(メタデータ) (2021-01-16T07:31:00Z) - Boosting the Performance of Semi-Supervised Learning with Unsupervised
Clustering [10.033658645311188]
学習中の間欠的にラベルを完全に無視することは,小サンプル体制における性能を著しく向上させることを示す。
本手法は,最先端のSSLアルゴリズムの高速化に有効であることを示す。
論文 参考訳(メタデータ) (2020-12-01T14:19:14Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Automatically Discovering and Learning New Visual Categories with
Ranking Statistics [145.89790963544314]
我々は,他のクラスをラベル付けした画像コレクションにおいて,新しいクラスを発見する問題に対処する。
汎用クラスタリングモデルを学び、後者を用いて、非競合データ中の新しいクラスを識別する。
我々は,標準分類ベンチマークに対するアプローチと,新しいカテゴリー発見法の性能を,有意なマージンで評価した。
論文 参考訳(メタデータ) (2020-02-13T18:53:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。