論文の概要: How Well Do Self-Supervised Methods Perform in Cross-Domain Few-Shot
Learning?
- arxiv url: http://arxiv.org/abs/2202.09014v1
- Date: Fri, 18 Feb 2022 04:03:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-21 14:28:21.490446
- Title: How Well Do Self-Supervised Methods Perform in Cross-Domain Few-Shot
Learning?
- Title(参考訳): クロスドメインFew-Shot学習における自己監督手法の効果
- Authors: Yiyi Zhang, Ying Zheng, Xiaogang Xu, Jun Wang
- Abstract要約: クロスドメイン・マイクロショット・ラーニング(CDFSL)はコンピュータビジョンの領域では未解決の問題である。
本稿では,CDFSLの文脈における自己指導型表現学習の役割を,既存の手法の徹底的な評価を通じて検討する。
自己教師付き手法から抽出した表現は,教師付き手法よりも強い強靭性を示す。
- 参考スコア(独自算出の注目度): 17.56019071385342
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-domain few-shot learning (CDFSL) remains a largely unsolved problem in
the area of computer vision, while self-supervised learning presents a
promising solution. Both learning methods attempt to alleviate the dependency
of deep networks on the requirement of large-scale labeled data. Although
self-supervised methods have recently advanced dramatically, their utility on
CDFSL is relatively unexplored. In this paper, we investigate the role of
self-supervised representation learning in the context of CDFSL via a thorough
evaluation of existing methods. It comes as a surprise that even with shallow
architectures or small training datasets, self-supervised methods can perform
favorably compared to the existing SOTA methods. Nevertheless, no single
self-supervised approach dominates all datasets indicating that existing
self-supervised methods are not universally applicable. In addition, we find
that representations extracted from self-supervised methods exhibit stronger
robustness than the supervised method. Intriguingly, whether self-supervised
representations perform well on the source domain has little correlation with
their applicability on the target domain. As part of our study, we conduct an
objective measurement of the performance for six kinds of representative
classifiers. The results suggest Prototypical Classifier as the standard
evaluation recipe for CDFSL.
- Abstract(参考訳): クロスドメイン・ショットラーニング(CDFSL)はコンピュータビジョンの領域では未解決の問題であり、自己教師型学習は有望な解決策である。
どちらの学習手法も、大規模ラベル付きデータの要求に対するディープネットワークの依存性を緩和しようとする。
自己監督法は近年劇的に進歩しているが、CDFSLでの効用は比較的未解明である。
本稿では,CDFSLの文脈における自己指導型表現学習の役割を,既存の手法の徹底的な評価を通じて検討する。
浅いアーキテクチャや小さなトレーニングデータセットであっても、自己教師型メソッドが既存のSOTAメソッドと比較して好都合に動作できることは驚きだ。
それでも、既存の自己管理手法が普遍的に適用できないことを示すすべてのデータセットは、単一の自己管理アプローチが支配的ではない。
さらに,自己教師付き手法から抽出した表現は,教師付き手法よりも強い強靭性を示すことがわかった。
興味深いことに、自己組織化された表現がソースドメインでうまく機能するかは、ターゲットドメインでの適用性とはほとんど相関がない。
本研究の一環として,6種類の代表分類器の性能を客観的に測定した。
その結果,CDFSLの標準評価法としてプロトタイプ分類法が提案されている。
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - A Probabilistic Model behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
識別性SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示す。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Semi-supervised learning made simple with self-supervised clustering [65.98152950607707]
自己教師付き学習モデルは、人間のアノテーションを必要とせずにリッチな視覚表現を学習することが示されている。
本稿では,クラスタリングに基づく自己教師付き手法を半教師付き学習者へと変換する,概念的に単純だが経験的に強力な手法を提案する。
論文 参考訳(メタデータ) (2023-06-13T01:09:18Z) - Unsupervised Embedding Quality Evaluation [6.72542623686684]
SSLモデルは、他のドメインに転送された時に正常に動作するかどうか、しばしば不明である。
安定した方法でデータを線形に分離することがいかに容易か、定量化できますか?
本稿では,自己教師付き学習における高次元幾何学構造理解の最近の進歩に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-26T01:06:44Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Multi-Domain Adversarial Feature Generalization for Person
Re-Identification [52.835955258959785]
マルチデータセット特徴一般化ネットワーク(MMFA-AAE)を提案する。
複数のラベル付きデータセットから普遍的なドメイン不変の特徴表現を学習し、それを見えないカメラシステムに一般化することができる。
また、最先端の教師付き手法や教師なしのドメイン適応手法を大きなマージンで超えている。
論文 参考訳(メタデータ) (2020-11-25T08:03:15Z) - Self-Supervised Learning for Large-Scale Unsupervised Image Clustering [8.142434527938535]
自己教師付き表現に基づく教師なし分類のための簡易なスキームを提案する。
提案手法は,画像ネット分類における競合的な結果が得られることを示す,近年の自己教師型手法を用いて評価する。
自己教師型学習のための標準ベンチマークに教師なし評価を加えることを提案する。
論文 参考訳(メタデータ) (2020-08-24T10:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。