論文の概要: How Well Do Self-Supervised Methods Perform in Cross-Domain Few-Shot Learning?
- arxiv url: http://arxiv.org/abs/2202.09014v2
- Date: Sat, 25 Jan 2025 09:19:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:51:05.956808
- Title: How Well Do Self-Supervised Methods Perform in Cross-Domain Few-Shot Learning?
- Title(参考訳): クロスドメインなFew-Shot学習における自己監督手法はどの程度効果があるか?
- Authors: Yiyi Zhang, Ying Zheng, Xiaogang Xu, Jun Wang,
- Abstract要約: クロスドメイン・マイクロショット・ラーニング(CDFSL)はコンピュータビジョンの領域では未解決の問題である。
本稿では,CDFSLの文脈における自己指導型表現学習の役割を,既存の手法の徹底的な評価を通じて検討する。
自己教師付き手法から抽出した表現は,教師付き手法よりも強い強靭性を示す。
- 参考スコア(独自算出の注目度): 21.395283449963163
- License:
- Abstract: Cross-domain few-shot learning (CDFSL) remains a largely unsolved problem in the area of computer vision, while self-supervised learning presents a promising solution. Both learning methods attempt to alleviate the dependency of deep networks on the requirement of large-scale labeled data. Although self-supervised methods have recently advanced dramatically, their utility on CDFSL is relatively unexplored. In this paper, we investigate the role of self-supervised representation learning in the context of CDFSL via a thorough evaluation of existing methods. It comes as a surprise that even with shallow architectures or small training datasets, self-supervised methods can perform favorably compared to the existing SOTA methods. Nevertheless, no single self-supervised approach dominates all datasets indicating that existing self-supervised methods are not universally applicable. In addition, we find that representations extracted from self-supervised methods exhibit stronger robustness than the supervised method. Intriguingly, whether self-supervised representations perform well on the source domain has little correlation with their applicability on the target domain. As part of our study, we conduct an objective measurement of the performance for six kinds of representative classifiers. The results suggest Prototypical Classifier as the standard evaluation recipe for CDFSL.
- Abstract(参考訳): クロスドメイン・ショットラーニング(CDFSL)はコンピュータビジョンの領域では未解決の問題であり、自己教師型学習は有望な解決策である。
どちらの学習手法も、大規模ラベル付きデータの要求に対するディープ・ネットワークの依存性を緩和しようとする。
自己監督法は近年劇的に進歩しているが、CDFSLでの効用は比較的未解明である。
本稿では,CDFSLの文脈における自己指導型表現学習の役割を,既存の手法の徹底的な評価を通じて検討する。
浅いアーキテクチャや小さなトレーニングデータセットであっても、自己教師型メソッドが既存のSOTAメソッドと比較して好都合に動作できることは驚きだ。
それでも、既存の自己監督的手法が普遍的に適用できないことを示すすべてのデータセットは、単一の自己監督的アプローチが支配的ではない。
さらに,自己教師付き手法から抽出した表現は,教師付き手法よりも強い強靭性を示すことがわかった。
興味深いことに、自己組織化された表現がソースドメインでうまく機能するかは、ターゲットドメインでの適用性とはほとんど相関がない。
本研究では,6種類の代表分類器の性能を客観的に測定する。
その結果,CDFSLの標準評価法としてプロトタイプ分類法が提案されている。
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Semi-supervised learning made simple with self-supervised clustering [65.98152950607707]
自己教師付き学習モデルは、人間のアノテーションを必要とせずにリッチな視覚表現を学習することが示されている。
本稿では,クラスタリングに基づく自己教師付き手法を半教師付き学習者へと変換する,概念的に単純だが経験的に強力な手法を提案する。
論文 参考訳(メタデータ) (2023-06-13T01:09:18Z) - Unsupervised Embedding Quality Evaluation [6.72542623686684]
SSLモデルは、他のドメインに転送された時に正常に動作するかどうか、しばしば不明である。
安定した方法でデータを線形に分離することがいかに容易か、定量化できますか?
本稿では,自己教師付き学習における高次元幾何学構造理解の最近の進歩に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-26T01:06:44Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Multi-Domain Adversarial Feature Generalization for Person
Re-Identification [52.835955258959785]
マルチデータセット特徴一般化ネットワーク(MMFA-AAE)を提案する。
複数のラベル付きデータセットから普遍的なドメイン不変の特徴表現を学習し、それを見えないカメラシステムに一般化することができる。
また、最先端の教師付き手法や教師なしのドメイン適応手法を大きなマージンで超えている。
論文 参考訳(メタデータ) (2020-11-25T08:03:15Z) - Self-Supervised Learning for Large-Scale Unsupervised Image Clustering [8.142434527938535]
自己教師付き表現に基づく教師なし分類のための簡易なスキームを提案する。
提案手法は,画像ネット分類における競合的な結果が得られることを示す,近年の自己教師型手法を用いて評価する。
自己教師型学習のための標準ベンチマークに教師なし評価を加えることを提案する。
論文 参考訳(メタデータ) (2020-08-24T10:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。