論文の概要: Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images
- arxiv url: http://arxiv.org/abs/2105.11874v1
- Date: Tue, 25 May 2021 12:22:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-26 14:05:22.370545
- Title: Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images
- Title(参考訳): ラベルなし画像による部分発見と補足によるマイナショット学習
- Authors: Wentao Chen, Chenyang Si, Wei Wang, Liang Wang, Zilei Wang, Tieniu Tan
- Abstract要約: 帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
- 参考スコア(独自算出の注目度): 79.34600869202373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning is a challenging task since only few instances are given
for recognizing an unseen class. One way to alleviate this problem is to
acquire a strong inductive bias via meta-learning on similar tasks. In this
paper, we show that such inductive bias can be learned from a flat collection
of unlabeled images, and instantiated as transferable representations among
seen and unseen classes. Specifically, we propose a novel part-based
self-supervised representation learning scheme to learn transferable
representations by maximizing the similarity of an image to its discriminative
part. To mitigate the overfitting in few-shot classification caused by data
scarcity, we further propose a part augmentation strategy by retrieving extra
images from a base dataset. We conduct systematic studies on miniImageNet and
tieredImageNet benchmarks. Remarkably, our method yields impressive results,
outperforming the previous best unsupervised methods by 7.74% and 9.24% under
5-way 1-shot and 5-way 5-shot settings, which are comparable with
state-of-the-art supervised methods.
- Abstract(参考訳): 目に見えないクラスを認識できるインスタンスはごくわずかなので、少ないショット学習は難しいタスクです。
この問題を軽減する一つの方法は、同様のタスクでメタラーニングを通じて強い帰納的バイアスを得ることである。
本稿では、ラベルのない画像の平坦な集合からそのような帰納バイアスを学習し、見知らぬクラス間の移動可能な表現としてインスタンス化することを示す。
具体的には,画像と識別部との類似性を最大化することにより,転送可能な表現を学習するための,新しい部分的自己教師付き表現学習手法を提案する。
データ不足による少数の分類におけるオーバーフィッティングを軽減するため,ベースデータセットから余分な画像を取得することで部分拡張戦略を提案する。
ミニイメージネットとタイレッドイメージネットベンチマークについて系統的研究を行った。
その結果,従来の最良教師なし手法よりも7.74%,9.24%,5ウェイ1ショット,5ウェイ5ショット設定では9.24%,最先端教師付き手法に匹敵する結果が得られた。
関連論文リスト
- LeOCLR: Leveraging Original Images for Contrastive Learning of Visual Representations [4.680881326162484]
画像分類やオブジェクト検出などの下流タスクにおける教師あり学習よりも優れている。
対照的な学習における一般的な強化手法は、ランダムな収穫とそれに続くリサイズである。
本稿では,新しいインスタンス識別手法と適応型損失関数を用いたフレームワークであるLeOCLRを紹介する。
論文 参考訳(メタデータ) (2024-03-11T15:33:32Z) - CUCL: Codebook for Unsupervised Continual Learning [129.91731617718781]
本研究は,教師なし連続学習(UCL)の代替として,教師なし連続学習(UCL)に焦点を当てている。
本稿では,教師なし連続学習のためのCodebook for Unsupervised Continual Learning (CUCL) という手法を提案する。
本手法は教師なしおよび教師なしの手法の性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-11-25T03:08:50Z) - PrototypeFormer: Learning to Explore Prototype Relationships for
Few-shot Image Classification [19.93681871684493]
本稿では,従来の画像分類手法であるPrototypeFormerを提案する。
本稿では,プロトタイプ抽出モジュールの構築にトランスフォーマーアーキテクチャを用い,より識別性の高いクラス表現の抽出を目的とした。
その単純さにもかかわらず、ベルや笛を使わずに驚くほどうまく機能する。
論文 参考訳(メタデータ) (2023-10-05T12:56:34Z) - Weakly Supervised Contrastive Learning [68.47096022526927]
この問題に対処するために,弱教師付きコントラスト学習フレームワーク(WCL)を導入する。
WCLはResNet50を使用して65%と72%のImageNet Top-1の精度を実現している。
論文 参考訳(メタデータ) (2021-10-10T12:03:52Z) - With a Little Help from My Friends: Nearest-Neighbor Contrastive
Learning of Visual Representations [87.72779294717267]
対比損失で最も近い隣り合わせを正として使用すると、ImageNet分類でパフォーマンスが大幅に向上します。
提案手法が複雑なデータ拡張に依存しないことを実証的に証明する。
論文 参考訳(メタデータ) (2021-04-29T17:56:08Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Demystifying Contrastive Self-Supervised Learning: Invariances,
Augmentations and Dataset Biases [34.02639091680309]
近年のパフォーマンス向上は、インスタンス分類モデルをトレーニングし、各イメージを扱い、拡張バージョンを単一のクラスのサンプルとして扱うことで実現している。
我々は,MOCO や PIRL のようなアプローチがオクルージョン不変表現を学習することを示した。
第2に、Imagenetのようなクリーンなオブジェクト中心のトレーニングデータセットにアクセスすることで、これらのアプローチがさらに利益を得ることを示す。
論文 参考訳(メタデータ) (2020-07-28T00:11:31Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。