論文の概要: Generative Latent Implicit Conditional Optimization when Learning from
Small Sample
- arxiv url: http://arxiv.org/abs/2003.14297v5
- Date: Tue, 15 Dec 2020 12:01:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 00:04:56.156168
- Title: Generative Latent Implicit Conditional Optimization when Learning from
Small Sample
- Title(参考訳): 小サンプルからの学習における逐次逐次条件最適化
- Authors: Idan Azuri, Daphna Weinshall
- Abstract要約: GLICOはトレーニング例から潜時空間へのマッピングと、潜時空間のベクトルから画像を生成するジェネレータを学ぶ。
GLICOは、クラス毎に5から10のサンプルを使用して、すべてのクラスに対して完全に新しいサンプルを合成することを学ぶ。
実験結果から,新しいサンプルセットは十分に多種多様であり,画像の分類精度が向上することが示された。
- 参考スコア(独自算出の注目度): 6.243995448840211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We revisit the long-standing problem of learning from a small sample, to
which end we propose a novel method called GLICO (Generative Latent Implicit
Conditional Optimization). GLICO learns a mapping from the training examples to
a latent space and a generator that generates images from vectors in the latent
space. Unlike most recent works, which rely on access to large amounts of
unlabeled data, GLICO does not require access to any additional data other than
the small set of labeled points. In fact, GLICO learns to synthesize completely
new samples for every class using as little as 5 or 10 examples per class, with
as few as 10 such classes without imposing any prior. GLICO is then used to
augment the small training set while training a classifier on the small sample.
To this end, our proposed method samples the learned latent space using
spherical interpolation, and generates new examples using the trained
generator. Empirical results show that the new sampled set is diverse enough,
leading to improvement in image classification in comparison with the state of
the art, when trained on small samples obtained from CIFAR-10, CIFAR-100, and
CUB-200.
- Abstract(参考訳): 我々は,小規模サンプルから学習の長期的課題を再考し,glico (generative latent implicit conditional optimization) と呼ばれる新しい手法を提案する。
glicoはトレーニング例から潜在空間へのマッピングと、潜在空間内のベクトルから画像を生成するジェネレータを学ぶ。
大量のラベル付きデータへのアクセスに依存している最近のほとんどの作業とは異なり、GLICOはラベル付きポイントの小さなセット以外の追加データへのアクセスを必要としない。
実際、GLICOはクラス毎に5から10のサンプルを使用して、すべてのクラスに対して完全に新しいサンプルを合成することを学ぶ。
次にglicoは、小さなサンプルで分類器を訓練しながら、小さなトレーニングセットを強化するために使用される。
そこで,本手法では球面補間を用いて学習した潜在空間をサンプリングし,学習した生成器を用いて新しい例を生成する。
実験の結果,cifar-10,cifar-100,cub-200から得られた小標本を用いて訓練した場合,新しい標本集合は十分な多様性を示し,画像分類の改善に繋がることが示された。
関連論文リスト
- Transductive Zero-Shot and Few-Shot CLIP [24.592841797020203]
本稿では,トランスダクティブなゼロショットと少数ショットのCLIP分類問題に対処する。
推論は、各インスタンスを独立して扱うのではなく、ラベルのないクエリサンプルのミニバッチで共同で実行される。
提案手法は,CLIPのゼロショット性能に対して,画像ネットの精度を約20%向上させる。
論文 参考訳(メタデータ) (2024-04-08T12:44:31Z) - Neural Collapse Inspired Feature-Classifier Alignment for Few-Shot Class
Incremental Learning [120.53458753007851]
FSCIL(Few-shot class-incremental Learning)は、新しいセッションにおいて、新しいクラスごとにいくつかのトレーニングサンプルしかアクセスできないため、難しい問題である。
我々は最近発見された神経崩壊現象にインスパイアされたFSCILのこの不整合ジレンマに対処する。
我々は、FSCILのための神経崩壊誘発フレームワークを提案する。MiniImageNet、CUB-200、CIFAR-100データセットの実験により、提案したフレームワークが最先端のパフォーマンスより優れていることを示す。
論文 参考訳(メタデータ) (2023-02-06T18:39:40Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - Few-shot Weakly-Supervised Object Detection via Directional Statistics [55.97230224399744]
少数ショットコモンオブジェクトローカライゼーション(COL)と少数ショット弱監視オブジェクト検出(WSOD)のための確率論的多重インスタンス学習手法を提案する。
本モデルでは,新しいオブジェクトの分布を同時に学習し,期待-最大化ステップにより局所化する。
提案手法は, 単純であるにもかかわらず, 少数のCOLとWSOD, 大規模WSODタスクにおいて, 高いベースラインを達成できることを示す。
論文 参考訳(メタデータ) (2021-03-25T22:34:16Z) - Contrastive Prototype Learning with Augmented Embeddings for Few-Shot
Learning [58.2091760793799]
拡張埋め込み(CPLAE)モデルを用いた新しいコントラスト型プロトタイプ学習を提案する。
クラスプロトタイプをアンカーとして、CPLは、同じクラスのクエリサンプルを、異なるクラスのサンプルを、さらに遠くに引き出すことを目的としている。
いくつかのベンチマークによる大規模な実験により,提案したCPLAEが新たな最先端を実現することが示された。
論文 参考訳(メタデータ) (2021-01-23T13:22:44Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z) - Task-Adaptive Clustering for Semi-Supervised Few-Shot Classification [23.913195015484696]
未確認のタスクを、少量の新しいトレーニングデータだけで処理することを目的としている。
しかし、数ショットの学習者が準備(メタトレーニング)する際には、大量のラベル付きデータが必要である。
そこで本研究では,トレーニングデータの大部分がラベル付けされていない半教師付き環境下で動作可能な,数発の学習者を提案する。
論文 参考訳(メタデータ) (2020-03-18T13:50:19Z) - OpenGAN: Open Set Generative Adversarial Networks [16.02382549750862]
本稿では,開集合 GAN アーキテクチャ (OpenGAN) を提案する。
与えられたソースイメージにセマンティックに類似したサンプルを生成することができます。
GANトレーニング分布外のクラスにおいて,OpenGANサンプルを用いてトレーニングデータを増強することにより,性能を著しく向上できることを示す。
論文 参考訳(メタデータ) (2020-03-18T07:24:37Z) - Semi-supervised learning method based on predefined evenly-distributed
class centroids [7.499563097360385]
少数のラベル付きサンプルを使用し、ラベルなしサンプルにデータ拡張を行い、画像分類を実現する。
CIFAR10は4000,SVHNは1000,SVHNは95.10%,精度は97.58%であった。
論文 参考訳(メタデータ) (2020-01-13T08:03:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。