論文の概要: Mixture-based Feature Space Learning for Few-shot Image Classification
- arxiv url: http://arxiv.org/abs/2011.11872v2
- Date: Tue, 17 Aug 2021 17:44:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 13:19:44.305048
- Title: Mixture-based Feature Space Learning for Few-shot Image Classification
- Title(参考訳): マイトショット画像分類のための混合型特徴空間学習
- Authors: Arman Afrasiyabi, Jean-Fran\c{c}ois Lalonde, Christian Gagn\'e
- Abstract要約: 特徴抽出器を同時に訓練し,混合モデルパラメータをオンラインで学習することで,混合モデルを用いたベースクラスをモデル化することを提案する。
非常に少数のサンプルから新しい例を分類するために使用できる、よりリッチでより差別的な特徴空間における結果。
- 参考スコア(独自算出の注目度): 6.574517227976925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Mixture-based Feature Space Learning (MixtFSL) for obtaining a
rich and robust feature representation in the context of few-shot image
classification. Previous works have proposed to model each base class either
with a single point or with a mixture model by relying on offline clustering
algorithms. In contrast, we propose to model base classes with mixture models
by simultaneously training the feature extractor and learning the mixture model
parameters in an online manner. This results in a richer and more
discriminative feature space which can be employed to classify novel examples
from very few samples. Two main stages are proposed to train the MixtFSL model.
First, the multimodal mixtures for each base class and the feature extractor
parameters are learned using a combination of two loss functions. Second, the
resulting network and mixture models are progressively refined through a
leader-follower learning procedure, which uses the current estimate as a
"target" network. This target network is used to make a consistent assignment
of instances to mixture components, which increases performance and stabilizes
training. The effectiveness of our end-to-end feature space learning approach
is demonstrated with extensive experiments on four standard datasets and four
backbones. Notably, we demonstrate that when we combine our robust
representation with recent alignment-based approaches, we achieve new
state-of-the-art results in the inductive setting, with an absolute accuracy
for 5-shot classification of 82.45 on miniImageNet, 88.20 with tieredImageNet,
and 60.70 in FC100 using the ResNet-12 backbone.
- Abstract(参考訳): そこで本稿では,MixtFSL (MixtFSL) による画像分類の文脈において,リッチでロバストな特徴表現を得るための特徴空間学習を提案する。
従来の研究では、オフラインクラスタリングアルゴリズムを頼りに、各ベースクラスを単一ポイントまたは混合モデルでモデル化することを提案した。
対照的に、我々は特徴抽出器を同時に訓練し、混合モデルパラメータをオンラインで学習することで、混合モデルを用いたベースクラスをモデル化する。
その結果、非常に少ないサンプルから新しい例を分類するために、より豊かでより識別的な特徴空間が生まれる。
MixtFSLモデルをトレーニングするために2つの主要なステージが提案されている。
まず,2つの損失関数の組み合わせを用いて,各基本クラスに対するマルチモーダル混合と特徴抽出器パラメータを学習する。
第2に、結果のネットワークと混合モデルは、現在の推定を"ターゲット"ネットワークとして使用するリーダ-従者学習手順によって徐々に洗練される。
このターゲットネットワークは、混合コンポーネントへのインスタンスの一貫した割り当てに使用され、パフォーマンスが向上し、トレーニングが安定化される。
エンドツーエンドの特徴空間学習手法の有効性を,4つの標準データセットと4つのバックボーンに対して広範な実験により実証した。
特に,最近のアライメントに基づくアプローチとロバスト表現を組み合わせると,resnet-12バックボーンを使用して,miniimagenetでは82.45,tieredimagenetでは88.20,fc100では60.70と,インダクティブ設定で新たな最先端結果が得られることを実証した。
関連論文リスト
- Adversarial AutoMixup [50.1874436169571]
本稿では,AdAutomixupを提案する。
画像分類のための堅牢な分類器を訓練するために、挑戦的なサンプルを生成する。
本手法は, 様々な分類シナリオにおいて, 技術状況に優れる。
論文 参考訳(メタデータ) (2023-12-19T08:55:00Z) - Feature Weaken: Vicinal Data Augmentation for Classification [1.7013938542585925]
モデルトレーニングと同一のコサイン類似性を持つビジナルデータ分布を構築するためにFeature Weakenを用いている。
この研究は、モデルの分類性能と一般化を改善するだけでなく、モデルの訓練を安定させ、モデルの収束を加速させる。
論文 参考訳(メタデータ) (2022-11-20T11:00:23Z) - Provably Learning Diverse Features in Multi-View Data with Midpoint Mixup [14.37428912254029]
Mixupは、データポイントとラベルのランダムな凸組み合わせを使用したトレーニングに依存する、データ拡張技術である。
各クラスが複数の関連する特徴(あるいはビュー)を持ち、クラスを正しく予測できるような分類問題に焦点をあてる。
実験的リスク最小化を用いた2層畳み込みネットワークの学習は, クラス毎に2つの特徴を持つ非自明なデータ分布のクラスでは, ほぼすべてのクラスで1つの特徴しか学習できない一方で, Mixup の特定のインスタンス化による学習は各クラスで2つの特徴の学習に成功していることを示す。
論文 参考訳(メタデータ) (2022-10-24T18:11:37Z) - Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - PRANC: Pseudo RAndom Networks for Compacting deep models [22.793523211040682]
PRANCはディープモデルの大幅なコンパクト化を可能にする。
本研究では,PRANCを用いて画像分類モデルを構築し,関連する暗黙的ニューラルネットワークをコンパクト化することで画像の圧縮を行う。
論文 参考訳(メタデータ) (2022-06-16T22:03:35Z) - Boosting Discriminative Visual Representation Learning with
Scenario-Agnostic Mixup [54.09898347820941]
自己教師付き学習(SSL)と教師付き学習(SL)の両方のシナリオに対して,textbfScenario-textbfAgnostic textbfMixup (SAMix)を提案する。
具体的には、2つの混合クラス間の局所的な滑らかさを最適化するために、混合生成の目的関数を仮説化し、検証する。
非自明な混合サンプルを効果的に提供し、転送可能な能力を向上させるラベルフリーな生成サブネットワークを設計する。
論文 参考訳(メタデータ) (2021-11-30T14:49:59Z) - Semi-Supervised Few-Shot Classification with Deep Invertible Hybrid
Models [4.189643331553922]
半教師付き小ショット分類のための潜在空間レベルで識別学習と生成学習を統合するディープ・インバーチブルハイブリッドモデルを提案する。
我々の主な独創性は、これらのコンポーネントを潜在空間レベルで統合することであり、過度な適合を防ぐのに有効である。
論文 参考訳(メタデータ) (2021-05-22T05:55:16Z) - Jigsaw Clustering for Unsupervised Visual Representation Learning [68.09280490213399]
本稿では,新しいjigsawクラスタリング・プレテキストタスクを提案する。
本手法は画像内情報と画像間情報の両方を利用する。
トレーニングバッチの半分しか使用されていない場合、コントラスト学習方法にも匹敵します。
論文 参考訳(メタデータ) (2021-04-01T08:09:26Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。