論文の概要: Variational Feature Disentangling for Fine-Grained Few-Shot
Classification
- arxiv url: http://arxiv.org/abs/2010.03255v3
- Date: Wed, 25 Aug 2021 02:46:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 23:39:24.767321
- Title: Variational Feature Disentangling for Fine-Grained Few-Shot
Classification
- Title(参考訳): 細粒度Few-Shot分類のための変分変換
- Authors: Jingyi Xu and Hieu Le and Mingzhen Huang and ShahRukh Athar and
Dimitris Samaras
- Abstract要約: ファインファインショット認識はしばしば、新しいカテゴリのデータの不足を訓練する問題に悩まされる。
本稿では,未確認クラスのクラス内ばらつきを増大させ,少ショット分類性能を向上させることに焦点を当てる。
- 参考スコア(独自算出の注目度): 30.350307891161865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-grained few-shot recognition often suffers from the problem of training
data scarcity for novel categories.The network tends to overfit and does not
generalize well to unseen classes due to insufficient training data. Many
methods have been proposed to synthesize additional data to support the
training. In this paper, we focus one enlarging the intra-class variance of the
unseen class to improve few-shot classification performance. We assume that the
distribution of intra-class variance generalizes across the base class and the
novel class. Thus, the intra-class variance of the base set can be transferred
to the novel set for feature augmentation. Specifically, we first model the
distribution of intra-class variance on the base set via variational inference.
Then the learned distribution is transferred to the novel set to generate
additional features, which are used together with the original ones to train a
classifier. Experimental results show a significant boost over the
state-of-the-art methods on the challenging fine-grained few-shot image
classification benchmarks.
- Abstract(参考訳): 細粒度のマイナショット認識では,新たなカテゴリのトレーニングデータ不足が問題となることが多いが,トレーニングデータ不足のため,ネットワークは過度に適合する傾向にあり,未熟なクラスに一般化しない。
トレーニングをサポートするために追加データを合成する多くの方法が提案されている。
本稿では,クラス内分散に着目し,少数ショットの分類性能を向上させる。
クラス内分散の分布は基底クラスと新規クラスにまたがって一般化していると仮定する。
これにより、基本集合のクラス内分散を特徴拡張のために新規集合に転送することができる。
具体的には,まず,変分推論により基底集合上のクラス内分散の分布をモデル化する。
その後、学習された分布をノベル集合に転送して追加特徴を生成し、元の分布と合わせて分類器を訓練する。
実験結果から, 細粒度画像分類ベンチマークにおいて, 最先端手法よりも顕著な向上が得られた。
関連論文リスト
- Covariance-based Space Regularization for Few-shot Class Incremental Learning [25.435192867105552]
FSCIL(Few-shot Class Incremental Learning)では,ラベル付きデータに制限のあるクラスを継続的に学習する必要がある。
インクリメンタルセッションにおける限られたデータのため、モデルは新しいクラスを過度に適合させ、ベースクラスの破滅的な忘れを苦しむ傾向にある。
最近の進歩は、基本クラス分布を制約し、新しいクラスの識別的表現を学習するプロトタイプベースのアプローチに頼っている。
論文 参考訳(メタデータ) (2024-11-02T08:03:04Z) - Deep Similarity Learning Loss Functions in Data Transformation for Class
Imbalance [2.693342141713236]
本稿では、ディープニューラルネットワークを用いて、マルチクラスデータの新しい表現を学習する。
本提案では,学習した組込み表現における例の位置などの特徴の分布を修正し,クラスサイズを変更しない。
マルチクラス不均衡ベンチマークデータセットと3つの分類器を用いた実験は,提案手法の利点を示した。
論文 参考訳(メタデータ) (2023-12-16T23:10:09Z) - Multivariate Prototype Representation for Domain-Generalized Incremental
Learning [35.83706574551515]
我々は、古いクラスを記憶し、新しいクラスに適応し、見えないドメインから確実にオブジェクトを分類できるDGCILアプローチを設計する。
我々の損失定式化は、分類境界を維持し、各クラスのドメイン固有情報を抑圧する。
論文 参考訳(メタデータ) (2023-09-24T06:42:04Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Prediction Calibration for Generalized Few-shot Semantic Segmentation [101.69940565204816]
汎用Few-shot Semantic (GFSS) は、各画像ピクセルを、豊富なトレーニング例を持つベースクラスか、クラスごとにわずかに(例: 1-5)のトレーニングイメージを持つ新しいクラスのいずれかに分割することを目的としている。
我々は、融合したマルチレベル機能を用いて、分類器の最終予測をガイドするクロスアテンションモジュールを構築する。
私たちのPCNは、最先端の代替品よりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2022-10-15T13:30:12Z) - Adaptive Distribution Calibration for Few-Shot Learning with
Hierarchical Optimal Transport [78.9167477093745]
本稿では,新しいサンプルとベースクラス間の適応重み行列を学習し,新しい分布校正法を提案する。
標準ベンチマーク実験の結果,提案したプラグ・アンド・プレイモデルの方が競合する手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-10-09T02:32:57Z) - Do Deep Networks Transfer Invariances Across Classes? [123.84237389985236]
ニュアンス変換を学習するための生成的アプローチが、クラス間での不変性の伝達にどのように役立つかを示す。
この結果から,不均衡分布や細長い分布に対して分類器が不規則に一般化する理由が示唆された。
論文 参考訳(メタデータ) (2022-03-18T04:38:18Z) - Exploring Category-correlated Feature for Few-shot Image Classification [27.13708881431794]
本稿では,従来の知識として,新しいクラスとベースクラスのカテゴリ相関を探索し,シンプルで効果的な特徴補正手法を提案する。
提案手法は, 広く使用されている3つのベンチマークにおいて, 一定の性能向上が得られる。
論文 参考訳(メタデータ) (2021-12-14T08:25:24Z) - Ortho-Shot: Low Displacement Rank Regularization with Data Augmentation
for Few-Shot Learning [23.465747123791772]
少数の分類において、第一の目的は、新しいクラスをうまく一般化する表現を学ぶことである。
オルソショット(Ortho-Shot)と呼ばれる効率的な低変位ランク(LDR)正規化戦略を提案する。
論文 参考訳(メタデータ) (2021-10-18T14:58:36Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。