論文の概要: Generating Representative Samples for Few-Shot Classification
- arxiv url: http://arxiv.org/abs/2205.02918v1
- Date: Thu, 5 May 2022 20:58:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 23:52:53.543454
- Title: Generating Representative Samples for Few-Shot Classification
- Title(参考訳): ファウショット分類のための代表サンプルの生成
- Authors: Jingyi Xu and Hieu Le
- Abstract要約: クラスごとの視覚的なサンプルで新しいカテゴリを学習することを目的としている。
データ不足によってクラス表現がバイアスを受ける場合が少なくない。
条件付き変分オートエンコーダモデルを用いて,意味的埋め込みに基づく視覚サンプルを生成する。
- 参考スコア(独自算出の注目度): 8.62483598990205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot learning (FSL) aims to learn new categories with a few visual
samples per class. Few-shot class representations are often biased due to data
scarcity. To mitigate this issue, we propose to generate visual samples based
on semantic embeddings using a conditional variational autoencoder (CVAE)
model. We train this CVAE model on base classes and use it to generate features
for novel classes. More importantly, we guide this VAE to strictly generate
representative samples by removing non-representative samples from the base
training set when training the CVAE model. We show that this training scheme
enhances the representativeness of the generated samples and therefore,
improves the few-shot classification results. Experimental results show that
our method improves three FSL baseline methods by substantial margins,
achieving state-of-the-art few-shot classification performance on miniImageNet
and tieredImageNet datasets for both 1-shot and 5-shot settings. Code is
available at: https://github.com/cvlab-stonybrook/fsl-rsvae.
- Abstract(参考訳): few-shot learning (fsl) はクラスごとにいくつかのビジュアルサンプルで新しいカテゴリを学ぶことを目的としている。
データ不足によってクラス表現がバイアスを受ける場合が少なくない。
この問題を解決するために,条件付き変分オートエンコーダ(CVAE)モデルを用いてセマンティック埋め込みに基づく視覚サンプルを作成することを提案する。
このCVAEモデルをベースクラスでトレーニングし、新しいクラスの機能を生成するために使用します。
さらに,CVAEモデルのトレーニング時に,ベーストレーニングセットから非表現型サンプルを取り除き,代表サンプルを厳格に生成するように指導する。
本手法により,生成したサンプルの表現性が向上し,少ない分類精度が向上することを示す。
実験結果から,本手法は3つのFSLベースライン法をかなりのマージンで改善し,MiniImageNetとタイレッドImageNetのデータセットを1ショットと5ショットの両方で比較した。
コードはhttps://github.com/cvlab-stonybrook/fsl-rsvaeで入手できる。
関連論文リスト
- FreeSeg-Diff: Training-Free Open-Vocabulary Segmentation with Diffusion Models [56.71672127740099]
我々は,閉鎖語彙データセットのトレーニングモデルによって伝統的に解決されるイメージセグメンテーションの課題に焦点をあてる。
我々は、ゼロショットのオープン語彙セグメンテーションのために、異なる、比較的小さなオープンソース基盤モデルを活用している。
当社のアプローチ(別名FreeSeg-Diff)は、トレーニングに依存しないもので、Pascal VOCとCOCOデータセットの両方で多くのトレーニングベースのアプローチより優れています。
論文 参考訳(メタデータ) (2024-03-29T10:38:25Z) - FSL-Rectifier: Rectify Outliers in Few-Shot Learning via Test-Time Augmentation [7.477118370563593]
FSL(Few-shot-learning)は通常、トレーニング中に目に見えないクラスに属する画像(クエリ)を識別するモデルを必要とする。
生成画像コンバインダを用いて、原サンプルと適切な列車クラスサンプルを組み合わせることで、追加のテストクラスサンプルを生成する。
我々は、平均化によってより典型的な表現をもたらす拡張子を介して平均化された特徴を得る。
論文 参考訳(メタデータ) (2024-02-28T12:37:30Z) - Diversified in-domain synthesis with efficient fine-tuning for few-shot
classification [64.86872227580866]
画像分類は,クラスごとのラベル付き例の小さなセットのみを用いて,画像分類器の学習を目的としている。
合成データを用いた数ショット学習における一般化問題に対処する新しいアプローチである DisEF を提案する。
提案手法を10種類のベンチマークで検証し,ベースラインを一貫して上回り,数ショット分類のための新しい最先端の手法を確立した。
論文 参考訳(メタデータ) (2023-12-05T17:18:09Z) - Ref-Diff: Zero-shot Referring Image Segmentation with Generative Models [68.73086826874733]
本稿では,画像分割を参照するための新しい参照拡散分割器(Referring Diffusional segmentor, Ref-Diff)を提案する。
提案生成器がなければ、生成モデルだけで既存のSOTAの弱教師付きモデルに匹敵する性能を達成できることを実証する。
このことは、生成モデルがこのタスクに有益であり、より優れたセグメンテーションを参照するために識別モデルを補完できることを示している。
論文 参考訳(メタデータ) (2023-08-31T14:55:30Z) - Image-free Classifier Injection for Zero-Shot Classification [72.66409483088995]
ゼロショット学習モデルは、訓練中に見られなかったクラスからのサンプルのイメージ分類において顕著な結果が得られる。
我々は,画像データを用いることなく,ゼロショット分類機能を備えた事前学習モデルの装備を目指す。
提案したイメージフリーインジェクション・ウィズ・セマンティックス (ICIS) でこれを実現する。
論文 参考訳(メタデータ) (2023-08-21T09:56:48Z) - Kernel Relative-prototype Spectral Filtering for Few-shot Learning [3.2091741098687696]
少ないサンプルで分類タスクと回帰タスクを実行する場合はほとんどない。
本稿では,クエリサンプルとプロトタイプの差分を測定するためのスペクトルフィルタリング(収縮)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-24T07:53:27Z) - Forgetting Data from Pre-trained GANs [28.326418377665345]
特定の種類のサンプルを忘れないように、トレーニング後にモデルを後編集する方法について検討する。
我々は,GANに対して,忘れるべきサンプルの表現方法が異なる3つの異なるアルゴリズムを提供する。
我々のアルゴリズムは、完全再トレーニングのコストのごく一部で、高品質を維持しながらデータを忘れることができる。
論文 参考訳(メタデータ) (2022-06-29T03:46:16Z) - Ortho-Shot: Low Displacement Rank Regularization with Data Augmentation
for Few-Shot Learning [23.465747123791772]
少数の分類において、第一の目的は、新しいクラスをうまく一般化する表現を学ぶことである。
オルソショット(Ortho-Shot)と呼ばれる効率的な低変位ランク(LDR)正規化戦略を提案する。
論文 参考訳(メタデータ) (2021-10-18T14:58:36Z) - Contrastive Prototype Learning with Augmented Embeddings for Few-Shot
Learning [58.2091760793799]
拡張埋め込み(CPLAE)モデルを用いた新しいコントラスト型プロトタイプ学習を提案する。
クラスプロトタイプをアンカーとして、CPLは、同じクラスのクエリサンプルを、異なるクラスのサンプルを、さらに遠くに引き出すことを目的としている。
いくつかのベンチマークによる大規模な実験により,提案したCPLAEが新たな最先端を実現することが示された。
論文 参考訳(メタデータ) (2021-01-23T13:22:44Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z) - Interpretable Time-series Classification on Few-shot Samples [27.05851877375113]
本稿では,少数の時系列分類のための解釈可能なニューラルネットワーク,すなわちtextitDual Prototypeal Shapelet Networks (DPSN)を提案する。
DPSNは, 二つの粒度からモデルを解釈する: 1) 代表時系列サンプルを用いた大域的概要, 2) 識別型シェープレットを用いた局所的ハイライト。
我々は、公開ベンチマークデータセットから18個のショットTSCデータセットを抽出し、ベースラインとの比較により提案手法の評価を行った。
論文 参考訳(メタデータ) (2020-06-03T03:47:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。