論文の概要: A Feature Generator for Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2409.14141v2
- Date: Fri, 11 Oct 2024 17:13:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 03:22:12.007756
- Title: A Feature Generator for Few-Shot Learning
- Title(参考訳): ファウショット学習のための特徴生成器
- Authors: Heethanjan Kanagalingam, Thenukan Pathmanathan, Navaneethan Ketheeswaran, Mokeeshan Vathanakumar, Mohamed Afham, Ranga Rodrigo,
- Abstract要約: 少ないショットラーニングは、ラベル付きデータに制限のある新しいオブジェクトやクラスをモデルが認識できるようにすることを目的としている。
クラスレベルのテキスト記述から視覚的特徴を生成する機能ジェネレータを導入する。
その結果,ベースライン法よりも精度が向上した。
- 参考スコア(独自算出の注目度): 2.4500728886415137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot learning (FSL) aims to enable models to recognize novel objects or classes with limited labelled data. Feature generators, which synthesize new data points to augment limited datasets, have emerged as a promising solution to this challenge. This paper investigates the effectiveness of feature generators in enhancing the embedding process for FSL tasks. To address the issue of inaccurate embeddings due to the scarcity of images per class, we introduce a feature generator that creates visual features from class-level textual descriptions. By training the generator with a combination of classifier loss, discriminator loss, and distance loss between the generated features and true class embeddings, we ensure the generation of accurate same-class features and enhance the overall feature representation. Our results show a significant improvement in accuracy over baseline methods, with our approach outperforming the baseline model by 10% in 1-shot and around 5% in 5-shot approaches. Additionally, both visual-only and visual + textual generators have also been tested in this paper. The code is publicly available at https://github.com/heethanjan/Feature-Generator-for-FSL.
- Abstract(参考訳): FSL(Few-shot Learning)は、ラベル付きデータに制限のある新しいオブジェクトやクラスをモデルが認識できるようにすることを目的としている。
新しいデータポイントを合成して限られたデータセットを増やす機能ジェネレータが、この課題に対する有望な解決策として登場した。
本稿では,FSLタスクの埋め込みプロセスの改善における特徴発生器の有効性について検討する。
本稿では,クラスごとの画像不足による不正確な埋め込みの問題に対処するため,クラスレベルのテキスト記述から視覚的特徴を生成する特徴生成器を提案する。
生成元を分類器の損失、識別器の損失、生成した特徴と真のクラス埋め込みの間の距離損失の組み合わせで訓練することにより、正確な同クラス特徴の生成を保証し、全体的な特徴表現を強化する。
提案手法は1ショットで10%,5ショットで約5%の精度でベースラインモデルを上回った。
さらに、この論文では、ビジュアルオンリーとビジュアル+テキストジェネレータの両方がテストされている。
コードはhttps://github.com/heethanjan/Feature-Generator-for-FSLで公開されている。
関連論文リスト
- Noise-Resilient Unsupervised Graph Representation Learning via Multi-Hop Feature Quality Estimation [53.91958614666386]
グラフニューラルネットワーク(GNN)に基づく教師なしグラフ表現学習(UGRL)
マルチホップ特徴量推定(MQE)に基づく新しいUGRL法を提案する。
論文 参考訳(メタデータ) (2024-07-29T12:24:28Z) - Exploring Data Efficiency in Zero-Shot Learning with Diffusion Models [38.36200871549062]
Zero-Shot Learning (ZSL) は、クラスレベルでのデータ効率を向上させることで、分類器が見えないクラスを識別できるようにすることを目的としている。
これは、未確認クラスの事前に定義されたセマンティクスから画像特徴を生成することで実現される。
本稿では,限られた例が一般的に生成モデルの性能低下をもたらすことを示す。
この統合されたフレームワークは拡散モデルを導入し、クラスレベルとインスタンスレベルのデータ効率を改善する。
論文 参考訳(メタデータ) (2024-06-05T04:37:06Z) - Generative Multi-modal Models are Good Class-Incremental Learners [51.5648732517187]
クラス増分学習のための新しい生成型マルチモーダルモデル(GMM)フレームワークを提案する。
提案手法は適応生成モデルを用いて画像のラベルを直接生成する。
Few-shot CIL設定では、現在の最先端のすべてのメソッドに対して少なくとも14%精度が向上し、忘れてはならない。
論文 参考訳(メタデータ) (2024-03-27T09:21:07Z) - Exploiting Semantic Attributes for Transductive Zero-Shot Learning [97.61371730534258]
ゼロショット学習は、視覚的特徴と、そのクラスから学んだ意味的属性の関係を一般化することにより、目に見えないクラスを認識することを目的としている。
本稿では,未知データの意味的属性を生成し,生成過程に付加する新しいZSL法を提案する。
5つの標準ベンチマーク実験により,本手法がゼロショット学習の最先端結果をもたらすことが示された。
論文 参考訳(メタデータ) (2023-03-17T09:09:48Z) - Zero-Shot Logit Adjustment [89.68803484284408]
Generalized Zero-Shot Learning (GZSL) は意味記述に基づく学習技術である。
本稿では,分類器の改良を無視しつつ,ジェネレータの効果を高める新しい世代ベース手法を提案する。
実験により,提案手法が基本生成器と組み合わせた場合の最先端化を実現し,様々なゼロショット学習フレームワークを改良できることが実証された。
論文 参考訳(メタデータ) (2022-04-25T17:54:55Z) - Boosting Generative Zero-Shot Learning by Synthesizing Diverse Features
with Attribute Augmentation [21.72622601533585]
多様な特徴を合成してゼロショット学習(ZSL)を促進する新しいフレームワークを提案する。
本手法は,視覚特徴の実際の分布をシミュレートするために,拡張意味属性を用いて生成モデルを訓練する。
提案したモデルを4つのベンチマークデータセット上で評価し,現状に対する大幅な性能改善を観察した。
論文 参考訳(メタデータ) (2021-12-23T14:32:51Z) - FREE: Feature Refinement for Generalized Zero-Shot Learning [86.41074134041394]
汎用ゼロショット学習(GZSL)は、視覚-意味的領域ギャップと目に見えないバイアスの問題を克服するために多くの努力を払って、大きな進歩を遂げた。
既存のほとんどのメソッドはImageNetでトレーニングされた機能抽出モデルを直接使用しており、ImageNetとGZSLベンチマークのデータセット間のバイアスを無視している。
本稿では,この問題に対処するために,汎用ゼロショット学習(FREE)のための特徴改善という,シンプルで効果的なGZSL法を提案する。
論文 参考訳(メタデータ) (2021-07-29T08:11:01Z) - Discriminative feature generation for classification of imbalanced data [6.458496335718508]
マイノリティクラスデータセットを対象とした新しい分類特徴生成法(DFG)を提案する。
DFGは、4つの独立したネットワークからなる生成的敵ネットワークの修正された構造に基づいている。
実験結果から,DFGジェネレータはラベル保存および多彩な特徴の増大を促進することが示された。
論文 参考訳(メタデータ) (2020-10-24T12:19:05Z) - Learning Clusterable Visual Features for Zero-Shot Recognition [38.8104394191698]
ゼロショット学習(ZSL)では、条件付きジェネレータが追加のトレーニング機能を生成するために広く使用されている。
本稿では,ZSL問題に対するクラスタリング可能な特徴を学習することを提案する。
SUN、CUB、AWA2データセットの実験では、以前の最先端ZSL結果よりも一貫した改善が見られた。
論文 参考訳(メタデータ) (2020-10-07T07:58:55Z) - Saliency-driven Class Impressions for Feature Visualization of Deep
Neural Networks [55.11806035788036]
分類に欠かせないと思われる特徴を視覚化することは有利である。
既存の可視化手法は,背景特徴と前景特徴の両方からなる高信頼画像を生成する。
本研究では,あるタスクにおいて最も重要であると考えられる識別的特徴を可視化するための,サリエンシ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2020-07-31T06:11:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。