論文の概要: PrototypeFormer: Learning to Explore Prototype Relationships for Few-shot Image Classification
- arxiv url: http://arxiv.org/abs/2310.03517v2
- Date: Mon, 17 Feb 2025 12:13:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:04:45.674263
- Title: PrototypeFormer: Learning to Explore Prototype Relationships for Few-shot Image Classification
- Title(参考訳): PrototypeFormer:Few-shot画像分類のためのプロトタイプ関係を学習する
- Authors: Meijuan Su, Feihong He, Fanzhang Li,
- Abstract要約: 本稿では,プロトタイプフォーマー (PrototypeFormer) と呼ばれる新しい手法を提案する。
その単純さにもかかわらず、ベルや笛を使わずに、我々の手法は驚くほどよく機能する。
本手法は, 精度0.57%, 精度6.84%の最先端結果を上回った。
- 参考スコア(独自算出の注目度): 0.6378763934218754
- License:
- Abstract: Few-shot image classification has received considerable attention for overcoming the challenge of limited classification performance with limited samples in novel classes. Most existing works employ sophisticated learning strategies and feature learning modules to alleviate this challenge. In this paper, we propose a novel method called PrototypeFormer, exploring the relationships among category prototypes in the few-shot scenario. Specifically, we utilize a transformer architecture to build a prototype extraction module, aiming to extract class representations that are more discriminative for few-shot classification. Besides, during the model training process, we propose a contrastive learning-based optimization approach to optimize prototype features in few-shot learning scenarios. Despite its simplicity, our method performs remarkably well, with no bells and whistles. We have experimented with our approach on several popular few-shot image classification benchmark datasets, which shows that our method outperforms all current state-of-the-art methods. In particular, our method achieves 97.07\% and 90.88\% on 5-way 5-shot and 5-way 1-shot tasks of miniImageNet, which surpasses the state-of-the-art results with accuracy of 0.57\% and 6.84\%, respectively. The code will be released later.
- Abstract(参考訳): 新規クラスにおける限定的な分類性能の課題を克服するために,画像分類に注目が集まっている例は少ない。
既存の作業の多くは、この課題を軽減するために高度な学習戦略と機能学習モジュールを使用している。
本稿では,プロトタイプフォーマー (PrototypeFormer) と呼ばれる新しい手法を提案する。
具体的には、トランスフォーマーアーキテクチャを用いてプロトタイプ抽出モジュールを構築し、より識別性の高いクラス表現の抽出を目的としている。
さらに,モデル学習過程において,数ショットの学習シナリオにおいて,プロトタイプ機能を最適化するための対照的な学習ベース最適化手法を提案する。
その単純さにもかかわらず、ベルや笛を使わずに、我々の手法は非常によく機能する。
提案手法は,提案手法が現在最先端の手法よりも優れていることを示すために,いくつかの一般的な数ショット画像分類ベンチマークデータセットを用いて実験を行った。
特に,5-way 5-shotタスクと5-way 1-shotタスクで97.07-%,90.88-%を達成し,その精度は0.57-%,6.84-%である。
コードは後でリリースされる。
関連論文リスト
- Automatically Discovering Novel Visual Categories with Self-supervised
Prototype Learning [68.63910949916209]
本稿では,大規模な画像収集において未知のカテゴリを識別することを目的とした,新しいカテゴリ発見(NCD)の課題に取り組む。
本稿では,プロトタイプ表現学習とプロトタイプ自己学習という,2つの主要な段階からなる適応型プロトタイプ学習手法を提案する。
本研究では,4つのベンチマークデータセットについて広範な実験を行い,提案手法の有効性とロバスト性を示す。
論文 参考訳(メタデータ) (2022-08-01T16:34:33Z) - Interpretable Image Classification with Differentiable Prototypes
Assignment [7.660883761395447]
クラスが共有するプロトタイプのプールを備えた解釈可能な画像分類モデルであるProtoPoolを紹介する。
プロトタイプを特定のクラスに完全に微分可能な割り当てを導入することで得られる。
我々は,CUB-200-2011とStanford Carsのデータセットにおいて,ProtoPoolが最先端の精度を得ることを示す。
論文 参考訳(メタデータ) (2021-12-06T10:03:32Z) - APANet: Adaptive Prototypes Alignment Network for Few-Shot Semantic
Segmentation [56.387647750094466]
Few-shotのセマンティックセマンティックセマンティクスは、指定されたクエリイメージに、ラベル付きサポートイメージのみで、新規クラスのオブジェクトをセグメントすることを目的としている。
ほとんどの高度なソリューションは、各クエリ機能を学習したクラス固有のプロトタイプにマッチさせることでセグメンテーションを実行するメトリクス学習フレームワークを利用している。
本稿では,クラス固有およびクラス非依存のプロトタイプを導入することで,適応型プロトタイプ表現を提案する。
論文 参考訳(メタデータ) (2021-11-24T04:38:37Z) - Learning Class-level Prototypes for Few-shot Learning [24.65076873131432]
ほとんどラベル付きサンプルを使用して新しいカテゴリを認識することを目的としていない。
本稿では,少数のサポートデータから好適なプロトタイプを生成することを学べる,数ショット分類のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-25T06:33:52Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - RNNP: A Robust Few-Shot Learning Approach [39.8046809855363]
より堅牢な数ショット学習手法を提案する。
提案手法は, 少数の例から頑健なプロトタイプを生成することに依存する。
本手法は,標準のmini-ImageNetとhered-ImageNetデータセットを用いて評価する。
論文 参考訳(メタデータ) (2020-11-22T17:23:08Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z) - Prototype Refinement Network for Few-Shot Segmentation [6.777019450570474]
本稿では,プロトタイプ・リファインメント・ネットワーク(PRNet)を提案する。
まず、既知のクラスのサポートとクエリの両方からプロトタイプを双方向に抽出することを学ぶ。
PRNetは1ショット設定で13.1%という大きなマージンで既存の手法を大幅に上回っている。
論文 参考訳(メタデータ) (2020-02-10T07:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。