論文の概要: PrototypeFormer: Learning to Explore Prototype Relationships for
Few-shot Image Classification
- arxiv url: http://arxiv.org/abs/2310.03517v1
- Date: Thu, 5 Oct 2023 12:56:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 16:12:37.930267
- Title: PrototypeFormer: Learning to Explore Prototype Relationships for
Few-shot Image Classification
- Title(参考訳): PrototypeFormer:Few-shot画像分類のためのプロトタイプ関係の探索
- Authors: Feihong He, Gang Li, Lingyu Si, Leilei Yan, Fanzhang Li, Fuchun Sun
- Abstract要約: 本稿では,従来の画像分類手法であるPrototypeFormerを提案する。
本稿では,プロトタイプ抽出モジュールの構築にトランスフォーマーアーキテクチャを用い,より識別性の高いクラス表現の抽出を目的とした。
その単純さにもかかわらず、ベルや笛を使わずに驚くほどうまく機能する。
- 参考スコア(独自算出の注目度): 19.93681871684493
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot image classification has received considerable attention for
addressing the challenge of poor classification performance with limited
samples in novel classes. However, numerous studies have employed sophisticated
learning strategies and diversified feature extraction methods to address this
issue. In this paper, we propose our method called PrototypeFormer, which aims
to significantly advance traditional few-shot image classification approaches
by exploring prototype relationships. Specifically, we utilize a transformer
architecture to build a prototype extraction module, aiming to extract class
representations that are more discriminative for few-shot classification.
Additionally, during the model training process, we propose a contrastive
learning-based optimization approach to optimize prototype features in few-shot
learning scenarios. Despite its simplicity, the method performs remarkably
well, with no bells and whistles. We have experimented with our approach on
several popular few-shot image classification benchmark datasets, which shows
that our method outperforms all current state-of-the-art methods. In
particular, our method achieves 97.07% and 90.88% on 5-way 5-shot and 5-way
1-shot tasks of miniImageNet, which surpasses the state-of-the-art results with
accuracy of 7.27% and 8.72%, respectively. The code will be released later.
- Abstract(参考訳): 画像分類の難易度は, 新規クラスに限られているため, 分類性能の低下が問題視されている。
しかし、多くの研究が高度な学習戦略と多様な特徴抽出手法を用いてこの問題に取り組んできた。
本稿では,プロトタイプ関係を探索し,従来の複数ショット画像分類手法を大幅に改善することを目的としたPrototypeFormerという手法を提案する。
具体的には、トランスフォーマーアーキテクチャを用いてプロトタイプ抽出モジュールを構築し、より識別性の高いクラス表現の抽出を目的としている。
さらに,モデルの学習過程において,少数の学習シナリオでプロトタイプ機能を最適化するための,対照的な学習に基づく最適化手法を提案する。
その単純さにもかかわらず、ベルや笛を使わずに驚くほどうまく機能する。
我々は,本手法が現在の最先端手法を上回っていることを示す,いくつかの人気数ショット画像分類ベンチマークデータセットに対して,本手法のアプローチを実験した。
特に,5-way 5-shotタスクと5-way 1-shotタスクで97.07%,90.88%を達成し,その精度は7.27%,8.72%であった。
コードは後でリリースされる。
関連論文リスト
- Automatically Discovering Novel Visual Categories with Self-supervised
Prototype Learning [68.63910949916209]
本稿では,大規模な画像収集において未知のカテゴリを識別することを目的とした,新しいカテゴリ発見(NCD)の課題に取り組む。
本稿では,プロトタイプ表現学習とプロトタイプ自己学習という,2つの主要な段階からなる適応型プロトタイプ学習手法を提案する。
本研究では,4つのベンチマークデータセットについて広範な実験を行い,提案手法の有効性とロバスト性を示す。
論文 参考訳(メタデータ) (2022-08-01T16:34:33Z) - Interpretable Image Classification with Differentiable Prototypes
Assignment [7.660883761395447]
クラスが共有するプロトタイプのプールを備えた解釈可能な画像分類モデルであるProtoPoolを紹介する。
プロトタイプを特定のクラスに完全に微分可能な割り当てを導入することで得られる。
我々は,CUB-200-2011とStanford Carsのデータセットにおいて,ProtoPoolが最先端の精度を得ることを示す。
論文 参考訳(メタデータ) (2021-12-06T10:03:32Z) - APANet: Adaptive Prototypes Alignment Network for Few-Shot Semantic
Segmentation [56.387647750094466]
Few-shotのセマンティックセマンティックセマンティクスは、指定されたクエリイメージに、ラベル付きサポートイメージのみで、新規クラスのオブジェクトをセグメントすることを目的としている。
ほとんどの高度なソリューションは、各クエリ機能を学習したクラス固有のプロトタイプにマッチさせることでセグメンテーションを実行するメトリクス学習フレームワークを利用している。
本稿では,クラス固有およびクラス非依存のプロトタイプを導入することで,適応型プロトタイプ表現を提案する。
論文 参考訳(メタデータ) (2021-11-24T04:38:37Z) - Learning Class-level Prototypes for Few-shot Learning [24.65076873131432]
ほとんどラベル付きサンプルを使用して新しいカテゴリを認識することを目的としていない。
本稿では,少数のサポートデータから好適なプロトタイプを生成することを学べる,数ショット分類のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-25T06:33:52Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - RNNP: A Robust Few-Shot Learning Approach [39.8046809855363]
より堅牢な数ショット学習手法を提案する。
提案手法は, 少数の例から頑健なプロトタイプを生成することに依存する。
本手法は,標準のmini-ImageNetとhered-ImageNetデータセットを用いて評価する。
論文 参考訳(メタデータ) (2020-11-22T17:23:08Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z) - Prototype Refinement Network for Few-Shot Segmentation [6.777019450570474]
本稿では,プロトタイプ・リファインメント・ネットワーク(PRNet)を提案する。
まず、既知のクラスのサポートとクエリの両方からプロトタイプを双方向に抽出することを学ぶ。
PRNetは1ショット設定で13.1%という大きなマージンで既存の手法を大幅に上回っている。
論文 参考訳(メタデータ) (2020-02-10T07:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。