論文の概要: PrototypeFormer: Learning to Explore Prototype Relationships for
Few-shot Image Classification
- arxiv url: http://arxiv.org/abs/2310.03517v1
- Date: Thu, 5 Oct 2023 12:56:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 16:12:37.930267
- Title: PrototypeFormer: Learning to Explore Prototype Relationships for
Few-shot Image Classification
- Title(参考訳): PrototypeFormer:Few-shot画像分類のためのプロトタイプ関係の探索
- Authors: Feihong He, Gang Li, Lingyu Si, Leilei Yan, Fanzhang Li, Fuchun Sun
- Abstract要約: 本稿では,従来の画像分類手法であるPrototypeFormerを提案する。
本稿では,プロトタイプ抽出モジュールの構築にトランスフォーマーアーキテクチャを用い,より識別性の高いクラス表現の抽出を目的とした。
その単純さにもかかわらず、ベルや笛を使わずに驚くほどうまく機能する。
- 参考スコア(独自算出の注目度): 19.93681871684493
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot image classification has received considerable attention for
addressing the challenge of poor classification performance with limited
samples in novel classes. However, numerous studies have employed sophisticated
learning strategies and diversified feature extraction methods to address this
issue. In this paper, we propose our method called PrototypeFormer, which aims
to significantly advance traditional few-shot image classification approaches
by exploring prototype relationships. Specifically, we utilize a transformer
architecture to build a prototype extraction module, aiming to extract class
representations that are more discriminative for few-shot classification.
Additionally, during the model training process, we propose a contrastive
learning-based optimization approach to optimize prototype features in few-shot
learning scenarios. Despite its simplicity, the method performs remarkably
well, with no bells and whistles. We have experimented with our approach on
several popular few-shot image classification benchmark datasets, which shows
that our method outperforms all current state-of-the-art methods. In
particular, our method achieves 97.07% and 90.88% on 5-way 5-shot and 5-way
1-shot tasks of miniImageNet, which surpasses the state-of-the-art results with
accuracy of 7.27% and 8.72%, respectively. The code will be released later.
- Abstract(参考訳): 画像分類の難易度は, 新規クラスに限られているため, 分類性能の低下が問題視されている。
しかし、多くの研究が高度な学習戦略と多様な特徴抽出手法を用いてこの問題に取り組んできた。
本稿では,プロトタイプ関係を探索し,従来の複数ショット画像分類手法を大幅に改善することを目的としたPrototypeFormerという手法を提案する。
具体的には、トランスフォーマーアーキテクチャを用いてプロトタイプ抽出モジュールを構築し、より識別性の高いクラス表現の抽出を目的としている。
さらに,モデルの学習過程において,少数の学習シナリオでプロトタイプ機能を最適化するための,対照的な学習に基づく最適化手法を提案する。
その単純さにもかかわらず、ベルや笛を使わずに驚くほどうまく機能する。
我々は,本手法が現在の最先端手法を上回っていることを示す,いくつかの人気数ショット画像分類ベンチマークデータセットに対して,本手法のアプローチを実験した。
特に,5-way 5-shotタスクと5-way 1-shotタスクで97.07%,90.88%を達成し,その精度は7.27%,8.72%であった。
コードは後でリリースされる。
関連論文リスト
- Interpretable Image Classification with Differentiable Prototypes
Assignment [7.660883761395447]
クラスが共有するプロトタイプのプールを備えた解釈可能な画像分類モデルであるProtoPoolを紹介する。
プロトタイプを特定のクラスに完全に微分可能な割り当てを導入することで得られる。
我々は,CUB-200-2011とStanford Carsのデータセットにおいて,ProtoPoolが最先端の精度を得ることを示す。
論文 参考訳(メタデータ) (2021-12-06T10:03:32Z) - Partner-Assisted Learning for Few-Shot Image Classification [54.66864961784989]
人間の視覚能力を模倣し、徹底的な人間のアノテーションを必要とせずに効果的なモデルを学ぶために、わずかなショットラーニングが研究されている。
本稿では,新しいクラスのプロトタイプをラベル付きサンプルから推定できるように,要素表現を得るためのトレーニング戦略の設計に焦点をあてる。
本稿では,まずパートナーエンコーダのペアワイド類似性をモデル化し,ソフトアンカーとして機能する特徴を抽出し,その出力をソフトアンカーと整列させ,分類性能を最大化しようとする2段階トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T22:46:19Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Few-shot Image Classification: Just Use a Library of Pre-trained Feature
Extractors and a Simple Classifier [5.782827425991282]
L2レギュラライザで学習した単純なフィードフォワードネットワークと事前訓練された機能抽出器のライブラリは、クロスドメインの少数画像分類を解決するための優れた選択肢であることを示す。
実験結果から, この単純なサンプル効率のアプローチは, 様々なタスクにおいて, 確立されたメタ学習アルゴリズムよりも優れていることが示唆された。
論文 参考訳(メタデータ) (2021-01-03T05:30:36Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z) - Prototype Refinement Network for Few-Shot Segmentation [6.777019450570474]
本稿では,プロトタイプ・リファインメント・ネットワーク(PRNet)を提案する。
まず、既知のクラスのサポートとクエリの両方からプロトタイプを双方向に抽出することを学ぶ。
PRNetは1ショット設定で13.1%という大きなマージンで既存の手法を大幅に上回っている。
論文 参考訳(メタデータ) (2020-02-10T07:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。