論文の概要: Compositional Prototypical Networks for Few-Shot Classification
- arxiv url: http://arxiv.org/abs/2306.06584v1
- Date: Sun, 11 Jun 2023 04:16:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 17:55:23.515754
- Title: Compositional Prototypical Networks for Few-Shot Classification
- Title(参考訳): Few-Shot分類のための合成プロトタイプネットワーク
- Authors: Qiang Lyu, Weiqiang Wang
- Abstract要約: 機能再使用性をさらに向上できるように、細粒度で転送可能なメタ知識を学習する。
そこで我々は,人間に注釈を付けた属性に対して,変換可能なプロトタイプを学習するために,合成プロトタイプネットワーク(CPN)を提案する。
学習したコンポーネントのプロトタイプが優れたクラス転送性を持ち、新しいクラスのための合成プロトタイプを構築するために再利用できることを実証的に実証した。
- 参考スコア(独自算出の注目度): 21.364472232617032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is assumed that pre-training provides the feature extractor with strong
class transferability and that high novel class generalization can be achieved
by simply reusing the transferable feature extractor. In this work, our
motivation is to explicitly learn some fine-grained and transferable
meta-knowledge so that feature reusability can be further improved. Concretely,
inspired by the fact that humans can use learned concepts or components to help
them recognize novel classes, we propose Compositional Prototypical Networks
(CPN) to learn a transferable prototype for each human-annotated attribute,
which we call a component prototype. We empirically demonstrate that the
learned component prototypes have good class transferability and can be reused
to construct compositional prototypes for novel classes. Then a learnable
weight generator is utilized to adaptively fuse the compositional and visual
prototypes. Extensive experiments demonstrate that our method can achieve
state-of-the-art results on different datasets and settings. The performance
gains are especially remarkable in the 5-way 1-shot setting. The code is
available at https://github.com/fikry102/CPN.
- Abstract(参考訳): 事前学習は, 高いクラス転送性を有する特徴抽出器を提供し, 伝達可能な特徴抽出器を再利用するだけで, 高いクラス一般化を実現することができると仮定した。
本研究の動機は,機能再利用性をさらに向上するために,細粒度で伝達可能なメタ知識を明示的に学習することである。
具体的には、人間が学習した概念やコンポーネントを使って新しいクラスを認識できることに着想を得て、構成的プロトタイプネットワーク(CPN)を提案し、各属性の変換可能なプロトタイプを学習し、それをコンポーネントプロトタイプと呼ぶ。
我々は,学習したコンポーネントプロトタイプが優れたクラス転送性を有し,新規クラスの合成プロトタイプを構築するために再利用できることを実証的に示す。
そして、学習可能な重量発生器を用いて、合成及び視覚プロトタイプを適応的に融合させる。
広範な実験により,本手法は異なるデータセットと設定で最先端の結果が得られることを示した。
パフォーマンス向上は、特に5ウェイ1ショット設定で顕著である。
コードはhttps://github.com/fikry102/cpnで入手できる。
関連論文リスト
- Enhanced Prototypical Part Network (EPPNet) For Explainable Image Classification Via Prototypes [16.528373143163275]
画像分類のためのEPPNet(Enhanced Prototypeal Part Network)を導入する。
EPPNetは、分類結果を説明するために使用可能な関連するプロトタイプを発見しながら、強力なパフォーマンスを実現している。
CUB-200-2011 データセットによる評価の結果,EPPNet は最先端の xAI ベースの手法よりも優れていた。
論文 参考訳(メタデータ) (2024-08-08T17:26:56Z) - Predefined Prototypes for Intra-Class Separation and Disentanglement [10.005120138175206]
原型学習は、クラスの埋め込みがクラスタ化される点(プロトタイプと呼ぶ)があるという考えに基づいている。
我々は、トレーニングパイプラインを簡素化し、異なる利点をもたらす、人間の特定基準に従ってプロトタイプを事前定義することを提案する。
論文 参考訳(メタデータ) (2024-06-23T15:52:23Z) - Beyond Prototypes: Semantic Anchor Regularization for Better
Representation Learning [82.29761875805369]
表現学習の最終的な目標の1つは、クラス内のコンパクトさとクラス間の十分な分離性を達成することである。
本稿では,機能セントロイドとして機能する事前定義されたクラスアンカーを用いて,特徴学習を一方向ガイドする新しい視点を提案する。
提案したSemantic Anchor Regularization (SAR) は,既存モデルのプラグアンドプレイ方式で使用することができる。
論文 参考訳(メタデータ) (2023-12-19T05:52:38Z) - ProtoArgNet: Interpretable Image Classification with Super-Prototypes and Argumentation [Technical Report] [17.223442899324482]
ProtoArgNetは、原型的部分学習の精神における画像分類のための、解釈可能な新しいディープニューラルネットワークである。
ProtoArgNetは、prototypeal-partsを統一されたクラス表現に組み合わせたスーパープロトタイプを使用する。
我々は、ProtoArgNetが最先端のプロトタイプ・パートラーニングアプローチより優れているいくつかのデータセットを実証する。
論文 参考訳(メタデータ) (2023-11-26T21:52:47Z) - Rethinking Person Re-identification from a Projection-on-Prototypes
Perspective [84.24742313520811]
検索タスクとしてのPerson Re-IDentification(Re-ID)は,過去10年間で大きな発展を遂げてきた。
本稿では,新しいベースライン ProNet を提案する。
4つのベンチマークの実験では、提案したProNetは単純だが有効であり、以前のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2023-08-21T13:38:10Z) - Automatically Discovering Novel Visual Categories with Self-supervised
Prototype Learning [68.63910949916209]
本稿では,大規模な画像収集において未知のカテゴリを識別することを目的とした,新しいカテゴリ発見(NCD)の課題に取り組む。
本稿では,プロトタイプ表現学習とプロトタイプ自己学習という,2つの主要な段階からなる適応型プロトタイプ学習手法を提案する。
本研究では,4つのベンチマークデータセットについて広範な実験を行い,提案手法の有効性とロバスト性を示す。
論文 参考訳(メタデータ) (2022-08-01T16:34:33Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - SEGA: Semantic Guided Attention on Visual Prototype for Few-Shot
Learning [85.2093650907943]
機械に新しいカテゴリーを認識させるためのセマンティックガイド注意(SEGA)を提案する。
SEGAは意味的知識を使用して、視覚的特徴に注意を払うべきものについて、トップダウンの方法で視覚的知覚を導く。
セマンティックガイドによる注意は期待された機能を実現し、最先端の結果より優れていることを示す。
論文 参考訳(メタデータ) (2021-11-08T08:03:44Z) - Partner-Assisted Learning for Few-Shot Image Classification [54.66864961784989]
人間の視覚能力を模倣し、徹底的な人間のアノテーションを必要とせずに効果的なモデルを学ぶために、わずかなショットラーニングが研究されている。
本稿では,新しいクラスのプロトタイプをラベル付きサンプルから推定できるように,要素表現を得るためのトレーニング戦略の設計に焦点をあてる。
本稿では,まずパートナーエンコーダのペアワイド類似性をモデル化し,ソフトアンカーとして機能する特徴を抽出し,その出力をソフトアンカーと整列させ,分類性能を最大化しようとする2段階トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T22:46:19Z) - Prototype Completion for Few-Shot Learning [13.63424509914303]
少数ショット学習は、いくつかの例で新しいクラスを認識することを目的としている。
事前学習に基づく手法は,特徴抽出器を事前学習し,最寄りのセントロイド型メタラーニングを通して微調整することで,この問題に効果的に対処する。
本稿では,完成度に基づくメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:44:00Z) - Prototype Completion with Primitive Knowledge for Few-Shot Learning [20.449056536438658]
少ないショット学習は、新しいクラスのための分類器を少数の例で学習することを目的とした、難しい課題である。
事前学習に基づくメタラーニング手法は,特徴抽出器を事前学習し,最寄りのセントロイド型メタラーニングを通して微調整することで,この問題に効果的に対処する。
本稿では,完成度に基づくメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-10T16:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。