論文の概要: Adaptive Prototypical Networks
- arxiv url: http://arxiv.org/abs/2211.12479v1
- Date: Tue, 22 Nov 2022 18:45:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 17:08:20.235453
- Title: Adaptive Prototypical Networks
- Title(参考訳): 適応型プロトタイプネットワーク
- Authors: Manas Gogoi, Sambhavi Tiwari and Shekhar Verma
- Abstract要約: ファウショット学習のためのプロトタイプネットワークは、エンコーダに埋め込み関数を学習し、類似した特徴を持つ画像を互いに近接して埋め込む。
メタテストフェーズにおいて,各クラスの埋め込みを他のクラスから直感的に切り離すアプローチを提案する。
これは、新しいタスクのサポートセットのサンプルとラベルを使用して、分類のためのエンコーダネットワークをトレーニングすることで達成される。
- 参考スコア(独自算出の注目度): 2.964978357715084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prototypical network for Few shot learning tries to learn an embedding
function in the encoder that embeds images with similar features close to one
another in the embedding space. However, in this process, the support set
samples for a task are embedded independently of one other, and hence, the
inter-class closeness is not taken into account. Thus, in the presence of
similar-looking classes in a task, the embeddings will tend to be close to each
other in the embedding space and even possibly overlap in some regions, which
is not desirable for classification. In this paper, we propose an approach that
intuitively pushes the embeddings of each of the classes away from the others
in the meta-testing phase, thereby grouping them closely based on the distinct
class labels rather than only the similarity of spatial features. This is
achieved by training the encoder network for classification using the support
set samples and labels of the new task. Extensive experiments conducted on
benchmark data sets show improvements in meta-testing accuracy when compared
with Prototypical Networks and also other standard few-shot learning models.
- Abstract(参考訳): ショット学習のためのプロトタイプ的ネットワークは、エンコーダ内の埋め込み関数を学習し、埋め込み空間に類似した機能を持つ画像を埋め込もうとする。
しかし、このプロセスでは、タスクのサポートセットのサンプルは互いに独立して埋め込まれており、クラス間の近接性を考慮していない。
したがって、タスク内の類似したクラスが存在する場合、埋め込みは埋め込み空間内で互いに近くなり、場合によってはいくつかの領域で重なり合う傾向があり、分類には好ましくない。
本稿では,メタテストフェーズにおいて,各クラスの組込みを直感的に他のクラスから切り離し,空間的特徴の類似性のみでなく,個別のクラスラベルに基づいてグループ化する手法を提案する。
これは、新しいタスクのサポートセットサンプルとラベルを使用して分類のためにエンコーダネットワークをトレーニングすることで実現される。
ベンチマークデータセットで行った大規模な実験は、プロトタイプネットワークや他の標準的な数ショット学習モデルと比較して、メタテストの精度が向上したことを示している。
関連論文リスト
- CoNe: Contrast Your Neighbours for Supervised Image Classification [62.12074282211957]
Contrast Your Neighbours (CoNe)は、教師付き画像分類のための学習フレームワークである。
CoNeは、より適応的で洗練されたターゲットを生成するために、類似した隣人の特徴をアンカーとして採用している。
私たちのCoNeは、最近のTimトレーニングレシピを上回るResNet-50で、ImageNetの80.8%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2023-08-21T14:49:37Z) - Deep Metric Learning Assisted by Intra-variance in A Semi-supervised
View of Learning [0.0]
ディープ・メトリック・ラーニングは、異なるクラスのサンプルが互いに遠く離れているのに対して、同じクラスのサンプルが互いに近い埋め込み空間を構築することを目的としている。
本稿では,従来の教師付き深度学習のためのクラス内分散学習スキームの半教師付きビューを提供する自己教師付き生成支援ランキングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-04-21T13:30:32Z) - Episode Adaptive Embedding Networks for Few-shot Learning [4.328767711595871]
エピソード固有のインスタンスの埋め込みを学習するために,emphEpisode Adaptive Embedding Network (EAEN)を提案する。
EAENは、最先端のメソッドに対して異なる設定で10%$から20%$の分類精度を大幅に改善する。
論文 参考訳(メタデータ) (2021-06-17T11:29:33Z) - Conditional Variational Capsule Network for Open Set Recognition [64.18600886936557]
オープンセット認識では、分類器はトレーニング時に未知の未知のクラスを検出する必要がある。
最近提案されたカプセルネットワークは、特に画像認識において、多くの分野で代替案を上回ることが示されている。
本提案では,訓練中,同じ既知のクラスのカプセルの特徴を,事前に定義されたガウス型に適合させることを推奨する。
論文 参考訳(メタデータ) (2021-04-19T09:39:30Z) - Adaptive Prototypical Networks with Label Words and Joint Representation
Learning for Few-Shot Relation Classification [17.237331828747006]
本研究は,少ショット関係分類(FSRC)に焦点を当てる。
クラスプロトタイプの表現にラベル単語を追加するための適応的混合機構を提案する。
FewRelでは、異なる数ショット(FS)設定で実験が行われた。
論文 参考訳(メタデータ) (2021-01-10T11:25:42Z) - Dynamic Semantic Matching and Aggregation Network for Few-shot Intent
Detection [69.2370349274216]
利用可能な注釈付き発話が不足しているため、インテント検出は困難である。
セマンティック成分はマルチヘッド自己認識によって発話から蒸留される。
本手法はラベル付きインスタンスとラベルなしインスタンスの両方の表現を強化するための総合的なマッチング手段を提供する。
論文 参考訳(メタデータ) (2020-10-06T05:16:38Z) - CSI: Novelty Detection via Contrastive Learning on Distributionally
Shifted Instances [77.28192419848901]
コントラストシフトインスタンス (CSI) という,単純かつ効果的な手法を提案する。
従来のコントラスト学習法のように,サンプルを他の例と対比することに加えて,本トレーニング手法では,サンプルを分散シフトによる拡張と対比する。
本実験は, 種々の新規検出シナリオにおける本手法の優位性を実証する。
論文 参考訳(メタデータ) (2020-07-16T08:32:56Z) - Towards Cross-Granularity Few-Shot Learning: Coarse-to-Fine
Pseudo-Labeling with Visual-Semantic Meta-Embedding [13.063136901934865]
少ないショットラーニングは、テスト時に少数のサンプルしか持たない、新しいカテゴリに迅速に適応することを目的としている。
本稿では,より困難なシナリオ,すなわちクロスグラニュラリティ・グラニュラリティ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラ
画像埋め込みの類似性に応じて,各粗いクラスを擬似微細クラスにグリーディクラスタリングすることで,詳細なデータ分布を近似する。
論文 参考訳(メタデータ) (2020-07-11T03:44:21Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。