論文の概要: Episode Adaptive Embedding Networks for Few-shot Learning
- arxiv url: http://arxiv.org/abs/2106.09398v1
- Date: Thu, 17 Jun 2021 11:29:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 15:51:01.586039
- Title: Episode Adaptive Embedding Networks for Few-shot Learning
- Title(参考訳): ファウショット学習のためのエピソード適応型埋め込みネットワーク
- Authors: Fangbing Liu and Qing Wang
- Abstract要約: エピソード固有のインスタンスの埋め込みを学習するために,emphEpisode Adaptive Embedding Network (EAEN)を提案する。
EAENは、最先端のメソッドに対して異なる設定で10%$から20%$の分類精度を大幅に改善する。
- 参考スコア(独自算出の注目度): 4.328767711595871
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Few-shot learning aims to learn a classifier using a few labelled instances
for each class. Metric-learning approaches for few-shot learning embed
instances into a high-dimensional space and conduct classification based on
distances among instance embeddings. However, such instance embeddings are
usually shared across all episodes and thus lack the discriminative power to
generalize classifiers according to episode-specific features. In this paper,
we propose a novel approach, namely \emph{Episode Adaptive Embedding Network}
(EAEN), to learn episode-specific embeddings of instances. By leveraging the
probability distributions of all instances in an episode at each channel-pixel
embedding dimension, EAEN can not only alleviate the overfitting issue
encountered in few-shot learning tasks, but also capture discriminative
features specific to an episode. To empirically verify the effectiveness and
robustness of EAEN, we have conducted extensive experiments on three widely
used benchmark datasets, under various combinations of different generic
embedding backbones and different classifiers. The results show that EAEN
significantly improves classification accuracy about $10\%$ to $20\%$ in
different settings over the state-of-the-art methods.
- Abstract(参考訳): ほとんどショット学習は、クラス毎にラベル付きインスタンスを使用して分類器を学習することを目的としていない。
数ショット学習のためのメトリクス学習アプローチは、インスタンスを高次元空間に埋め込み、インスタンス埋め込み間の距離に基づいて分類を行う。
しかし、このような組込みは通常全てのエピソードで共有されるため、エピソード固有の特徴に応じて分類器を一般化する識別能力が欠如している。
本稿では,インスタンスのエピソード固有の埋め込みを学習するための新しいアプローチであるemph{Episode Adaptive Embedding Network} (EAEN)を提案する。
各チャンネルピクセル埋め込み次元におけるエピソード内のすべてのインスタンスの確率分布を活用することで、eaenは、少数ショット学習タスクで発生する過剰な問題を軽減するだけでなく、エピソード特有の識別的特徴も捉えることができる。
eaenの有効性とロバスト性を検証するために,様々な汎用組み込みバックボーンと異なる分類器の組み合わせで,広く使用されている3つのベンチマークデータセットについて広範な実験を行った。
その結果, EAENは, 最先端手法の異なる設定において, 10\%$から20\%$の分類精度を著しく向上することがわかった。
関連論文リスト
- Deep Metric Learning Assisted by Intra-variance in A Semi-supervised
View of Learning [0.0]
ディープ・メトリック・ラーニングは、異なるクラスのサンプルが互いに遠く離れているのに対して、同じクラスのサンプルが互いに近い埋め込み空間を構築することを目的としている。
本稿では,従来の教師付き深度学習のためのクラス内分散学習スキームの半教師付きビューを提供する自己教師付き生成支援ランキングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-04-21T13:30:32Z) - Learning Context-aware Classifier for Semantic Segmentation [88.88198210948426]
本稿では,文脈認識型分類器の学習を通じて文脈ヒントを利用する。
本手法はモデルに依存しないため,ジェネリックセグメンテーションモデルにも容易に適用できる。
無視できる追加パラメータと+2%の推論時間だけで、小型モデルと大型モデルの両方で十分な性能向上が達成されている。
論文 参考訳(メタデータ) (2023-03-21T07:00:35Z) - Task-Specific Embeddings for Ante-Hoc Explainable Text Classification [6.671252951387647]
テキストのタスク固有の埋め込みを学習する学習目標を提案する。
提案する目的は,同一のクラスラベルを共有するすべてのテキストが近接しているように埋め込みを学習することである。
本研究は, 総合的な分類精度において, アンテホックな説明可能性と漸進的な学習の利点が無コストで得られることを示す広範囲な実験である。
論文 参考訳(メタデータ) (2022-11-30T19:56:25Z) - Adaptive Prototypical Networks [2.964978357715084]
ファウショット学習のためのプロトタイプネットワークは、エンコーダに埋め込み関数を学習し、類似した特徴を持つ画像を互いに近接して埋め込む。
メタテストフェーズにおいて,各クラスの埋め込みを他のクラスから直感的に切り離すアプローチを提案する。
これは、新しいタスクのサポートセットのサンプルとラベルを使用して、分類のためのエンコーダネットワークをトレーニングすることで達成される。
論文 参考訳(メタデータ) (2022-11-22T18:45:58Z) - Regularizing Neural Network Training via Identity-wise Discriminative
Feature Suppression [20.89979858757123]
トレーニングサンプルの数が少ない場合、あるいはクラスラベルがうるさい場合、ネットワークはトレーニングエラーを最小限に抑えるために個々のインスタンス固有のパターンを記憶する傾向がある。
本稿では、経験的エラー最小化のために、インスタンス固有のパターンに依存するネットワークの傾向を抑えることで、改善策を検討する。
論文 参考訳(メタデータ) (2022-09-29T05:14:56Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Hyperspherical embedding for novel class classification [1.5952956981784217]
本稿では,正規化ソフトマックス損失下での潜在空間の表現に制約に基づくアプローチを提案する。
本研究では,メトリクス学習と正規化ソフトマックス損失の両方を用いて,異なるデータセット上の未知のクラスを分類するための提案手法を実験的に検証した。
この結果から,提案した戦略は,ペアワイズ学習を必要とせず,メトリック学習戦略よりも優れた分類結果を提供するため,より大規模なクラスで効率的に学習可能であることが示唆された。
論文 参考訳(メタデータ) (2021-02-05T15:42:13Z) - Dynamic Semantic Matching and Aggregation Network for Few-shot Intent
Detection [69.2370349274216]
利用可能な注釈付き発話が不足しているため、インテント検出は困難である。
セマンティック成分はマルチヘッド自己認識によって発話から蒸留される。
本手法はラベル付きインスタンスとラベルなしインスタンスの両方の表現を強化するための総合的なマッチング手段を提供する。
論文 参考訳(メタデータ) (2020-10-06T05:16:38Z) - K-Shot Contrastive Learning of Visual Features with Multiple Instance
Augmentations [67.46036826589467]
個々のインスタンス内のサンプルのバリエーションを調べるために、$K$-Shot Contrastive Learningが提案されている。
異なるインスタンスを区別するために差別的特徴を学習することで、インスタンス間差別の利点を組み合わせることを目的としている。
提案した$K$-shotのコントラスト学習は、最先端の教師なし手法よりも優れた性能が得られることを示す実験結果を得た。
論文 参考訳(メタデータ) (2020-07-27T04:56:41Z) - Rethinking preventing class-collapsing in metric learning with
margin-based losses [81.22825616879936]
メトリクス学習は、視覚的に類似したインスタンスが近接し、異なるインスタンスが分離した埋め込みを求める。
マージンベースの損失は、クラスの全サンプルを埋め込み空間の単一点に投影する傾向がある。
そこで本研究では,各サンプルが最寄りの同一クラスをバッチで選択するように,埋め込み損失の簡易な修正を提案する。
論文 参考訳(メタデータ) (2020-06-09T09:59:25Z) - Federated Learning with Only Positive Labels [71.63836379169315]
FedAwS(Federated Averaging with Spreadout)という,正のラベルのみを用いたトレーニングのための汎用フレームワークを提案する。
理論的にも経験的にも、FedAwSは、ユーザが負のラベルにアクセス可能な従来の学習のパフォーマンスとほぼ一致していることを示す。
論文 参考訳(メタデータ) (2020-04-21T23:35:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。