論文の概要: An Adaptive Plug-and-Play Network for Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2302.09326v1
- Date: Sat, 18 Feb 2023 13:25:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 19:13:35.640555
- Title: An Adaptive Plug-and-Play Network for Few-Shot Learning
- Title(参考訳): ファウショット学習のための適応型プラグアンドプレイネットワーク
- Authors: Hao Li, Li Li, Yunmeng Huang, Ning Li and Yongtao Zhang
- Abstract要約: 少数のサンプルから学んだ後、新しいサンプルを分類するモデルが必要である。
ディープネットワークと複雑なメトリクスはオーバーフィッティングを引き起こす傾向があり、パフォーマンスをさらに改善することは困難である。
プラグアンドプレイ型モデル適応型リサイザ (MAR) とアダプティブ類似度測定器 (ASM) をその他の損失なく提案する。
- 参考スコア(独自算出の注目度): 12.023266104119289
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot learning (FSL) requires a model to classify new samples after
learning from only a few samples. While remarkable results are achieved in
existing methods, the performance of embedding and metrics determines the upper
limit of classification accuracy in FSL. The bottleneck is that deep networks
and complex metrics tend to induce overfitting in FSL, making it difficult to
further improve the performance. Towards this, we propose plug-and-play
model-adaptive resizer (MAR) and adaptive similarity metric (ASM) without any
other losses. MAR retains high-resolution details to alleviate the overfitting
problem caused by data scarcity, and ASM decouples the relationship between
different metrics and then fuses them into an advanced one. Extensive
experiments show that the proposed method could boost existing methods on two
standard dataset and a fine-grained datasets, and achieve state-of-the-art
results on mini-ImageNet and tiered-ImageNet.
- Abstract(参考訳): FSL(Few-shot Learning)は、少数のサンプルから学んだ後に新しいサンプルを分類するモデルを必要とする。
既存の手法では顕著な結果が得られるが、埋め込みとメトリクスのパフォーマンスはFSLにおける分類精度の上限を決定する。
ボトルネックは、深いネットワークと複雑なメトリクスがFSLの過度な適合を招きやすいため、パフォーマンスをさらに向上することは困難である。
そこで本研究では,プラグイン・アンド・プレイ型モデル適応型リサイザ (MAR) と適応類似度指標 (ASM) を,その他の損失なく提案する。
MARはデータの不足に起因する過度な問題を軽減するために高解像度の詳細を保持し、ASMは異なるメトリクス間の関係を分離し、それらを高度なものに融合する。
大規模な実験により,提案手法は2つの標準データセットと細粒度データセットの既存手法を向上し,Mini-ImageNetとタイレッド-ImageNetの最先端結果が得られることが示された。
関連論文リスト
- L-DAWA: Layer-wise Divergence Aware Weight Aggregation in Federated
Self-Supervised Visual Representation Learning [14.888569402903562]
自己教師付き学習(SSL)とフェデレーション付き学習(FL)をひとつのコヒーレントシステムに統合することは、データプライバシの保証を提供する可能性がある。
本稿では,FLアグリゲーションにおけるクライアントバイアスや分散の影響を軽減するため,レイヤワイド・ディバージェンス・アウェア・ウェイト・アグリゲーション(L-DAWA)と呼ばれる新たなアグリゲーション戦略を提案する。
論文 参考訳(メタデータ) (2023-07-14T15:07:30Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - Hybridization of Capsule and LSTM Networks for unsupervised anomaly
detection on multivariate data [0.0]
本稿では,Long-Short-Term-Memory(LSTM)とCapsule Networksを1つのネットワークに結合した新しいNNアーキテクチャを提案する。
提案手法は教師なし学習手法を用いて大量のラベル付きトレーニングデータを見つける際の問題を克服する。
論文 参考訳(メタデータ) (2022-02-11T10:33:53Z) - Adaptive neighborhood Metric learning [184.95321334661898]
適応的近傍距離距離学習(ANML)という新しい距離距離距離距離距離距離学習アルゴリズムを提案する。
ANMLは線形埋め込みと深層埋め込みの両方を学ぶのに使うことができる。
本手法で提案するemphlog-exp平均関数は,深層学習手法をレビューするための新たな視点を与える。
論文 参考訳(メタデータ) (2022-01-20T17:26:37Z) - Evolving parametrized Loss for Image Classification Learning on Small
Datasets [1.4685355149711303]
本稿ではメタロスネットワーク(MLN)と呼ばれるパラメタ化損失関数の進化のためのメタラーニング手法を提案する。
本手法では,MLNを識別対象関数として分類学習の枠組みに組み込む。
実験の結果,MLNは古典的クロスエントロピー誤差や平均二乗誤差と比較して,一般化を効果的に改善した。
論文 参考訳(メタデータ) (2021-03-15T10:00:18Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - Meta-Generating Deep Attentive Metric for Few-shot Classification [53.07108067253006]
本稿では,新しい数ショット学習タスクのための特定のメトリックを生成するための,新しい深度メタジェネレーション手法を提案する。
本研究では,各タスクの識別基準を生成するのに十分なフレキシブルな3層深い注意ネットワークを用いて,メトリクスを構造化する。
特に挑戦的なケースでは、最先端の競合他社よりも驚くほどパフォーマンスが向上しています。
論文 参考訳(メタデータ) (2020-12-03T02:07:43Z) - Hybrid Consistency Training with Prototype Adaptation for Few-Shot
Learning [11.873143649261362]
Few-Shot Learningは、低データ構造におけるモデルの一般化能力を改善することを目的としている。
近年のFSL研究は,メートル法学習,メタラーニング,表現学習などを通じて着実に進展している。
論文 参考訳(メタデータ) (2020-11-19T19:51:33Z) - Multi-Scale Positive Sample Refinement for Few-Shot Object Detection [61.60255654558682]
Few-shot Object Detection (FSOD) は、ディテクターがトレーニングインスタンスをほとんど持たない未確認のクラスに適応するのに役立つ。
FSODにおけるオブジェクトスケールを拡張化するためのMPSR(Multi-scale Positive Sample Refinement)アプローチを提案する。
MPSRは、オブジェクトピラミッドとして多スケールの正のサンプルを生成し、様々なスケールで予測を洗練させる。
論文 参考訳(メタデータ) (2020-07-18T09:48:29Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。