論文の概要: Diversity Transfer Network for Few-Shot Learning
- arxiv url: http://arxiv.org/abs/1912.13182v1
- Date: Tue, 31 Dec 2019 05:44:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 20:51:45.860475
- Title: Diversity Transfer Network for Few-Shot Learning
- Title(参考訳): ファウショット学習のための多様性伝達ネットワーク
- Authors: Mengting Chen, Yuxin Fang, Xinggang Wang, Heng Luo, Yifeng Geng, Xinyu
Zhang, Chang Huang, Wenyu Liu, Bo Wang
- Abstract要約: 本稿では,潜在多様性を既知のカテゴリから伝達する新たな生成フレームワークであるダイバーシティ・トランスファー・ネットワーク(DTN)を提案する。
DTNのメタトレーニングプロセスの安定化を図るために,既知のカテゴリに対して協調訓練を行う組織的な補助的タスクを提案する。
その結果,DTNは単段階学習とより高速な収束速度を持ち,特徴生成に基づく数ショット学習手法の最先端結果が得られることがわかった。
- 参考スコア(独自算出の注目度): 34.36438817417749
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning is a challenging task that aims at training a classifier
for unseen classes with only a few training examples. The main difficulty of
few-shot learning lies in the lack of intra-class diversity within insufficient
training samples. To alleviate this problem, we propose a novel generative
framework, Diversity Transfer Network (DTN), that learns to transfer latent
diversities from known categories and composite them with support features to
generate diverse samples for novel categories in feature space. The learning
problem of the sample generation (i.e., diversity transfer) is solved via
minimizing an effective meta-classification loss in a single-stage network,
instead of the generative loss in previous works.
Besides, an organized auxiliary task co-training over known categories is
proposed to stabilize the meta-training process of DTN. We perform extensive
experiments and ablation studies on three datasets, i.e., \emph{mini}ImageNet,
CIFAR100 and CUB. The results show that DTN, with single-stage training and
faster convergence speed, obtains the state-of-the-art results among the
feature generation based few-shot learning methods. Code and supplementary
material are available at: \texttt{https://github.com/Yuxin-CV/DTN}
- Abstract(参考訳): 少数ショット学習は、少数のトレーニング例しか持たない未熟なクラスの分類器をトレーニングすることを目的とした、挑戦的なタスクである。
少数ショット学習の主な難点は、トレーニングサンプルの不足によるクラス内多様性の欠如である。
この問題を軽減するため,我々は,既知のカテゴリから潜在多様性を転送し,特徴空間における新しいカテゴリの多様なサンプルを生成するためのサポート機能と組み合わせることを学ぶ,新しい生成フレームワークであるdiversity transfer network (dtn)を提案する。
サンプル生成(すなわち多様性伝達)の学習問題は、前回の作業における生成的損失ではなく、単段ネットワークにおける効果的なメタ分類損失を最小化することで解決される。
さらに,DTNのメタトレーニングプロセスの安定化を図るために,既知のカテゴリに対する協調学習の組織化を提案する。
我々は,3つのデータセット,すなわち \emph{mini} ImageNet, CIFAR100, CUBに関する広範な実験およびアブレーション研究を行った。
その結果,DTNは単段階学習とより速い収束速度で,特徴生成に基づく数ショット学習手法の最先端結果が得られることがわかった。
コードと補足資料は \texttt{https://github.com/yuxin-cv/dtn} で入手できる。
関連論文リスト
- COSCO: A Sharpness-Aware Training Framework for Few-shot Multivariate Time Series Classification [19.593625378366472]
シャープネス認識最小化(SAM)最適化とプロトタイプ損失関数からなる新しい学習フレームワークCOSCOを提案する。
本研究では,提案手法が既存のベースライン法より優れていることを示す。
論文 参考訳(メタデータ) (2024-09-15T07:41:55Z) - Memorizing Complementation Network for Few-Shot Class-Incremental
Learning [109.4206979528375]
本稿では,新しいタスクにおいて,異なる記憶された知識を補う複数のモデルをアンサンブルするために,MCNet(Memorizing Complementation Network)を提案する。
原型スムージング・ハードマイニング・トリプルト(PSHT)の損失を現時点の課題だけでなく,従来の分布からも引き離すために開発した。
論文 参考訳(メタデータ) (2022-08-11T02:32:41Z) - BatchFormer: Learning to Explore Sample Relationships for Robust
Representation Learning [93.38239238988719]
本稿では,各ミニバッチからサンプル関係を学習可能なディープニューラルネットワークを提案する。
BatchFormerは各ミニバッチのバッチ次元に適用され、トレーニング中のサンプル関係を暗黙的に探索する。
我々は10以上のデータセットに対して広範な実験を行い、提案手法は異なるデータ不足アプリケーションにおいて大幅な改善を実現する。
論文 参考訳(メタデータ) (2022-03-03T05:31:33Z) - Exploiting Invariance in Training Deep Neural Networks [4.169130102668252]
動物視覚システムの2つの基本的なメカニズムに触発され、ディープニューラルネットワークのトレーニングに不変性を与える特徴変換技術を紹介します。
結果として得られるアルゴリズムはパラメータチューニングを少なくし、初期学習率1.0でうまくトレーニングし、異なるタスクに簡単に一般化する。
ImageNet、MS COCO、Cityscapesデータセットでテストされた当社の提案手法は、トレーニングにより少ないイテレーションを必要とし、すべてのベースラインを大きなマージンで上回り、小規模および大規模のバッチサイズのトレーニングをシームレスに行い、画像分類、オブジェクト検出、セマンティックセグメンテーションの異なるコンピュータビジョンタスクに適用します。
論文 参考訳(メタデータ) (2021-03-30T19:18:31Z) - Learning Invariant Representations across Domains and Tasks [81.30046935430791]
本稿では,この教師なしタスク転送問題を解決するための新しいタスク適応ネットワーク(tan)を提案する。
ドメイン・アドバーサル・トレーニングによる伝達可能な機能を学習することに加えて、学習から学習への戦略を用いてタスクの意味を適応させる新しいタスク・セマンティクス・アダプタを提案する。
TANは最近の強いベースラインに比べてリコールとF1スコアを5.0%と7.8%大きく向上させた。
論文 参考訳(メタデータ) (2021-03-03T11:18:43Z) - Improving filling level classification with adversarial training [90.01594595780928]
単一画像からカップや飲料グラスのコンテントのレベルを分類する問題について検討する。
汎用ソースデータセットで逆トレーニングを使用し、タスク固有のデータセットでトレーニングを洗練します。
ソース領域における逆学習による伝達学習は,テストセットの分類精度を常に向上させることを示す。
論文 参考訳(メタデータ) (2021-02-08T08:32:56Z) - Separable Batch Normalization for Robust Facial Landmark Localization
with Cross-protocol Network Training [41.82379935715916]
大規模で多様でバランスの取れたトレーニングデータは、ディープニューラルネットワークトレーニングの成功の鍵です。
多様性とバランスの取れたトレーニングサンプルを持たない小さなデータセットは、ディープネットワークのトレーニングを効果的にサポートできない。
本稿では, 顔のランドマークのロバスト化のためのクロスプロトコールネットワークトレーニング(CNT)戦略を用いた, 分離型バッチ正規化(SepBN)モジュールを提案する。
論文 参考訳(メタデータ) (2021-01-17T13:04:06Z) - Few-Shot Learning with Intra-Class Knowledge Transfer [100.87659529592223]
アンバランスなデータセットを用いた数発の分類タスクについて検討する。
近年の研究では、生成モデルを用いて数発の授業のトレーニングデータを増やすことで、この課題を解決することが提案されている。
本稿では,近隣クラスが類似した統計情報を共有するという直感で,近隣クラスからのクラス内知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-08-22T18:15:38Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z) - Fine-Grained Visual Classification via Progressive Multi-Granularity
Training of Jigsaw Patches [67.51747235117]
きめ細かい視覚分類(FGVC)は従来の分類よりもはるかに難しい。
最近の研究は主に、最も差別的な部分の発見に焦点をあてることによってこの問題に対処している。
本稿では,これらの問題に対処するための視覚的細粒度分類のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-03-08T19:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。