論文の概要: A Unified Framework with Meta-dropout for Few-shot Learning
- arxiv url: http://arxiv.org/abs/2210.06409v1
- Date: Wed, 12 Oct 2022 17:05:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 12:52:28.841191
- Title: A Unified Framework with Meta-dropout for Few-shot Learning
- Title(参考訳): ファウショット学習のためのメタドロップアウト統合フレームワーク
- Authors: Shaobo Lin, Xingyu Zeng, Rui Zhao
- Abstract要約: 本稿ではメタラーニングの考え方を用いて,2つの全く異なる2つのショットラーニングのストリームを説明する。
本稿では,メタドロップアウト(メタドロップアウト)というシンプルな手法を提案し,基本カテゴリから新しいカテゴリへ一般化された伝達可能な知識に適用する。
- 参考スコア(独自算出の注目度): 25.55782263169028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional training of deep neural networks usually requires a substantial
amount of data with expensive human annotations. In this paper, we utilize the
idea of meta-learning to explain two very different streams of few-shot
learning, i.e., the episodic meta-learning-based and pre-train finetune-based
few-shot learning, and form a unified meta-learning framework. In order to
improve the generalization power of our framework, we propose a simple yet
effective strategy named meta-dropout, which is applied to the transferable
knowledge generalized from base categories to novel categories. The proposed
strategy can effectively prevent neural units from co-adapting excessively in
the meta-training stage. Extensive experiments on the few-shot object detection
and few-shot image classification datasets, i.e., Pascal VOC, MS COCO, CUB, and
mini-ImageNet, validate the effectiveness of our method.
- Abstract(参考訳): ディープニューラルネットワークの従来のトレーニングは通常、高価な人間のアノテーションで大量のデータを必要とする。
本稿では,このメタラーニングの考え方を生かして,2つの異なるマイノショット学習の流れ,すなわちエピソディックメタラーニングベースとプレトレーニングマイノショット学習の2つを説明し,統一メタラーニングフレームワークを構築する。
フレームワークの一般化能力を向上させるため,メタドロップアウトというシンプルな手法を提案し,基本カテゴリから新しいカテゴリへ一般化された伝達可能な知識に適用した。
提案手法は、神経ユニットがメタトレーニング段階で過度に適応することを効果的に防止することができる。
本手法の有効性を検証すべく,数発の物体検出と数発の画像分類データセット(Pascal VOC, MS COCO, CUB, mini-ImageNet)の大規模な実験を行った。
関連論文リスト
- Towards Few-Annotation Learning in Computer Vision: Application to Image
Classification and Object Detection tasks [3.5353632767823506]
本論文では,限定ラベルを用いた機械学習の理論的,アルゴリズム的,実験的貢献について述べる。
最初のコントリビューションでは、Few-Shot分類で使われる人気のあるメタラーニングアルゴリズムの理論と実践のギャップを埋めることに興味がある。
トランスフォーマーアーキテクチャに基づくオブジェクト検出器のトレーニングにおいて,ラベルのないデータを活用するために,教師なし事前学習と半教師付き学習の両方を提案する。
論文 参考訳(メタデータ) (2023-11-08T18:50:04Z) - Unsupervised Meta-Learning via Few-shot Pseudo-supervised Contrastive
Learning [72.3506897990639]
本稿では,Pseudo-supervised Contrast (PsCo) という,シンプルだが効果的なメタ学習フレームワークを提案する。
PsCoは、さまざまなドメイン内およびクロスドメインのいくつかのショット分類ベンチマークの下で、既存の教師なしメタラーニングメソッドより優れています。
論文 参考訳(メタデータ) (2023-03-02T06:10:13Z) - Trainable Class Prototypes for Few-Shot Learning [5.481942307939029]
本稿では,メタトレーニングとタスクトレーニングの枠組みにおいて,距離測定のためのトレーニング可能なプロトタイプを提案する。
また, エピソードなメタトレーニングがもたらした欠点を避けるために, 自己教師型学習に基づく非エピソードなメタトレーニングを採用する。
本手法は,標準的な数ショットの視覚的分類データセット上で,多数の確立された数ショットタスクにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-06-21T04:19:56Z) - Partial Is Better Than All: Revisiting Fine-tuning Strategy for Few-shot
Learning [76.98364915566292]
一般的なプラクティスは、まずベースセット上でモデルをトレーニングし、その後、微調整によって新しいクラスに移行することである。
本稿では,基本モデル内の特定の層を凍結あるいは微調整することにより,部分的知識の伝達を提案する。
提案手法の有効性を実証するために, CUB と mini-ImageNet の広範な実験を行った。
論文 参考訳(メタデータ) (2021-02-08T03:27:05Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Meta-Learning with Network Pruning [40.07436648243748]
本稿では,ネットワークのキャパシティを明示的に制御することで,ネットワークプルーニングに基づくメタラーニング手法を提案する。
我々はDense-Sparse-Dense (DSD) と Iterative Hard Thresholding (IHT) の2つのネットワークプルーニングルーチンを組み込んだReptile上でのアプローチを実装した。
論文 参考訳(メタデータ) (2020-07-07T06:13:11Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Meta-Baseline: Exploring Simple Meta-Learning for Few-Shot Learning [79.25478727351604]
評価基準に基づいて,分類済みモデル全体に対するメタラーニング(メタラーニング)を提案する。
我々は,この単純な手法が標準ベンチマークにおける最先端手法との競合性能を達成するのを観察する。
論文 参考訳(メタデータ) (2020-03-09T20:06:36Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。