論文の概要: Cross-Domain Few-Shot Learning with Meta Fine-Tuning
- arxiv url: http://arxiv.org/abs/2005.10544v4
- Date: Tue, 25 Aug 2020 15:45:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 22:53:49.460131
- Title: Cross-Domain Few-Shot Learning with Meta Fine-Tuning
- Title(参考訳): メタ微調整によるクロスドメインマイトショット学習
- Authors: John Cai, Sheng Mei Shen
- Abstract要約: 我々はCVPR 2020 Challengeで提案された新しいクロスドメインFew-Shot Learningベンチマークに取り組む。
ドメイン適応および数ショット学習における最先端の手法に基づいて、両方のタスクを実行するためにトレーニング可能なシステムを構築する。
- 参考スコア(独自算出の注目度): 8.062394790518297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we tackle the new Cross-Domain Few-Shot Learning benchmark
proposed by the CVPR 2020 Challenge. To this end, we build upon
state-of-the-art methods in domain adaptation and few-shot learning to create a
system that can be trained to perform both tasks. Inspired by the need to
create models designed to be fine-tuned, we explore the integration of
transfer-learning (fine-tuning) with meta-learning algorithms, to train a
network that has specific layers that are designed to be adapted at a later
fine-tuning stage. To do so, we modify the episodic training process to include
a first-order MAML-based meta-learning algorithm, and use a Graph Neural
Network model as the subsequent meta-learning module. We find that our proposed
method helps to boost accuracy significantly, especially when combined with
data augmentation. In our final results, we combine the novel method with the
baseline method in a simple ensemble, and achieve an average accuracy of 73.78%
on the benchmark. This is a 6.51% improvement over existing benchmarks that
were trained solely on miniImagenet.
- Abstract(参考訳): 本稿では,CVPR 2020 Challengeが提案するクロスドメインFew-Shot Learningベンチマークについて述べる。
この目的のために、ドメイン適応および数ショットの学習における最先端の手法に基づいて、両方のタスクを実行するためにトレーニング可能なシステムを構築する。
微調整されたモデルを作成する必要性に触発されて、トランスファーラーニング(微調整)とメタラーニングアルゴリズムの統合を検討し、後の微調整ステージで適応するように設計された特定の層を持つネットワークを訓練する。
そのため,1次mamlに基づくメタ学習アルゴリズムを含むようにエピソディクス学習プロセスを変更し,それに続くメタ学習モジュールとしてグラフニューラルネットワークモデルを使用する。
提案手法は,特にデータ拡張と組み合わせた場合,精度の向上に有効であることがわかった。
最後に,本手法とベースライン法を単純なアンサンブルで組み合わせ,平均精度73.78%をベンチマークで達成した。
これはminiimagenetでのみトレーニングされた既存のベンチマークよりも6.51%改善されている。
関連論文リスト
- Learning to Learn with Indispensable Connections [6.040904021861969]
本稿では,メタ-LTHと呼ばれるメタ-LTHと呼ばれるメタ-ラーニング手法を提案する。
本手法は,オムニグロットデータセットの分類精度を約2%向上させる。
論文 参考訳(メタデータ) (2023-04-06T04:53:13Z) - Meta-Learning with Self-Improving Momentum Target [72.98879709228981]
メタラーナーの性能を向上させるために,SiMT(Self-improving Momentum Target)を提案する。
SiMTはメタラーナーの時間アンサンブルから適応してターゲットモデルを生成する。
我々は、SiMTが幅広いメタ学習手法と組み合わせることで、大きなパフォーマンス向上をもたらすことを示す。
論文 参考訳(メタデータ) (2022-10-11T06:45:15Z) - Adapting the Mean Teacher for keypoint-based lung registration under
geometric domain shifts [75.51482952586773]
ディープニューラルネットワークは一般的に、ラベル付きトレーニングデータが多く必要であり、トレーニングデータとテストデータの間のドメインシフトに弱い。
本稿では,ラベル付きソースからラベル付きターゲットドメインへのモデルの適用により,画像登録のための幾何学的領域適応手法を提案する。
本手法は,ベースラインモデルの精度を目標データに適合させながら,ベースラインモデルの50%/47%を継続的に改善する。
論文 参考訳(メタデータ) (2022-07-01T12:16:42Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Curriculum Meta-Learning for Few-shot Classification [1.5039745292757671]
本稿では,最新のメタ学習技術に適用可能なカリキュラム学習フレームワークの適応性を提案する。
数発の画像分類タスクにおけるMAMLアルゴリズムによる実験は,カリキュラムの学習フレームワークにおいて有意な効果を示した。
論文 参考訳(メタデータ) (2021-12-06T10:29:23Z) - SB-MTL: Score-based Meta Transfer-Learning for Cross-Domain Few-Shot
Learning [3.6398662687367973]
本稿では,クロスドメインなFew-Shot学習問題に対処する,フレキシブルで効果的な手法を提案する。
本手法は,MAML最適化機能エンコーダとスコアベースグラフニューラルネットワークを用いて,トランスファーラーニングとメタラーニングを組み合わせる。
5,20,50ショット,および4つの対象領域において,精度の大幅な向上が観察された。
論文 参考訳(メタデータ) (2020-12-03T09:29:35Z) - MetaGater: Fast Learning of Conditional Channel Gated Networks via
Federated Meta-Learning [46.79356071007187]
本稿では,バックボーンネットワークとチャネルゲーティングを協調的にトレーニングするための総合的なアプローチを提案する。
我々は,バックボーンネットワークとゲーティングモジュールの両方において,優れたメタ初期化を共同で学習するための,連携型メタ学習手法を開発した。
論文 参考訳(メタデータ) (2020-11-25T04:26:23Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Rethinking Few-Shot Image Classification: a Good Embedding Is All You
Need? [72.00712736992618]
メタトレーニングセット上で教師付きあるいは自己教師型表現を学習する単純なベースラインが、最先端の数ショット学習方法より優れていることを示す。
追加の増量は自己蒸留によって達成できる。
我々は,この発見が,画像分類ベンチマークとメタ学習アルゴリズムの役割を再考する動機となっていると考えている。
論文 参考訳(メタデータ) (2020-03-25T17:58:42Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。