論文の概要: Combining Domain-Specific Meta-Learners in the Parameter Space for
Cross-Domain Few-Shot Classification
- arxiv url: http://arxiv.org/abs/2011.00179v1
- Date: Sat, 31 Oct 2020 03:33:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 04:21:07.534532
- Title: Combining Domain-Specific Meta-Learners in the Parameter Space for
Cross-Domain Few-Shot Classification
- Title(参考訳): クロスドメインFew-Shot分類のためのパラメータ空間におけるドメイン特化メタラーナの組み合わせ
- Authors: Shuman Peng, Weilian Song, Martin Ester
- Abstract要約: ドメイン特化メタラーナー(CosML)を組み合わせた最適化型メタラーニング手法を提案する。
実験の結果,CosMLは最先端の手法よりも優れ,クロスドメイン能力の強力な一般化を実現していることがわかった。
- 参考スコア(独自算出の注目度): 6.945139522691311
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of few-shot classification is to learn a model that can classify
novel classes using only a few training examples. Despite the promising results
shown by existing meta-learning algorithms in solving the few-shot
classification problem, there still remains an important challenge: how to
generalize to unseen domains while meta-learning on multiple seen domains? In
this paper, we propose an optimization-based meta-learning method, called
Combining Domain-Specific Meta-Learners (CosML), that addresses the
cross-domain few-shot classification problem. CosML first trains a set of
meta-learners, one for each training domain, to learn prior knowledge (i.e.,
meta-parameters) specific to each domain. The domain-specific meta-learners are
then combined in the \emph{parameter space}, by taking a weighted average of
their meta-parameters, which is used as the initialization parameters of a task
network that is quickly adapted to novel few-shot classification tasks in an
unseen domain. Our experiments show that CosML outperforms a range of
state-of-the-art methods and achieves strong cross-domain generalization
ability.
- Abstract(参考訳): 少数の分類の目標は、いくつかのトレーニング例だけで新しいクラスを分類できるモデルを学ぶことである。
既存のメタ学習アルゴリズムが数ショットの分類問題を解くという有望な結果にもかかわらず、依然として重要な課題が残っている。
本稿では,ドメイン間数ショットの分類問題に対処する,ドメイン特化メタラーナー(CosML)の最適化に基づくメタラーニング手法を提案する。
cosmlはまず、トレーニングドメインごとに一連のメタ学習者を訓練し、各ドメインに固有の事前知識(メタパラメータ)を学ぶ。
ドメイン固有のメタラーナーは、メタパラメータの重み付けされた平均値を取り、未確認領域の新規な数ショット分類タスクに迅速に適応するタスクネットワークの初期化パラメータとして使用される。
実験の結果,CosMLは最先端の手法よりも優れ,クロスドメインの強力な一般化能力を実現することがわかった。
関連論文リスト
- Generalized Few-Shot Continual Learning with Contrastive Mixture of
Adapters [59.82088750033897]
我々は,クラスおよびドメインインクリメンタルな状況を含む汎用FSCL (GFSCL) プロトコルを構築した。
一般的な連続学習手法は、目に見えない領域に一般化能力が乏しいことが判明した。
このようにして、視覚変換器(ViT)に基づくリハーサルフリーフレームワークであるContrastive Mixture of Adapters(CMoA)を提案する。
論文 参考訳(メタデータ) (2023-02-12T15:18:14Z) - Multi-Domain Long-Tailed Learning by Augmenting Disentangled
Representations [80.76164484820818]
多くの現実世界の分類問題には、避けられない長い尾のクラスバランスの問題がある。
本稿では,この多領域長鎖学習問題について検討し,すべてのクラスとドメインにまたがってよく一般化されたモデルを作成することを目的とする。
TALLYは、選択的均衡サンプリング戦略に基づいて、ある例のセマンティック表現と別の例のドメイン関連ニュアンスを混合することでこれを達成している。
論文 参考訳(メタデータ) (2022-10-25T21:54:26Z) - Adversarial Feature Augmentation for Cross-domain Few-shot
Classification [2.68796389443975]
本稿では, ドメインギャップを補うために, 対角的特徴拡張法(AFA)を提案する。
提案手法はプラグイン・アンド・プレイモジュールであり,既存の数発学習手法に容易に組み込むことができる。
論文 参考訳(メタデータ) (2022-08-23T15:10:22Z) - Set-based Meta-Interpolation for Few-Task Meta-Learning [79.4236527774689]
そこで本研究では,メタトレーニングタスクの分散化を目的とした,ドメインに依存しないタスク拡張手法Meta-Interpolationを提案する。
様々な領域にまたがる8つのデータセットに対してメタ補間の有効性を実証的に検証した。
論文 参考訳(メタデータ) (2022-05-20T06:53:03Z) - Improving Task Adaptation for Cross-domain Few-shot Learning [41.821234589075445]
クロスドメインの少ショット分類は、ラベル付きサンプルがほとんどない未確認のクラスやドメインから分類器を学ぶことを目的としている。
残余接続を有する畳み込み層に付着したパラメトリックアダプタが最良であることを示す。
論文 参考訳(メタデータ) (2021-07-01T10:47:06Z) - How to Train Your MAML to Excel in Few-Shot Classification [26.51244463209443]
そこで本研究では,MAMLの訓練方法について紹介する。
我々のアプローチはUNICORN-MAMLと呼ばれ、最先端のアルゴリズムに匹敵する、あるいは性能に優れる。
論文 参考訳(メタデータ) (2021-06-30T17:56:15Z) - Cluster, Split, Fuse, and Update: Meta-Learning for Open Compound Domain
Adaptive Semantic Segmentation [102.42638795864178]
セマンティックセグメンテーションのための原則的メタラーニングに基づくOCDAアプローチを提案する。
対象ドメインを複数のサブターゲットドメインに,教師なしの方法で抽出した画像スタイルでクラスタリングする。
その後、メタラーニングがデプロイされ、スタイルコードに条件付きでサブターゲットドメイン固有の予測を融合するように学習される。
モデルに依存しないメタラーニング(MAML)アルゴリズムにより,モデルをオンライン更新することを学び,一般化をさらに改善する。
論文 参考訳(メタデータ) (2020-12-15T13:21:54Z) - Learning to Generalize Unseen Domains via Memory-based Multi-Source
Meta-Learning for Person Re-Identification [59.326456778057384]
本稿では,メモリベースのマルチソースメタラーニングフレームワークを提案する。
また,メタテスト機能を多様化するメタバッチ正規化層(MetaBN)を提案する。
実験により、M$3$Lは、目に見えない領域に対するモデルの一般化能力を効果的に向上できることが示された。
論文 参考訳(メタデータ) (2020-12-01T11:38:16Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。