論文の概要: Cross-domain Few-shot Meta-learning Using Stacking
- arxiv url: http://arxiv.org/abs/2205.05831v1
- Date: Thu, 12 May 2022 01:54:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-14 01:03:53.172268
- Title: Cross-domain Few-shot Meta-learning Using Stacking
- Title(参考訳): スタックを用いたクロスドメインマイズショットメタラーニング
- Authors: Hongyu Wang, Eibe Frank, Bernhard Pfahringer, Michael Mayo, Geoffrey
Holmes
- Abstract要約: クロスドメイン少ショットメタラーニング(CDF)は、複数のソースドメインから明示的に異なる入力分布を持つインスタンススカースターゲットドメインに知識を転送する必要がある学習問題に対処する。
最近発表されたCDF法は一般に、複数のソースドメインの知識を1つのバックボーン特徴抽出器に組み合わせた「ユニバーサルモデル」を構築している。
本稿では,メタ学習における古典的な積み重ね手法にインスパイアされたCDF手法を提案する。これはバックボーンのアーキテクチャや特徴形状に制約を課さず,普遍的モデルの再計算の計算オーバーヘッドを生じさせない。
- 参考スコア(独自算出の注目度): 4.964566153099276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cross-domain few-shot meta-learning (CDFSML) addresses learning problems
where knowledge needs to be transferred from several source domains into an
instance-scarce target domain with an explicitly different input distribution.
Recently published CDFSML methods generally construct a "universal model" that
combines knowledge of multiple source domains into one backbone feature
extractor. This enables efficient inference but necessitates re-computation of
the backbone whenever a new source domain is added. Moreover, state-of-the-art
methods derive their universal model from a collection of backbones -- normally
one for each source domain -- and the backbones may be constrained to have the
same architecture as the universal model. We propose a CDFSML method that is
inspired by the classic stacking approach to meta learning. It imposes no
constraints on the backbones' architecture or feature shape and does not incur
the computational overhead of (re-)computing a universal model. Given a
target-domain task, it fine-tunes each backbone independently, uses
cross-validation to extract meta training data from the task's instance-scarce
support set, and learns a simple linear meta classifier from this data. We
evaluate our stacking approach on the well-known Meta-Dataset benchmark,
targeting image classification with convolutional neural networks, and show
that it often yields substantially higher accuracy than competing methods.
- Abstract(参考訳): クロスドメイン少ショットメタラーニング(CDFSML)は、複数のソースドメインから明示的に異なる入力分布を持つインスタンススカースターゲットドメインに知識を移す必要がある学習問題に対処する。
最近発表されたCDFSML法は一般に、複数のソースドメインの知識を1つのバックボーン特徴抽出器に組み合わせた「ユニバーサルモデル」を構築している。
これにより効率的な推論が可能になるが、新しいソースドメインが追加されるたびにバックボーンを再計算する必要がある。
さらに、最先端のメソッドはバックボーン(通常、ソースドメインごとに1つ)の集合からユニバーサルモデルを引き継ぎ、バックボーンはユニバーサルモデルと同じアーキテクチャを持つように制約される。
メタ学習における古典的な積み重ね手法に着想を得たCDFSML法を提案する。
バックボーンのアーキテクチャや特徴形状に制約を課さず、ユニバーサルモデルの(再)計算の計算オーバーヘッドを発生させない。
ターゲットドメインタスクが与えられた場合、各バックボーンを個別に微調整し、クロスバリデーションを使用してタスクのインスタンススカースサポートセットからメタトレーニングデータを抽出し、このデータから単純な線形メタ分類器を学習する。
畳み込みニューラルネットワークを用いた画像分類を対象とし、よく知られたMeta-Datasetベンチマークのスタック化アプローチを評価し、競合する手法よりも精度が高いことを示す。
関連論文リスト
- Source-Free Domain Adaptation Guided by Vision and Vision-Language Pre-Training [23.56208527227504]
ソースフリードメイン適応(SFDA)は、完全にラベル付けされたソースドメインでトレーニングされたソースモデルを、関連するがラベル付けされていないターゲットドメインに適応させることを目的としている。
従来のSFDAパイプラインでは、ソースモデルを初期化するために、大量のデータ(イメージネットなど)を事前訓練した特徴抽出器が使用される。
トレーニング済みネットワークを対象適応プロセスに組み込むための統合フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-05T14:48:13Z) - Open Domain Generalization with a Single Network by Regularization
Exploiting Pre-trained Features [37.518025833882334]
Open Domain Generalization(ODG)は、分散シフトとカテゴリシフトを扱うため、困難なタスクである。
これまでの作業では複数のソース特化ネットワークを使用しており、コストが高い。
本稿では,単一ネットワークのみを用いてODGを処理できる手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T16:22:10Z) - Self-Paced Learning for Open-Set Domain Adaptation [50.620824701934]
従来のドメイン適応手法は、ソースとターゲットドメインのクラスが同一であると仮定する。
オープンセットドメイン適応(OSDA)は、この制限に対処する。
そこで,本研究では,共通クラスと未知クラスを識別するための自己評価学習に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-10T14:11:09Z) - Style Interleaved Learning for Generalizable Person Re-identification [69.03539634477637]
DG ReIDトレーニングのための新しいスタイルインターリーブラーニング(IL)フレームワークを提案する。
従来の学習戦略とは異なり、ILには2つの前方伝播と1つの後方伝播が組み込まれている。
我々のモデルはDG ReIDの大規模ベンチマークにおいて最先端の手法を一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-07-07T07:41:32Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Universal Representation Learning from Multiple Domains for Few-shot
Classification [41.821234589075445]
複数の個別に訓練されたネットワークの知識を蒸留し,一組の普遍的な深層表現を学習することを提案する。
より効率的な適応ステップにより、未確認領域に対する普遍表現をさらに洗練できることが示される。
論文 参考訳(メタデータ) (2021-03-25T13:49:12Z) - Deep Domain-Adversarial Image Generation for Domain Generalisation [115.21519842245752]
マシンラーニングモデルは通常、ソースデータセットでトレーニングされたり、異なるディストリビューションのターゲットデータセットで評価されたりする際に、ドメインシフトの問題に悩まされる。
この問題を解決するために、ドメイン一般化(DG)手法は、訓練されたモデルが未知のドメインに一般化できるように、複数のソースドメインからのデータを活用することを目的としている。
我々はemphDeep Domain-Adversarial Image Generation (DDAIG)に基づく新しいDG手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T23:17:47Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。