論文の概要: Feature Extractor Stacking for Cross-domain Few-shot Meta-learning
- arxiv url: http://arxiv.org/abs/2205.05831v3
- Date: Thu, 31 Aug 2023 23:57:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-04 17:40:42.243035
- Title: Feature Extractor Stacking for Cross-domain Few-shot Meta-learning
- Title(参考訳): クロスドメインマイズショットメタラーニングのための特徴抽出器スタック化
- Authors: Hongyu Wang, Eibe Frank, Bernhard Pfahringer, Michael Mayo, Geoffrey
Holmes
- Abstract要約: クロスドメイン少ショットメタラーニング(CDF)は、複数のソースドメインから明確に異なる分布を持つインスタンススカースターゲットドメインに知識を移す必要がある学習問題に対処する。
ボックスからバックボーンの集合から情報を合成する新しいCDF手法であるFeature extractor stacking (FES)を提案する。
本稿では,メタラーニングにおける古典的積み重ねアプローチにインスパイアされた基本的FESアルゴリズムと,畳み込みFES(ConFES)と正規化FES(ReFES)の2つの変種を紹介する。
- 参考スコア(独自算出の注目度): 7.624311495433939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cross-domain few-shot meta-learning (CDFSML) addresses learning problems
where knowledge needs to be transferred from several source domains into an
instance-scarce target domain with an explicitly different distribution.
Recently published CDFSML methods generally construct a universal model that
combines knowledge of multiple source domains into one backbone feature
extractor. This enables efficient inference but necessitates re-computation of
the backbone whenever a new source domain is added. Some of these methods are
also incompatible with heterogeneous source domain backbone architectures. We
propose feature extractor stacking (FES), a new CDFSML method for combining
information from a collection of backbones, which can utilise heterogeneous
pretrained backbones out of the box, and does not maintain a universal model
that needs to be re-computed when its backbone collection is updated. We
present the basic FES algorithm, which is inspired by the classic stacking
approach to meta-learning, and also introduce two variants: convolutional FES
(ConFES) and regularised FES (ReFES). Given a target-domain task, these
algorithms fine-tune each backbone independently, use cross-validation to
extract meta training data from the support set, and learn a simple linear
meta-classifier from this data. We evaluate our FES methods on the well-known
Meta-Dataset benchmark, targeting image classification with convolutional
neural networks, and show that they can achieve state-of-the-art performance.
- Abstract(参考訳): クロスドメイン少ショットメタラーニング(CDFSML)は、複数のソースドメインから明確に異なる分布を持つインスタンススカースターゲットドメインに知識を移す必要がある学習問題に対処する。
最近発表されたCDFSML法は一般に、複数のソースドメインの知識を1つのバックボーン特徴抽出器に組み合わせた普遍モデルを構築している。
これにより効率的な推論が可能になるが、新しいソースドメインが追加されるたびにバックボーンを再計算する必要がある。
これらの手法の一部は、異種ソースドメインのバックボーンアーキテクチャと互換性がない。
本稿では,不均質な事前学習されたバックボーンをそのまま利用し,バックボーンコレクションを更新時に再計算する必要のあるユニバーサルモデルを維持しない,バックボーンの集合情報を組み合わせた新しいcdfsml手法である機能抽出器スタック(fes)を提案する。
本稿では,メタラーニングにおける古典的積み重ねアプローチにインスパイアされた基本的FESアルゴリズムと,畳み込みFES(ConFES)と正規化FES(ReFES)の2つの変種を紹介する。
対象領域のタスクが与えられた場合、これらのアルゴリズムは各バックボーンを独立に微調整し、クロスバリデーションを使用してサポートセットからメタトレーニングデータを抽出し、このデータから単純な線形メタ分類器を学習する。
我々は,畳み込みニューラルネットワークを用いた画像分類を目標としたメタデータセットベンチマークにおいて,fes法を評価した結果,最新性能が得られた。
関連論文リスト
- Source-Free Domain Adaptation Guided by Vision and Vision-Language Pre-Training [23.56208527227504]
ソースフリードメイン適応(SFDA)は、完全にラベル付けされたソースドメインでトレーニングされたソースモデルを、関連するがラベル付けされていないターゲットドメインに適応させることを目的としている。
従来のSFDAパイプラインでは、ソースモデルを初期化するために、大量のデータ(イメージネットなど)を事前訓練した特徴抽出器が使用される。
トレーニング済みネットワークを対象適応プロセスに組み込むための統合フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-05T14:48:13Z) - Open Domain Generalization with a Single Network by Regularization
Exploiting Pre-trained Features [37.518025833882334]
Open Domain Generalization(ODG)は、分散シフトとカテゴリシフトを扱うため、困難なタスクである。
これまでの作業では複数のソース特化ネットワークを使用しており、コストが高い。
本稿では,単一ネットワークのみを用いてODGを処理できる手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T16:22:10Z) - Self-Paced Learning for Open-Set Domain Adaptation [50.620824701934]
従来のドメイン適応手法は、ソースとターゲットドメインのクラスが同一であると仮定する。
オープンセットドメイン適応(OSDA)は、この制限に対処する。
そこで,本研究では,共通クラスと未知クラスを識別するための自己評価学習に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-10T14:11:09Z) - Style Interleaved Learning for Generalizable Person Re-identification [69.03539634477637]
DG ReIDトレーニングのための新しいスタイルインターリーブラーニング(IL)フレームワークを提案する。
従来の学習戦略とは異なり、ILには2つの前方伝播と1つの後方伝播が組み込まれている。
我々のモデルはDG ReIDの大規模ベンチマークにおいて最先端の手法を一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-07-07T07:41:32Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Universal Representation Learning from Multiple Domains for Few-shot
Classification [41.821234589075445]
複数の個別に訓練されたネットワークの知識を蒸留し,一組の普遍的な深層表現を学習することを提案する。
より効率的な適応ステップにより、未確認領域に対する普遍表現をさらに洗練できることが示される。
論文 参考訳(メタデータ) (2021-03-25T13:49:12Z) - Deep Domain-Adversarial Image Generation for Domain Generalisation [115.21519842245752]
マシンラーニングモデルは通常、ソースデータセットでトレーニングされたり、異なるディストリビューションのターゲットデータセットで評価されたりする際に、ドメインシフトの問題に悩まされる。
この問題を解決するために、ドメイン一般化(DG)手法は、訓練されたモデルが未知のドメインに一般化できるように、複数のソースドメインからのデータを活用することを目的としている。
我々はemphDeep Domain-Adversarial Image Generation (DDAIG)に基づく新しいDG手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T23:17:47Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。