論文の概要: Feature Extractor Stacking for Cross-domain Few-shot Learning
- arxiv url: http://arxiv.org/abs/2205.05831v4
- Date: Tue, 24 Oct 2023 22:11:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-28 06:54:33.488830
- Title: Feature Extractor Stacking for Cross-domain Few-shot Learning
- Title(参考訳): クロスドメインマイズショット学習のための特徴抽出器スタック化
- Authors: Hongyu Wang, Eibe Frank, Bernhard Pfahringer, Michael Mayo, Geoffrey
Holmes
- Abstract要約: クロスドメインの少数ショット学習は、知識を1つ以上のソースドメインから、明確に異なる分布を持つインスタンススカースターゲットドメインに転送する必要がある学習問題に対処する。
ボックスから抽出器の集合から情報を合成する新しいCDFSL法であるFeature extractor stacking (FES)を提案する。
本稿では,古典的累積一般化法にインスパイアされた基本的FESアルゴリズムと,畳み込みFES(ConFES)と正規化FES(ReFES)の2つの変種を紹介する。
- 参考スコア(独自算出の注目度): 7.624311495433939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cross-domain few-shot learning (CDFSL) addresses learning problems where
knowledge needs to be transferred from one or more source domains into an
instance-scarce target domain with an explicitly different distribution.
Recently published CDFSL methods generally construct a universal model that
combines knowledge of multiple source domains into one feature extractor. This
enables efficient inference but necessitates re-computation of the extractor
whenever a new source domain is added. Some of these methods are also
incompatible with heterogeneous source domain extractor architectures. We
propose feature extractor stacking (FES), a new CDFSL method for combining
information from a collection of extractors, that can utilise heterogeneous
pretrained extractors out of the box and does not maintain a universal model
that needs to be re-computed when its extractor collection is updated. We
present the basic FES algorithm, which is inspired by the classic stacked
generalisation approach, and also introduce two variants: convolutional FES
(ConFES) and regularised FES (ReFES). Given a target-domain task, these
algorithms fine-tune each extractor independently, use cross-validation to
extract training data for stacked generalisation from the support set, and
learn a simple linear stacking classifier from this data. We evaluate our FES
methods on the well-known Meta-Dataset benchmark, targeting image
classification with convolutional neural networks, and show that they can
achieve state-of-the-art performance.
- Abstract(参考訳): クロスドメイン・ショットラーニング(CDFSL)は、知識を1つ以上のソースドメインから、明確に異なる分布を持つインスタンススカースターゲットドメインに転送する必要がある学習問題に対処する。
最近発表されたCDFSL法は一般に、複数のソースドメインの知識を1つの特徴抽出器に組み合わせた普遍モデルを構築している。
これにより効率的な推論が可能になるが、新しいソースドメインが追加されるたびに抽出器を再計算する必要がある。
これらの手法の一部は、異種ソースドメイン抽出アーキテクチャと互換性がない。
そこで本研究では,cdfsl法である特徴抽出器スタックリング(fes)を提案する。この手法は,不均質な事前学習された抽出器を箱から取り出し,その抽出器の更新時に再計算する必要のある普遍モデルを維持しない。
本稿では,古典的累積一般化法に着想を得た基本的FESアルゴリズムと,畳み込みFES(ConFES)と正規化FES(ReFES)の2つの変種を紹介する。
対象領域のタスクが与えられた場合、これらのアルゴリズムは、各抽出器を独立に微調整し、クロスバリデーションを使用して、サポートセットからスタック化された一般化のためのトレーニングデータを抽出し、このデータから単純な線形累積分類器を学習する。
我々は,畳み込みニューラルネットワークを用いた画像分類を目標としたメタデータセットベンチマークにおいて,fes法を評価した結果,最新性能が得られた。
関連論文リスト
- Source-Free Domain Adaptation Guided by Vision and Vision-Language Pre-Training [23.56208527227504]
ソースフリードメイン適応(SFDA)は、完全にラベル付けされたソースドメインでトレーニングされたソースモデルを、関連するがラベル付けされていないターゲットドメインに適応させることを目的としている。
従来のSFDAパイプラインでは、ソースモデルを初期化するために、大量のデータ(イメージネットなど)を事前訓練した特徴抽出器が使用される。
トレーニング済みネットワークを対象適応プロセスに組み込むための統合フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-05T14:48:13Z) - Open Domain Generalization with a Single Network by Regularization
Exploiting Pre-trained Features [37.518025833882334]
Open Domain Generalization(ODG)は、分散シフトとカテゴリシフトを扱うため、困難なタスクである。
これまでの作業では複数のソース特化ネットワークを使用しており、コストが高い。
本稿では,単一ネットワークのみを用いてODGを処理できる手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T16:22:10Z) - Self-Paced Learning for Open-Set Domain Adaptation [50.620824701934]
従来のドメイン適応手法は、ソースとターゲットドメインのクラスが同一であると仮定する。
オープンセットドメイン適応(OSDA)は、この制限に対処する。
そこで,本研究では,共通クラスと未知クラスを識別するための自己評価学習に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-10T14:11:09Z) - Style Interleaved Learning for Generalizable Person Re-identification [69.03539634477637]
DG ReIDトレーニングのための新しいスタイルインターリーブラーニング(IL)フレームワークを提案する。
従来の学習戦略とは異なり、ILには2つの前方伝播と1つの後方伝播が組み込まれている。
我々のモデルはDG ReIDの大規模ベンチマークにおいて最先端の手法を一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-07-07T07:41:32Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Universal Representation Learning from Multiple Domains for Few-shot
Classification [41.821234589075445]
複数の個別に訓練されたネットワークの知識を蒸留し,一組の普遍的な深層表現を学習することを提案する。
より効率的な適応ステップにより、未確認領域に対する普遍表現をさらに洗練できることが示される。
論文 参考訳(メタデータ) (2021-03-25T13:49:12Z) - Deep Domain-Adversarial Image Generation for Domain Generalisation [115.21519842245752]
マシンラーニングモデルは通常、ソースデータセットでトレーニングされたり、異なるディストリビューションのターゲットデータセットで評価されたりする際に、ドメインシフトの問題に悩まされる。
この問題を解決するために、ドメイン一般化(DG)手法は、訓練されたモデルが未知のドメインに一般化できるように、複数のソースドメインからのデータを活用することを目的としている。
我々はemphDeep Domain-Adversarial Image Generation (DDAIG)に基づく新しいDG手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T23:17:47Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。