論文の概要: Exploiting Style Transfer-based Task Augmentation for Cross-Domain
Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2301.07927v1
- Date: Thu, 19 Jan 2023 07:32:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 15:36:08.454013
- Title: Exploiting Style Transfer-based Task Augmentation for Cross-Domain
Few-Shot Learning
- Title(参考訳): クロスドメインFew-Shot学習のための爆発的移動型タスク拡張
- Authors: Shuzhen Rao, Jun Huang, Zengming Tang
- Abstract要約: ドメイン間数ショットの学習では、ソースドメインのソースタスクに基づいてトレーニングされたモデルは、ターゲットドメインのターゲットタスクに対してうまく一般化できない。
本稿では,タスク拡張メタラーニング(TAML, Task Augmented Meta-Learning)を提案する。
- 参考スコア(独自算出の注目度): 4.678020383205135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In cross-domain few-shot learning, the core issue is that the model trained
on source tasks from source domains can not generalize well to target tasks
from the target domain, especially when the domain shift is very large.
Motivated by the observation that the domain shift between training tasks and
target tasks usually can reflect in their style variation, we propose Task
Augmented Meta-Learning (TAML) to conduct style transfer-based task
augmentation to improve the domain generalization ability. Firstly, Multi-task
Interpolation (MTI) is introduced to perform feature fusion on tasks from
different tasks with different styles, which makes more diverse styles
available. Furthermore, a novel task-augmentation strategy called Multi-Task
Style Transfer (MTST) is put forward to perform style transfer on existing
tasks to learn discriminative style-independent features. At last, we introduce
Feature Modulation module (FM) to add random styles, which aims to improve the
generalization of our model. The proposed TAML increases the diversity of
styles of training tasks, and contributes to training a model with better
domain generalization ability. The effectiveness is demonstrated via
theoretical analysis and thorough experiments on two popular cross-domain
few-shot benchmarks.
- Abstract(参考訳): クロスドメインの少数ショット学習では、ソースドメインからソースタスクにトレーニングされたモデルは、特にドメインシフトが非常に大きい場合には、ターゲットドメインからターゲットタスクにうまく一般化できないことが中心となる。
学習課題と目標タスクのドメインシフトが、通常、そのスタイルの変化を反映できるという観察から、我々は、ドメイン一般化能力を向上させるために、スタイル移行に基づくタスク拡張を行うためのタスク拡張メタラーニング(TAML)を提案する。
まず、Multi-task Interpolation (MTI) を導入し、異なるスタイルのタスクから、より多様なスタイルのタスクで機能融合を行う。
さらに,マルチタスクスタイルトランスファー(mtst)と呼ばれる新しいタスク提供戦略を用いて,既存のタスクのスタイルトランスファーを実行し,判別スタイル非依存の特徴を学習する。
最後に、ランダムなスタイルを追加するための特徴変調モジュール(FM)を導入し、モデルの一般化を改善することを目的とした。
提案したTAMLは、トレーニングタスクのスタイルの多様性を高め、ドメイン一般化能力の向上したモデルのトレーニングに寄与する。
この効果は、2つの人気のあるクロスドメイン・マイノショットベンチマークの理論的解析と徹底的な実験によって実証される。
関連論文リスト
- HCVP: Leveraging Hierarchical Contrastive Visual Prompt for Domain
Generalization [69.33162366130887]
ドメイン一般化(DG)は、不変の機能を学ぶことによって、目に見えないシナリオに優れた機械学習モデルを作成するための取り組みである。
モデルにドメインレベルとタスク固有の特性を補足する新しい手法を提案する。
このアプローチは、特定の特徴から不変な特徴をより効果的に分離し、一般化を促進することを目的としている。
論文 参考訳(メタデータ) (2024-01-18T04:23:21Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - Multi-Domain Learning with Modulation Adapters [33.54630534228469]
マルチドメイン学習は、複数のドメインにまたがる画像分類など、関連するタスクを同時に処理することを目的としている。
変調アダプタは、各タスクに対して乗法的にモデルの畳み込み重みを更新する。
我々のアプローチは、既存の最先端のアプローチと同等かそれ以上の精度で、優れた結果をもたらす。
論文 参考訳(メタデータ) (2023-07-17T14:40:16Z) - Learning to Augment via Implicit Differentiation for Domain
Generalization [107.9666735637355]
ドメイン一般化(DG)は、複数のソースドメインを活用してドメイン一般化可能なモデルを学ぶことで、この問題を克服することを目的としている。
本稿では,AugLearnと呼ばれる新しい拡張型DG手法を提案する。
AugLearnは、PACS、Office-Home、Digits-DGの3つの標準DGベンチマークで効果を示す。
論文 参考訳(メタデータ) (2022-10-25T18:51:51Z) - Multiple Modes for Continual Learning [8.782809316491948]
データストリームの入力にモデルパラメータを適用することは、ディープラーニングのスケーラビリティにとって重要な要素である。
複数のパラメータモードの構築とモード毎のタスク割り当てのトレードオフを定式化する。
ベースライン継続学習戦略の改善を実証的に実証した。
論文 参考訳(メタデータ) (2022-09-29T17:55:32Z) - Style Interleaved Learning for Generalizable Person Re-identification [69.03539634477637]
DG ReIDトレーニングのための新しいスタイルインターリーブラーニング(IL)フレームワークを提案する。
従来の学習戦略とは異なり、ILには2つの前方伝播と1つの後方伝播が組み込まれている。
我々のモデルはDG ReIDの大規模ベンチマークにおいて最先端の手法を一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-07-07T07:41:32Z) - Set-based Meta-Interpolation for Few-Task Meta-Learning [79.4236527774689]
そこで本研究では,メタトレーニングタスクの分散化を目的とした,ドメインに依存しないタスク拡張手法Meta-Interpolationを提案する。
様々な領域にまたがる8つのデータセットに対してメタ補間の有効性を実証的に検証した。
論文 参考訳(メタデータ) (2022-05-20T06:53:03Z) - TAL: Two-stream Adaptive Learning for Generalizable Person
Re-identification [115.31432027711202]
我々は、ドメイン固有性とドメイン不変性の両方が、re-idモデルの一般化能力の向上に不可欠であると主張する。
これら2種類の情報を同時にモデル化するために,2ストリーム適応学習 (TAL) を命名した。
我々のフレームワークは、単一ソースとマルチソースの両方のドメイン一般化タスクに適用できる。
論文 参考訳(メタデータ) (2021-11-29T01:27:42Z) - Improving the Generalization of Meta-learning on Unseen Domains via
Adversarial Shift [3.1219977244201056]
ドメインシフトをシミュレートし、擬似タスクを生成する方法を学ぶためのモデルに依存しないシフト層を提案する。
擬似的なタスクに基づいて、メタ学習モデルはクロスドメインメタ知識を学習することができる。
論文 参考訳(メタデータ) (2021-07-23T07:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。