論文の概要: Learning to Augment via Implicit Differentiation for Domain
Generalization
- arxiv url: http://arxiv.org/abs/2210.14271v1
- Date: Tue, 25 Oct 2022 18:51:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 14:40:01.434919
- Title: Learning to Augment via Implicit Differentiation for Domain
Generalization
- Title(参考訳): ドメイン一般化のための暗黙差分法による拡張学習
- Authors: Tingwei Wang, Da Li, Kaiyang Zhou, Tao Xiang and Yi-Zhe Song
- Abstract要約: ドメイン一般化(DG)は、複数のソースドメインを活用してドメイン一般化可能なモデルを学ぶことで、この問題を克服することを目的としている。
本稿では,AugLearnと呼ばれる新しい拡張型DG手法を提案する。
AugLearnは、PACS、Office-Home、Digits-DGの3つの標準DGベンチマークで効果を示す。
- 参考スコア(独自算出の注目度): 107.9666735637355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models are intrinsically vulnerable to domain shift between
training and testing data, resulting in poor performance in novel domains.
Domain generalization (DG) aims to overcome the problem by leveraging multiple
source domains to learn a domain-generalizable model. In this paper, we propose
a novel augmentation-based DG approach, dubbed AugLearn. Different from
existing data augmentation methods, our AugLearn views a data augmentation
module as hyper-parameters of a classification model and optimizes the module
together with the model via meta-learning. Specifically, at each training step,
AugLearn (i) divides source domains into a pseudo source and a pseudo target
set, and (ii) trains the augmentation module in such a way that the augmented
(synthetic) images can make the model generalize well on the pseudo target set.
Moreover, to overcome the expensive second-order gradient computation during
meta-learning, we formulate an efficient joint training algorithm, for both the
augmentation module and the classification model, based on the implicit
function theorem. With the flexibility of augmenting data in both time and
frequency spaces, AugLearn shows effectiveness on three standard DG benchmarks,
PACS, Office-Home and Digits-DG.
- Abstract(参考訳): 機械学習モデルは本質的に、トレーニングとテストデータのドメインシフトに弱いため、新しいドメインではパフォーマンスが低下する。
ドメイン一般化(DG)は、複数のソースドメインを活用してドメイン一般化可能なモデルを学ぶことで、この問題を克服することを目的としている。
本稿では,AugLearnと呼ばれる新しい拡張型DG手法を提案する。
既存のデータ拡張方法と異なり、AugLearnはデータ拡張モジュールを分類モデルのハイパーパラメータとみなし、メタ学習を通じてモデルと一緒にモジュールを最適化する。
具体的には、各トレーニングステップで、AugLearn
(i)ソースドメインを疑似ソースと疑似ターゲットセットに分割し、
(ii) 拡張された(合成)画像が擬似対象集合上でモデルをうまく一般化できるように拡張モジュールを訓練する。
さらに,メタラーニング中の2次勾配計算を克服するために,暗黙関数定理に基づいて拡張モジュールと分類モデルの両方に対して効率的な合同学習アルゴリズムを定式化する。
AugLearnは、時間と周波数の両方でデータを拡張する柔軟性により、PACS、Office-Home、Digits-DGの3つの標準DGベンチマークで有効性を示す。
関連論文リスト
- StyDeSty: Min-Max Stylization and Destylization for Single Domain Generalization [85.18995948334592]
単一のドメインの一般化(単一DG)は、単一のトレーニングドメインからのみ見えないドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
最先端のアプローチは、主に新しいデータを合成するために、敵対的な摂動やスタイルの強化といったデータ拡張に頼っている。
データ拡張の過程で、ソースと擬似ドメインのアライメントを明示的に考慮したemphStyDeStyを提案する。
論文 参考訳(メタデータ) (2024-06-01T02:41:34Z) - SETA: Semantic-Aware Token Augmentation for Domain Generalization [27.301312891532277]
ドメイン一般化(DG)は、ターゲットドメインにアクセスすることなく、ドメインシフトに対するモデルを強化することを目的としている。
トークンベースのモデルに対する従来のCNNベースの拡張手法は、全体的な形状情報を学ぶためのモデルへのインセンティブが欠如しているため、亜最適である。
本研究では,グローバルな形状を保ちながら局所的なエッジキューを摂動することで特徴を変換するセマンティック・アウェア・トークン拡張(SETA)法を提案する。
論文 参考訳(メタデータ) (2024-03-18T13:50:35Z) - CNN Feature Map Augmentation for Single-Source Domain Generalization [6.053629733936548]
ドメイン・ジェネリゼーション(DG)はここ数年で大きな注目を集めている。
DGの目標は、トレーニング中に利用可能なものと異なるデータ分散を提示した場合、引き続き正常に機能するモデルを作成することだ。
単一ソースDG画像分類設定における畳み込みニューラルネットワークアーキテクチャの代替正則化手法を提案する。
論文 参考訳(メタデータ) (2023-05-26T08:48:17Z) - Dynamic Domain Generalization [10.252262302724608]
我々は、動的ドメイン一般化(DDG)と呼ばれる新しいDG変種を開発し、モデルが異なるドメインからのデータに適応するために、ネットワークパラメータをツイストすることを学ぶ。
具体的には、メタ調整器を利用して、異なるドメインの異なるデータに対して静的モデルに基づいてネットワークパラメータをツイストする。
このように、静的モデルはドメイン共有機能を学ぶために最適化され、メタ調整器はドメイン固有の機能を学ぶために設計されている。
論文 参考訳(メタデータ) (2022-05-27T11:29:03Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - Learning to Generalize Unseen Domains via Memory-based Multi-Source
Meta-Learning for Person Re-Identification [59.326456778057384]
本稿では,メモリベースのマルチソースメタラーニングフレームワークを提案する。
また,メタテスト機能を多様化するメタバッチ正規化層(MetaBN)を提案する。
実験により、M$3$Lは、目に見えない領域に対するモデルの一般化能力を効果的に向上できることが示された。
論文 参考訳(メタデータ) (2020-12-01T11:38:16Z) - Discriminative Adversarial Domain Generalization with Meta-learning
based Cross-domain Validation [9.265557367859637]
ドメイン一般化(DG)技術は、機械学習モデルのそのような一般化能力を高めることを目的としている。
メタラーニングに基づくクロスドメイン検証により,DADG(Dariminative Adversarial Domain Generalization)を提案する。
その結果、DADGは強力なベースラインであるDeepAllを一貫して上回り、ほとんどの場合、既存のDGアルゴリズムよりも上回ります。
論文 参考訳(メタデータ) (2020-11-01T07:48:16Z) - Adversarial Bipartite Graph Learning for Video Domain Adaptation [50.68420708387015]
ドメイン適応技術は,異なる領域間のモデルを適応させることに重点を置いているが,ビデオ認識領域ではめったに研究されていない。
近年,映像のソースと対象映像の表現を統一するために,対角学習を活用する視覚領域適応はビデオにはあまり効果がない。
本稿では,ソースとターゲットの相互作用を直接モデル化するAdversarial Bipartite Graph (ABG)学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-31T03:48:41Z) - Learning to Generate Novel Domains for Domain Generalization [115.21519842245752]
本稿では,未知の領域によく一般化するモデルとして,複数のソースドメインから学習するタスクに焦点を当てる。
我々は、擬似ノーベル領域からデータを合成し、ソースドメインを増強するためにデータジェネレータを用いる。
我々の手法であるL2A-OTは、4つのベンチマークデータセット上で現在最先端のDG手法より優れています。
論文 参考訳(メタデータ) (2020-07-07T09:34:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。