論文の概要: Improving Diversity with Adversarially Learned Transformations for
Domain Generalization
- arxiv url: http://arxiv.org/abs/2206.07736v1
- Date: Wed, 15 Jun 2022 18:05:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 14:57:51.896022
- Title: Improving Diversity with Adversarially Learned Transformations for
Domain Generalization
- Title(参考訳): ドメイン一般化のための敵対的学習変換による多様性の向上
- Authors: Tejas Gokhale, Rushil Anirudh, Jayaraman J. Thiagarajan, Bhavya
Kailkhura, Chitta Baral, Yezhou Yang
- Abstract要約: 本稿では、ニューラルネットワークを用いた逆学習変換(ALT)を用いて、可塑性かつハードな画像変換をモデル化する新しいフレームワークを提案する。
我々は、ALTが既存の多様性モジュールと自然に連携して、ソースドメインの大規模変換によって最先端のパフォーマンスを実現することを示す。
- 参考スコア(独自算出の注目度): 81.26960899663601
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: To be successful in single source domain generalization, maximizing diversity
of synthesized domains has emerged as one of the most effective strategies.
Many of the recent successes have come from methods that pre-specify the types
of diversity that a model is exposed to during training, so that it can
ultimately generalize well to new domains. However, na\"ive diversity based
augmentations do not work effectively for domain generalization either because
they cannot model large domain shift, or because the span of transforms that
are pre-specified do not cover the types of shift commonly occurring in domain
generalization. To address this issue, we present a novel framework that uses
adversarially learned transformations (ALT) using a neural network to model
plausible, yet hard image transformations that fool the classifier. This
network is randomly initialized for each batch and trained for a fixed number
of steps to maximize classification error. Further, we enforce consistency
between the classifier's predictions on the clean and transformed images. With
extensive empirical analysis, we find that this new form of adversarial
transformations achieve both objectives of diversity and hardness
simultaneously, outperforming all existing techniques on competitive benchmarks
for single source domain generalization. We also show that ALT can naturally
work with existing diversity modules to produce highly distinct, and large
transformations of the source domain leading to state-of-the-art performance.
- Abstract(参考訳): 単一ソース領域の一般化に成功するために、合成ドメインの多様性を最大化することが最も効果的な戦略の1つである。
最近の成功の多くは、トレーニング中にモデルが露出する多様性のタイプを事前に特定する手法から来ており、最終的に新しいドメインにうまく一般化することができる。
しかし、大域シフトをモデル化できないことや、事前指定された変換のスパンが、ドメイン一般化で一般的に発生するシフトのタイプをカバーしていないことなど、ドメイン一般化に効果的に機能しない。
この問題に対処するために、ニューラルネットワークを用いて逆学習変換(ALT)を使用して、分類器を騙す可塑性だがハードな画像変換をモデル化する新しいフレームワークを提案する。
このネットワークはバッチ毎にランダムに初期化され、分類エラーを最大化するために一定数のステップで訓練される。
さらに,クリーン画像とトランスフォーメーション画像に対して,分類器の予測値の一貫性を強制する。
広範な経験的分析によって、この新しい形態の敵対的変換は多様性と硬さの両方の目的を同時に達成し、単一ソースドメインの一般化のための競争ベンチマークにおいて、既存のすべてのテクニックを上回っています。
また、ALTが既存の多様性モジュールと自然に連携することで、ソースドメインの大規模変換が最先端のパフォーマンスにつながることを示す。
関連論文リスト
- Generalize or Detect? Towards Robust Semantic Segmentation Under Multiple Distribution Shifts [56.57141696245328]
斬新なクラスとドメインの両方が存在するようなオープンワールドシナリオでは、理想的なセグメンテーションモデルは安全のために異常なクラスを検出する必要がある。
既存の方法はドメインレベルとセマンティックレベルの分散シフトを区別するのに苦労することが多い。
論文 参考訳(メタデータ) (2024-11-06T11:03:02Z) - Learning to Generalize Unseen Domains via Multi-Source Meta Learning for Text Classification [71.08024880298613]
テキスト分類の多元的領域一般化について検討する。
本稿では、複数の参照ドメインを使用して、未知のドメインで高い精度を達成可能なモデルをトレーニングするフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T07:46:21Z) - Causality-inspired Latent Feature Augmentation for Single Domain Generalization [13.735443005394773]
単一ドメインの一般化(Single-DG)は、単一のトレーニングドメインのみを持つ一般化可能なモデルを開発し、他の未知のターゲットドメインでうまく機能させることを目的としている。
ドメイン・ハングリー構成の下で、ソース・ドメインのカバレッジを拡大し、異なる分布にまたがる固有の因果的特徴を見つける方法がモデルの一般化能力を高める鍵となる。
本稿では、因果学習と介入に基づく特徴レベルの変換のメタ知識を学習することで、単一DGの因果性に着想を得た潜在機能拡張手法を提案する。
論文 参考訳(メタデータ) (2024-06-10T02:42:25Z) - Cross-Domain Feature Augmentation for Domain Generalization [16.174824932970004]
本稿では,XDomainMix というクロスドメイン機能拡張手法を提案する。
広範に使用されているベンチマークデータセットの実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2024-05-14T13:24:19Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - Improving Generalization with Domain Convex Game [32.07275105040802]
ドメインの一般化は、複数のソースドメインを持つモデルを学習することで、ディープニューラルネットワークの貧弱な一般化能力を緩和する傾向がある。
DG の古典的な解は領域拡大であり、その一般的な信念は、ソース領域の多様化は分布外一般化に導かれるということである。
モデル一般化と領域の多様性の相関は厳密には正ではなく,ドメイン拡張の有効性を制限している。
論文 参考訳(メタデータ) (2023-03-23T14:27:49Z) - Normalization Perturbation: A Simple Domain Generalization Method for
Real-World Domain Shifts [133.99270341855728]
実世界のドメインスタイルは環境の変化やセンサノイズによって大きく変化する可能性がある。
深層モデルはトレーニングドメインスタイルしか知らない。
このドメインスタイルのオーバーフィット問題を解決するために,正規化摂動を提案する。
論文 参考訳(メタデータ) (2022-11-08T17:36:49Z) - Feature-based Style Randomization for Domain Generalization [27.15070576861912]
ドメイン一般化(Domain Generalization、DG)は、まず複数のソースドメイン上のジェネリックモデルを学習し、その後、追加の適応なしに任意の未確認ターゲットドメインに直接一般化することを目的としている。
本稿では,機能レベルの拡張を実現するために,シンプルだが効果的な特徴ベーススタイルのランダム化モジュールを開発する。
既存の画像レベルの拡張と比較して、我々の特徴レベルの拡張は、よりゴール指向でサンプルの多様性のある方法を好む。
論文 参考訳(メタデータ) (2021-06-06T16:34:44Z) - Learning to Generate Novel Domains for Domain Generalization [115.21519842245752]
本稿では,未知の領域によく一般化するモデルとして,複数のソースドメインから学習するタスクに焦点を当てる。
我々は、擬似ノーベル領域からデータを合成し、ソースドメインを増強するためにデータジェネレータを用いる。
我々の手法であるL2A-OTは、4つのベンチマークデータセット上で現在最先端のDG手法より優れています。
論文 参考訳(メタデータ) (2020-07-07T09:34:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。