論文の概要: Improving Diversity with Adversarially Learned Transformations for
Domain Generalization
- arxiv url: http://arxiv.org/abs/2206.07736v1
- Date: Wed, 15 Jun 2022 18:05:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 14:57:51.896022
- Title: Improving Diversity with Adversarially Learned Transformations for
Domain Generalization
- Title(参考訳): ドメイン一般化のための敵対的学習変換による多様性の向上
- Authors: Tejas Gokhale, Rushil Anirudh, Jayaraman J. Thiagarajan, Bhavya
Kailkhura, Chitta Baral, Yezhou Yang
- Abstract要約: 本稿では、ニューラルネットワークを用いた逆学習変換(ALT)を用いて、可塑性かつハードな画像変換をモデル化する新しいフレームワークを提案する。
我々は、ALTが既存の多様性モジュールと自然に連携して、ソースドメインの大規模変換によって最先端のパフォーマンスを実現することを示す。
- 参考スコア(独自算出の注目度): 81.26960899663601
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: To be successful in single source domain generalization, maximizing diversity
of synthesized domains has emerged as one of the most effective strategies.
Many of the recent successes have come from methods that pre-specify the types
of diversity that a model is exposed to during training, so that it can
ultimately generalize well to new domains. However, na\"ive diversity based
augmentations do not work effectively for domain generalization either because
they cannot model large domain shift, or because the span of transforms that
are pre-specified do not cover the types of shift commonly occurring in domain
generalization. To address this issue, we present a novel framework that uses
adversarially learned transformations (ALT) using a neural network to model
plausible, yet hard image transformations that fool the classifier. This
network is randomly initialized for each batch and trained for a fixed number
of steps to maximize classification error. Further, we enforce consistency
between the classifier's predictions on the clean and transformed images. With
extensive empirical analysis, we find that this new form of adversarial
transformations achieve both objectives of diversity and hardness
simultaneously, outperforming all existing techniques on competitive benchmarks
for single source domain generalization. We also show that ALT can naturally
work with existing diversity modules to produce highly distinct, and large
transformations of the source domain leading to state-of-the-art performance.
- Abstract(参考訳): 単一ソース領域の一般化に成功するために、合成ドメインの多様性を最大化することが最も効果的な戦略の1つである。
最近の成功の多くは、トレーニング中にモデルが露出する多様性のタイプを事前に特定する手法から来ており、最終的に新しいドメインにうまく一般化することができる。
しかし、大域シフトをモデル化できないことや、事前指定された変換のスパンが、ドメイン一般化で一般的に発生するシフトのタイプをカバーしていないことなど、ドメイン一般化に効果的に機能しない。
この問題に対処するために、ニューラルネットワークを用いて逆学習変換(ALT)を使用して、分類器を騙す可塑性だがハードな画像変換をモデル化する新しいフレームワークを提案する。
このネットワークはバッチ毎にランダムに初期化され、分類エラーを最大化するために一定数のステップで訓練される。
さらに,クリーン画像とトランスフォーメーション画像に対して,分類器の予測値の一貫性を強制する。
広範な経験的分析によって、この新しい形態の敵対的変換は多様性と硬さの両方の目的を同時に達成し、単一ソースドメインの一般化のための競争ベンチマークにおいて、既存のすべてのテクニックを上回っています。
また、ALTが既存の多様性モジュールと自然に連携することで、ソースドメインの大規模変換が最先端のパフォーマンスにつながることを示す。
関連論文リスト
- Fairness-Aware Domain Generalization under Covariate and Dependence
Shifts [29.663115314034126]
ドメインシフトに対処する新しい領域一般化手法を提案する。
我々は、基礎となる変換モデルの存在が、あるドメインから別のドメインへデータを変換できると主張している。
モデルを用いて合成ドメインのデータを生成することにより、公正に認識された不変な分類器が学習される。
論文 参考訳(メタデータ) (2023-11-23T05:52:00Z) - Multi-Scale and Multi-Layer Contrastive Learning for Domain
Generalization [6.053629733936548]
深部畳み込みニューラルネットワークの一般化能力は、ネットワークの多層的および多スケール的表現を活用することで向上できると論じる。
画像分類器の領域一般化を目的とした,低レベル特徴と高レベル特徴を複数スケールで組み合わせたフレームワークを提案する。
我々のモデルは従来のDG手法よりも優れており、全てのデータセットにおいて競争力と最先端の結果を連続的に生成できることを示す。
論文 参考訳(メタデータ) (2023-08-28T08:54:27Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - Quantitatively Measuring and Contrastively Exploring Heterogeneity for
Domain Generalization [38.50749918578154]
ドメイン一般化タスクのための異種性に基づく二段階コントラスト学習(HTCL)を提案する。
第一段階では、最も異質な分割パターンをコントラストメトリックで生成する。
第2段階では、ドメインやクラスによって示唆される安定した関係を持つペアを再構築することで、実践的なコントラスト学習を採用する。
論文 参考訳(メタデータ) (2023-05-25T09:42:43Z) - Improving Generalization with Domain Convex Game [32.07275105040802]
ドメインの一般化は、複数のソースドメインを持つモデルを学習することで、ディープニューラルネットワークの貧弱な一般化能力を緩和する傾向がある。
DG の古典的な解は領域拡大であり、その一般的な信念は、ソース領域の多様化は分布外一般化に導かれるということである。
モデル一般化と領域の多様性の相関は厳密には正ではなく,ドメイン拡張の有効性を制限している。
論文 参考訳(メタデータ) (2023-03-23T14:27:49Z) - Normalization Perturbation: A Simple Domain Generalization Method for
Real-World Domain Shifts [133.99270341855728]
実世界のドメインスタイルは環境の変化やセンサノイズによって大きく変化する可能性がある。
深層モデルはトレーニングドメインスタイルしか知らない。
このドメインスタイルのオーバーフィット問題を解決するために,正規化摂動を提案する。
論文 参考訳(メタデータ) (2022-11-08T17:36:49Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - A Novel Mix-normalization Method for Generalizable Multi-source Person
Re-identification [49.548815417844786]
人物再識別(Re-ID)は、監督されたシナリオにおいて大きな成功を収めた。
モデルがソースドメインに過度に適合するため、教師付きモデルを任意の未確認領域に直接転送することは困難である。
ドメイン・アウェア・ミックス正規化(DMN)とドメイン・ウェア・センター正規化(DCR)からなるMixNormを提案する。
論文 参考訳(メタデータ) (2022-01-24T18:09:38Z) - Feature-based Style Randomization for Domain Generalization [27.15070576861912]
ドメイン一般化(Domain Generalization、DG)は、まず複数のソースドメイン上のジェネリックモデルを学習し、その後、追加の適応なしに任意の未確認ターゲットドメインに直接一般化することを目的としている。
本稿では,機能レベルの拡張を実現するために,シンプルだが効果的な特徴ベーススタイルのランダム化モジュールを開発する。
既存の画像レベルの拡張と比較して、我々の特徴レベルの拡張は、よりゴール指向でサンプルの多様性のある方法を好む。
論文 参考訳(メタデータ) (2021-06-06T16:34:44Z) - Learning to Generate Novel Domains for Domain Generalization [115.21519842245752]
本稿では,未知の領域によく一般化するモデルとして,複数のソースドメインから学習するタスクに焦点を当てる。
我々は、擬似ノーベル領域からデータを合成し、ソースドメインを増強するためにデータジェネレータを用いる。
我々の手法であるL2A-OTは、4つのベンチマークデータセット上で現在最先端のDG手法より優れています。
論文 参考訳(メタデータ) (2020-07-07T09:34:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。