論文の概要: Adversarial Style Augmentation for Domain Generalization
- arxiv url: http://arxiv.org/abs/2301.12643v1
- Date: Mon, 30 Jan 2023 03:52:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 15:43:23.576024
- Title: Adversarial Style Augmentation for Domain Generalization
- Title(参考訳): ドメイン一般化のための逆スタイル拡張
- Authors: Yabin Zhang, Bin Deng, Ruihuang Li, Kui Jia, Lei Zhang
- Abstract要約: 本稿では,より効率的な統計摂動を発生させることにより,より広いスタイル空間を探索する,新しいAdrial Style Augmentation (ASA)手法を提案する。
ASA の応用を容易にするため,プラグイン・アンド・プレイ方式で ASA メソッドをインスタンス化するシンプルなモジュールである AdvStyle を設計した。
本手法は,PACSデータセット上での単一ソース一般化条件下での競合よりも優れていた。
- 参考スコア(独自算出の注目度): 41.72506801753435
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: It is well-known that the performance of well-trained deep neural networks
may degrade significantly when they are applied to data with even slightly
shifted distributions. Recent studies have shown that introducing certain
perturbation on feature statistics (\eg, mean and standard deviation) during
training can enhance the cross-domain generalization ability. Existing methods
typically conduct such perturbation by utilizing the feature statistics within
a mini-batch, limiting their representation capability. Inspired by the domain
generalization objective, we introduce a novel Adversarial Style Augmentation
(ASA) method, which explores broader style spaces by generating more effective
statistics perturbation via adversarial training. Specifically, we first search
for the most sensitive direction and intensity for statistics perturbation by
maximizing the task loss. By updating the model against the adversarial
statistics perturbation during training, we allow the model to explore the
worst-case domain and hence improve its generalization performance. To
facilitate the application of ASA, we design a simple yet effective module,
namely AdvStyle, which instantiates the ASA method in a plug-and-play manner.
We justify the efficacy of AdvStyle on tasks of cross-domain classification and
instance retrieval. It achieves higher mean accuracy and lower performance
fluctuation. Especially, our method significantly outperforms its competitors
on the PACS dataset under the single source generalization setting, \eg,
boosting the classification accuracy from 61.2\% to 67.1\% with a ResNet50
backbone. Our code will be available at \url{https://github.com/YBZh/AdvStyle}.
- Abstract(参考訳): 十分に訓練されたディープニューラルネットワークの性能が、わずかにシフトした分布を持つデータに適用された場合、著しく低下することが知られている。
近年の研究では、訓練中に特徴統計量(平均偏差、標準偏差)に一定の摂動を導入することで、クロスドメインの一般化能力を高めることが示されている。
既存の手法は通常、ミニバッチ内の特徴統計を利用してそのような摂動を行い、その表現能力を制限する。
ドメイン一般化の目的に触発されて,より効果的な統計摂動を,対人訓練を通じて生成し,より広いスタイル空間を探索する新しいASA法を導入する。
具体的には,タスク損失を最大化することにより,統計摂動の最も敏感な方向と強度を探索する。
トレーニング中の逆数統計摂動に対してモデルを更新することにより、最悪のケース領域を探索し、一般化性能を向上させることができる。
ASA の応用を容易にするため,プラグイン・アンド・プレイ方式で ASA メソッドをインスタンス化するシンプルなモジュールである AdvStyle を設計した。
クロスドメイン分類とインスタンス検索のタスクにおけるAdvStyleの有効性を正当化する。
高い平均精度と低い性能変動を実現する。
特に,本手法は,single source generalization set, \eg におけるpacsデータセットにおいて,resnet50バックボーンを用いた分類精度を 61.2\% から 67.1\% に向上させた。
私たちのコードは \url{https://github.com/YBZh/AdvStyle} で利用可能です。
関連論文リスト
- Towards Robust Out-of-Distribution Generalization: Data Augmentation and Neural Architecture Search Approaches [4.577842191730992]
我々は、ディープラーニングのための堅牢なOoD一般化への道を探る。
まず,認識に必須でない特徴間の素早い相関を解消するための,新しい効果的なアプローチを提案する。
次に,OoDシナリオにおけるニューラルアーキテクチャ探索の強化問題について検討する。
論文 参考訳(メタデータ) (2024-10-25T20:50:32Z) - DoGE: Domain Reweighting with Generalization Estimation [42.32000165235568]
一般化推定(DoGE)を用いたDOmain再重み付けを提案する。
実験では、DoGEがベースモデルの一般化をターゲットデータ混合にどのように改善するかを広範囲に示す。
DoGEはドメイン間の依存関係を効果的に識別することができ、一貫してターゲットドメインにおけるテストの難易度を向上する。
論文 参考訳(メタデータ) (2023-10-23T22:51:58Z) - Activate and Reject: Towards Safe Domain Generalization under Category
Shift [71.95548187205736]
カテゴリーシフト(DGCS)下における領域一般化の実践的問題について検討する。
未知のクラスサンプルを同時に検出し、ターゲットドメイン内の既知のクラスサンプルを分類することを目的としている。
従来のDGと比較すると,1)ソースクラスのみを用いたトレーニングにおいて,未知の概念を学習する方法,2)ソーストレーニングされたモデルを未知の環境に適応する方法,の2つの新しい課題に直面している。
論文 参考訳(メタデータ) (2023-10-07T07:53:12Z) - Informative Data Mining for One-Shot Cross-Domain Semantic Segmentation [84.82153655786183]
Informative Data Mining (IDM) と呼ばれる新しいフレームワークを提案し、セマンティックセグメンテーションのための効率的なワンショットドメイン適応を実現する。
IDMは、最も情報性の高いサンプルを特定するために不確実性に基づく選択基準を提供し、迅速に適応し、冗長なトレーニングを減らす。
提案手法は,GTA5/SYNTHIAからCityscapesへの適応タスクにおいて,既存の手法より優れ,56.7%/55.4%の最先端のワンショット性能を実現している。
論文 参考訳(メタデータ) (2023-09-25T15:56:01Z) - When Neural Networks Fail to Generalize? A Model Sensitivity Perspective [82.36758565781153]
ドメイン一般化 (Domain Generalization, DG) は、異なる分布の下で見えないドメインでうまく機能するようにモデルを訓練することを目的としている。
本稿では,より現実的で,より困難なシナリオである単一領域一般化(Single-DG)について考察する。
我々は「モデル感度」と命名する一般化と強く相関するモデルの性質を経験的に確認する。
本稿では、高感度の周波数をターゲットとした拡張画像を生成するために、スペクトル逆データ拡張(SADA)の新たな戦略を提案する。
論文 参考訳(メタデータ) (2022-12-01T20:15:15Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Enhancing the Generalization for Intent Classification and Out-of-Domain
Detection in SLU [70.44344060176952]
インテント分類は、音声言語理解(SLU)における主要な課題である
近年の研究では、余分なデータやラベルを使用することで、OOD検出性能が向上することが示されている。
本稿では、IND意図分類とOOD検出の両方をサポートしながら、INDデータのみを用いてモデルを訓練することを提案する。
論文 参考訳(メタデータ) (2021-06-28T08:27:38Z) - HiddenCut: Simple Data Augmentation for Natural Language Understanding
with Better Generalization [36.36061533271373]
タスク固有のデータで訓練済みの大規模モデルを微調整することで、NLPで大きな成功を収めた。
我々は、モデルをより良く正規化し、より一般化可能な機能を学ぶことを奨励する、シンプルで効果的なデータ拡張手法であるHiddenCutを提案する。
実験の結果,HiddenCut 法は GLUE ベンチマークの最先端拡張法よりも優れていた。
論文 参考訳(メタデータ) (2021-05-31T23:57:43Z) - RobustNet: Improving Domain Generalization in Urban-Scene Segmentation
via Instance Selective Whitening [40.98892593362837]
ディープニューラルネットワークの未認識領域への一般化能力の強化は、自動運転のような現実世界における安全性クリティカルな応用に不可欠である。
本稿では,未知領域のセグメンテーションネットワークのロバスト性を改善するために,新しいインスタンス選択型ホワイトニング損失を提案する。
論文 参考訳(メタデータ) (2021-03-29T13:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。