論文の概要: Adversarially Adaptive Normalization for Single Domain Generalization
- arxiv url: http://arxiv.org/abs/2106.01899v1
- Date: Tue, 1 Jun 2021 23:58:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 16:07:47.917278
- Title: Adversarially Adaptive Normalization for Single Domain Generalization
- Title(参考訳): 可逆適応正規化による単一領域一般化
- Authors: Xinjie Fan, Qifei Wang, Junjie Ke, Feng Yang, Boqing Gong, Mingyuan
Zhou
- Abstract要約: 一般化正規化アプローチ,適応標準化と再スケーリング正規化(ASR-Norm)を提案する。
ASR-Normは、ニューラルネットワークを介して標準化と再スケーリングの統計学を学ぶ。
ASR-Normは最先端のADAアプローチに一貫した改善をもたらすことを示す。
- 参考スコア(独自算出の注目度): 71.80587939738672
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single domain generalization aims to learn a model that performs well on many
unseen domains with only one domain data for training. Existing works focus on
studying the adversarial domain augmentation (ADA) to improve the model's
generalization capability. The impact on domain generalization of the
statistics of normalization layers is still underinvestigated. In this paper,
we propose a generic normalization approach, adaptive standardization and
rescaling normalization (ASR-Norm), to complement the missing part in previous
works. ASR-Norm learns both the standardization and rescaling statistics via
neural networks. This new form of normalization can be viewed as a generic form
of the traditional normalizations. When trained with ADA, the statistics in
ASR-Norm are learned to be adaptive to the data coming from different domains,
and hence improves the model generalization performance across domains,
especially on the target domain with large discrepancy from the source domain.
The experimental results show that ASR-Norm can bring consistent improvement to
the state-of-the-art ADA approaches by 1.6%, 2.7%, and 6.3% averagely on the
Digits, CIFAR-10-C, and PACS benchmarks, respectively. As a generic tool, the
improvement introduced by ASR-Norm is agnostic to the choice of ADA methods.
- Abstract(参考訳): 単一ドメインの一般化は、トレーニング用の1つのドメインデータだけで、見えない多くのドメインでうまく機能するモデルを学ぶことを目的としています。
既存の研究は、モデルの一般化能力を改善するために、adversarial domain augmentation (ada)の研究に焦点を当てている。
正規化層の統計の領域一般化への影響はいまだ検討されていない。
本稿では,従来の研究の欠如を補うために,一般化正規化アプローチ,適応標準化と再スケーリング正規化(ASR-Norm)を提案する。
ASR-Normは、ニューラルネットワークを介して標準化と再スケーリングの統計学を学ぶ。
この新しい正規化の形式は、伝統的な正規化の一般的な形式と見なすことができる。
ADAでトレーニングすると、ASR-Normの統計は異なるドメインから来るデータに適応することが学習され、したがって、特にソースドメインと大きな差があるターゲットドメインにおいて、ドメイン間でのモデルの一般化性能が向上する。
実験の結果,asr-normは平均1.6%,2.7%,6.3%,cifar-10-c,pacsベンチマークにおいて,最先端adaアプローチに一貫した改善をもたらすことがわかった。
一般的なツールとして、ASR-Normによって導入された改善はADAメソッドの選択に依存しない。
関連論文リスト
- Domain Generalization via Nuclear Norm Regularization [38.18747924656019]
領域一般化のための学習特徴の核ノルムに基づく単純かつ効果的な正則化法を提案する。
核ノルム正規化は,幅広い領域の一般化タスクにおいて,ベースラインと比較して高い性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-03-13T23:30:48Z) - Zero-Shot Anomaly Detection via Batch Normalization [58.291409630995744]
多くの安全クリティカルなアプリケーションドメインでは、異常検出が重要な役割を果たす。
異常検出器を正常なデータ分布でドリフトに適応させることの課題は、ゼロショットAD技術の開発に繋がった。
ゼロショットバッチレベルのADに対して,適応中心表現(Adaptive Centered Representation, ACR)と呼ばれるシンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T18:34:15Z) - When Neural Networks Fail to Generalize? A Model Sensitivity Perspective [82.36758565781153]
ドメイン一般化 (Domain Generalization, DG) は、異なる分布の下で見えないドメインでうまく機能するようにモデルを訓練することを目的としている。
本稿では,より現実的で,より困難なシナリオである単一領域一般化(Single-DG)について考察する。
我々は「モデル感度」と命名する一般化と強く相関するモデルの性質を経験的に確認する。
本稿では、高感度の周波数をターゲットとした拡張画像を生成するために、スペクトル逆データ拡張(SADA)の新たな戦略を提案する。
論文 参考訳(メタデータ) (2022-12-01T20:15:15Z) - Reciprocal Normalization for Domain Adaptation [31.293016830229313]
バッチ正規化(BN)は、現代のディープニューラルネットワークで広く使われている。
本稿では,新たな正規化手法であるReciprocal Normalization(RN)を提案する。
RNはUDA問題に適しており、一般的なドメイン適応手法に容易に組み込むことができる。
論文 参考訳(メタデータ) (2021-12-20T12:17:22Z) - Improving Multi-Domain Generalization through Domain Re-labeling [31.636953426159224]
本稿では,事前特定ドメインラベルと一般化性能の関連性について検討する。
マルチドメイン一般化のための一般的なアプローチであるMulDEnsを導入し,ERMをベースとした深層アンサンブルバックボーンを用いた。
我々は、MulDEnsがデータセット固有の拡張戦略やトレーニングプロセスの調整を必要としないことを示す。
論文 参考訳(メタデータ) (2021-12-17T23:21:50Z) - Towards Principled Disentanglement for Domain Generalization [90.9891372499545]
機械学習モデルの根本的な課題は、アウト・オブ・ディストリビューション(OOD)データへの一般化である。
私たちはまず、DEC(Disentanglement-Constrained Domain Generalization)と呼ばれる制約付き最適化としてOOD一般化問題を定式化する。
この変換に基づいて、結合表現の不絡合と領域一般化のための原始双対アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-27T07:36:32Z) - Adaptive Domain-Specific Normalization for Generalizable Person
Re-Identification [81.30327016286009]
一般化可能なRe-IDのための適応型ドメイン固有正規化手法(AdsNorm)を提案する。
本研究では,一般化可能人物 Re-ID に対する適応領域特異的正規化手法 (AdsNorm) を提案する。
論文 参考訳(メタデータ) (2021-05-07T02:54:55Z) - SelfReg: Self-supervised Contrastive Regularization for Domain
Generalization [7.512471799525974]
対照的学習,自己教師付きコントラスト正規化(SelfReg)に基づく領域一般化のための新しい正規化手法を提案する。
提案手法は正のデータペアのみを用いるため,負のペアサンプリングによって生じる様々な問題を解消する。
最近のベンチマークであるDomainBedでは、提案手法は従来の最先端技術に匹敵する性能を示している。
論文 参考訳(メタデータ) (2021-04-20T09:08:29Z) - Adaptive Risk Minimization: Learning to Adapt to Domain Shift [109.87561509436016]
ほとんどの機械学習アルゴリズムの基本的な前提は、トレーニングとテストデータは、同じ基礎となる分布から引き出されることである。
本研究では,学習データをドメインに構造化し,複数のテスト時間シフトが存在する場合の領域一般化の問題点について考察する。
本稿では、適応リスク最小化(ARM)の枠組みを紹介し、モデルがトレーニング領域に適応することを学ぶことで、効果的な適応のために直接最適化される。
論文 参考訳(メタデータ) (2020-07-06T17:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。