論文の概要: MixStyle Neural Networks for Domain Generalization and Adaptation
- arxiv url: http://arxiv.org/abs/2107.02053v2
- Date: Fri, 15 Sep 2023 16:42:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 19:26:56.596338
- Title: MixStyle Neural Networks for Domain Generalization and Adaptation
- Title(参考訳): ドメイン一般化と適応のための混合型ニューラルネットワーク
- Authors: Kaiyang Zhou, Yongxin Yang, Yu Qiao, Tao Xiang
- Abstract要約: MixStyleは、データ収集やモデルのキャパシティ向上を必要とせずに、ドメインの一般化性能を向上させるプラグイン・アンド・プレイモジュールである。
実験の結果,MixStyleは画像認識,インスタンス検索,強化学習など幅広いタスクにおいて,分布外一般化性能を大幅に向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 122.36901703868321
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks do not generalize well to unseen data with domain shifts -- a
longstanding problem in machine learning and AI. To overcome the problem, we
propose MixStyle, a simple plug-and-play, parameter-free module that can
improve domain generalization performance without the need to collect more data
or increase model capacity. The design of MixStyle is simple: it mixes the
feature statistics of two random instances in a single forward pass during
training. The idea is grounded by the finding from recent style transfer
research that feature statistics capture image style information, which
essentially defines visual domains. Therefore, mixing feature statistics can be
seen as an efficient way to synthesize new domains in the feature space, thus
achieving data augmentation. MixStyle is easy to implement with a few lines of
code, does not require modification to training objectives, and can fit a
variety of learning paradigms including supervised domain generalization,
semi-supervised domain generalization, and unsupervised domain adaptation. Our
experiments show that MixStyle can significantly boost out-of-distribution
generalization performance across a wide range of tasks including image
recognition, instance retrieval and reinforcement learning.
- Abstract(参考訳): ニューラルネットワークは、ドメインシフトによる見当たらないデータ -- マシンラーニングとAIの長年の問題 -- に対して、十分に一般化されていない。
この問題を解決するために,MixStyleを提案する。MixStyleは,データ収集やモデルキャパシティの向上を必要とせずに,ドメインの一般化性能を向上させる,シンプルなプラグアンドプレイ・パラメータフリーモジュールである。
MixStyleの設計は単純で、トレーニング中に1回のフォワードパスで2つのランダムインスタンスの機能統計を混合する。
このアイデアは、視覚領域を本質的に定義した画像スタイル情報を、特徴統計でキャプチャする最近のスタイル転送研究から生まれたものである。
したがって、混合特徴統計は、機能空間における新しいドメインを合成する効率的な方法と見なすことができ、データ拡張を実現することができる。
MixStyleは、数行のコードで簡単に実装でき、トレーニング対象を変更する必要がなく、教師付きドメインの一般化、半教師付きドメインの一般化、教師なしドメインの適応など、さまざまな学習パラダイムに適合する。
実験の結果,mixstyleは,画像認識やインスタンス検索,強化学習など,幅広いタスクにわたる分散汎化性能を大幅に向上させることができることがわかった。
関連論文リスト
- StyDeSty: Min-Max Stylization and Destylization for Single Domain Generalization [85.18995948334592]
単一のドメインの一般化(単一DG)は、単一のトレーニングドメインからのみ見えないドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
最先端のアプローチは、主に新しいデータを合成するために、敵対的な摂動やスタイルの強化といったデータ拡張に頼っている。
データ拡張の過程で、ソースと擬似ドメインのアライメントを明示的に考慮したemphStyDeStyを提案する。
論文 参考訳(メタデータ) (2024-06-01T02:41:34Z) - TFS-ViT: Token-Level Feature Stylization for Domain Generalization [17.82872117103924]
視覚変換器(ViT)は、幅広いコンピュータビジョンタスクにおいて優れた性能を示している。
本稿では,ドメイン一般化のためのToken-level Feature Stylization (TFS-ViT) アプローチを提案する。
提案手法は,異なる領域の画像の正規化統計を混合することによりトークンの特徴を変換する。
論文 参考訳(メタデータ) (2023-03-28T03:00:28Z) - Adversarial Style Augmentation for Domain Generalization [41.72506801753435]
本稿では,より効率的な統計摂動を発生させることにより,より広いスタイル空間を探索する,新しいAdrial Style Augmentation (ASA)手法を提案する。
ASA の応用を容易にするため,プラグイン・アンド・プレイ方式で ASA メソッドをインスタンス化するシンプルなモジュールである AdvStyle を設計した。
本手法は,PACSデータセット上での単一ソース一般化条件下での競合よりも優れていた。
論文 参考訳(メタデータ) (2023-01-30T03:52:16Z) - Domain-incremental Cardiac Image Segmentation with Style-oriented Replay
and Domain-sensitive Feature Whitening [67.6394526631557]
M&Mは、各受信データセットから漸進的に学習し、時間が経つにつれて改善された機能で漸進的に更新する必要がある。
医学的シナリオでは、データのプライバシのため、過去のデータへのアクセスや保存が一般的に許可されないため、これは特に困難である。
本稿では,まず過去のドメイン入力を復元し,モデル最適化中に定期的に再生する新しいドメイン増分学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-09T13:07:36Z) - FIXED: Frustratingly Easy Domain Generalization with Mixup [53.782029033068675]
ドメイン一般化(Domain Generalization, DG)は、複数のトレーニングドメインから一般化可能なモデルを学ぶことを目的としている。
一般的な戦略は、Mixupcitezhang 2018mixupのようなメソッドによる一般化のためにトレーニングデータを拡張することである。
我々は、MixupベースのDG、すなわちドメイン不変の特徴mIXup(FIX)の簡易かつ効果的な拡張を提案する。
提案手法は,9つの最先端手法よりも優れており,試験精度の面では,ベースラインの平均6.5%を上回っている。
論文 参考訳(メタデータ) (2022-11-07T09:38:34Z) - Semi-supervised Meta-learning with Disentanglement for
Domain-generalised Medical Image Segmentation [15.351113774542839]
新たなセンター(ここではドメイン)からの新しいデータにモデルを一般化することは、依然として課題である。
本稿では,絡み合いを伴う半教師付きメタラーニングフレームワークを提案する。
提案手法は,異なるセグメンテーションタスクに対して頑健であり,2つの公開ベンチマーク上での最先端の一般化性能を実現する。
論文 参考訳(メタデータ) (2021-06-24T19:50:07Z) - Domain Generalization with MixStyle [120.52367818581608]
ドメインの一般化(domain generalization)は、ソースドメインのセットから学習することでこの問題に対処しようとしている。
MixStyleと呼ばれるこの手法は、視覚領域が画像スタイルと密接に関連しているという観察によって動機づけられる。
MixStyleは、ミニバッチトレーニングに完全に適合し、実装が非常に簡単です。
論文 参考訳(メタデータ) (2021-04-05T16:58:09Z) - i-Mix: A Domain-Agnostic Strategy for Contrastive Representation
Learning [117.63815437385321]
対照的な表現学習を改善するために, 単純で効果的なドメインに依存しない正規化戦略i-Mixを提案する。
実験では、i-Mixはドメイン間の学習表現の質を一貫して改善することを示した。
論文 参考訳(メタデータ) (2020-10-17T23:32:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。