論文の概要: MixStyle Neural Networks for Domain Generalization and Adaptation
- arxiv url: http://arxiv.org/abs/2107.02053v1
- Date: Mon, 5 Jul 2021 14:29:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 15:24:56.668583
- Title: MixStyle Neural Networks for Domain Generalization and Adaptation
- Title(参考訳): MixStyle Neural Networks for Domain Generalization and Adaptation
- Authors: Kaiyang Zhou, Yongxin Yang, Yu Qiao, Tao Xiang
- Abstract要約: MixStyleはプラグイン・アンド・プレイのパラメータフリーモジュールで、浅いCNN層に簡単に挿入できる。
そこで,MixStyleは,様々なタスクにまたがる分布外一般化性能を大幅に向上させることができることを示す。
- 参考スコア(独自算出の注目度): 120.52367818581608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks (CNNs) often have poor generalization
performance under domain shift. One way to improve domain generalization is to
collect diverse source data from multiple relevant domains so that a CNN model
is allowed to learn more domain-invariant, and hence generalizable
representations. In this work, we address domain generalization with MixStyle,
a plug-and-play, parameter-free module that is simply inserted to shallow CNN
layers and requires no modification to training objectives. Specifically,
MixStyle probabilistically mixes feature statistics between instances. This
idea is inspired by the observation that visual domains can often be
characterized by image styles which are in turn encapsulated within
instance-level feature statistics in shallow CNN layers. Therefore, inserting
MixStyle modules in effect synthesizes novel domains albeit in an implicit way.
MixStyle is not only simple and flexible, but also versatile -- it can be used
for problems whereby unlabeled images are available, such as semi-supervised
domain generalization and unsupervised domain adaptation, with a simple
extension to mix feature statistics between labeled and pseudo-labeled
instances. We demonstrate through extensive experiments that MixStyle can
significantly boost the out-of-distribution generalization performance across a
wide range of tasks including object recognition, instance retrieval, and
reinforcement learning.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)はドメインシフト下での一般化性能が劣ることが多い。
ドメインの一般化を改善する1つの方法は、複数の関連するドメインから多様なソースデータを収集し、cnnモデルがよりドメイン不変性を学ぶことができ、したがって一般化可能な表現を得ることである。
本研究では, 浅いCNN層に簡単に挿入でき, トレーニング対象の変更を必要としない, プラグアンドプレイでパラメータフリーなモジュールであるMixStyleを用いて, ドメインの一般化を行う。
具体的には、MixStyleはインスタンス間で機能統計を確率的に混ぜる。
この考え方は、視覚領域はしばしば、浅いCNN層のインスタンスレベルの特徴統計にカプセル化されるイメージスタイルによって特徴づけられるという観察にインスパイアされている。
そのため、MixStyleモジュールを効果的に挿入すると、暗黙的に新しいドメインが合成される。
MixStyleは単純でフレキシブルなだけでなく、半教師なしのドメイン一般化や教師なしのドメイン適応といった、ラベル付きインスタンスと疑似ラベル付きインスタンスの間に特徴統計を混ぜるシンプルな拡張で、ラベルなしのイメージが利用できる問題にも利用できる。
我々は、MixStyleが、オブジェクト認識、インスタンス検索、強化学習を含む幅広いタスクにおいて、配布外一般化性能を大幅に向上できることを示す。
関連論文リスト
- StyDeSty: Min-Max Stylization and Destylization for Single Domain Generalization [85.18995948334592]
単一のドメインの一般化(単一DG)は、単一のトレーニングドメインからのみ見えないドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
最先端のアプローチは、主に新しいデータを合成するために、敵対的な摂動やスタイルの強化といったデータ拡張に頼っている。
データ拡張の過程で、ソースと擬似ドメインのアライメントを明示的に考慮したemphStyDeStyを提案する。
論文 参考訳(メタデータ) (2024-06-01T02:41:34Z) - TFS-ViT: Token-Level Feature Stylization for Domain Generalization [17.82872117103924]
視覚変換器(ViT)は、幅広いコンピュータビジョンタスクにおいて優れた性能を示している。
本稿では,ドメイン一般化のためのToken-level Feature Stylization (TFS-ViT) アプローチを提案する。
提案手法は,異なる領域の画像の正規化統計を混合することによりトークンの特徴を変換する。
論文 参考訳(メタデータ) (2023-03-28T03:00:28Z) - Adversarial Style Augmentation for Domain Generalization [41.72506801753435]
本稿では,より効率的な統計摂動を発生させることにより,より広いスタイル空間を探索する,新しいAdrial Style Augmentation (ASA)手法を提案する。
ASA の応用を容易にするため,プラグイン・アンド・プレイ方式で ASA メソッドをインスタンス化するシンプルなモジュールである AdvStyle を設計した。
本手法は,PACSデータセット上での単一ソース一般化条件下での競合よりも優れていた。
論文 参考訳(メタデータ) (2023-01-30T03:52:16Z) - Domain-incremental Cardiac Image Segmentation with Style-oriented Replay
and Domain-sensitive Feature Whitening [67.6394526631557]
M&Mは、各受信データセットから漸進的に学習し、時間が経つにつれて改善された機能で漸進的に更新する必要がある。
医学的シナリオでは、データのプライバシのため、過去のデータへのアクセスや保存が一般的に許可されないため、これは特に困難である。
本稿では,まず過去のドメイン入力を復元し,モデル最適化中に定期的に再生する新しいドメイン増分学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-09T13:07:36Z) - FIXED: Frustratingly Easy Domain Generalization with Mixup [53.782029033068675]
ドメイン一般化(Domain Generalization, DG)は、複数のトレーニングドメインから一般化可能なモデルを学ぶことを目的としている。
一般的な戦略は、Mixupcitezhang 2018mixupのようなメソッドによる一般化のためにトレーニングデータを拡張することである。
我々は、MixupベースのDG、すなわちドメイン不変の特徴mIXup(FIX)の簡易かつ効果的な拡張を提案する。
提案手法は,9つの最先端手法よりも優れており,試験精度の面では,ベースラインの平均6.5%を上回っている。
論文 参考訳(メタデータ) (2022-11-07T09:38:34Z) - Semi-supervised Meta-learning with Disentanglement for
Domain-generalised Medical Image Segmentation [15.351113774542839]
新たなセンター(ここではドメイン)からの新しいデータにモデルを一般化することは、依然として課題である。
本稿では,絡み合いを伴う半教師付きメタラーニングフレームワークを提案する。
提案手法は,異なるセグメンテーションタスクに対して頑健であり,2つの公開ベンチマーク上での最先端の一般化性能を実現する。
論文 参考訳(メタデータ) (2021-06-24T19:50:07Z) - Domain Generalization with MixStyle [120.52367818581608]
ドメインの一般化(domain generalization)は、ソースドメインのセットから学習することでこの問題に対処しようとしている。
MixStyleと呼ばれるこの手法は、視覚領域が画像スタイルと密接に関連しているという観察によって動機づけられる。
MixStyleは、ミニバッチトレーニングに完全に適合し、実装が非常に簡単です。
論文 参考訳(メタデータ) (2021-04-05T16:58:09Z) - i-Mix: A Domain-Agnostic Strategy for Contrastive Representation
Learning [117.63815437385321]
対照的な表現学習を改善するために, 単純で効果的なドメインに依存しない正規化戦略i-Mixを提案する。
実験では、i-Mixはドメイン間の学習表現の質を一貫して改善することを示した。
論文 参考訳(メタデータ) (2020-10-17T23:32:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。