論文の概要: Single Domain Generalization with Adversarial Memory
- arxiv url: http://arxiv.org/abs/2503.06288v1
- Date: Sat, 08 Mar 2025 17:27:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:51:27.699325
- Title: Single Domain Generalization with Adversarial Memory
- Title(参考訳): 逆記憶を用いた単一領域の一般化
- Authors: Hao Yan, Marzi Heidari, Yuhong Guo,
- Abstract要約: ドメイン一般化(Domain Generalization, DG)は、複数のトレーニングドメインからのデータを活用することで、目に見えないテストドメインに一般化可能なモデルをトレーニングすることを目的としている。
従来のDGメソッドは、複数の多様なトレーニングドメインの可用性に依存しており、データ制約のあるシナリオで適用性を制限する。
本稿では,敵対的メモリバンクを利用してトレーニング機能を増強する単一領域一般化手法を提案する。
- 参考スコア(独自算出の注目度): 28.55618508655301
- License:
- Abstract: Domain Generalization (DG) aims to train models that can generalize to unseen testing domains by leveraging data from multiple training domains. However, traditional DG methods rely on the availability of multiple diverse training domains, limiting their applicability in data-constrained scenarios. Single Domain Generalization (SDG) addresses the more realistic and challenging setting by restricting the training data to a single domain distribution. The main challenges in SDG stem from the limited diversity of training data and the inaccessibility of unseen testing data distributions. To tackle these challenges, we propose a single domain generalization method that leverages an adversarial memory bank to augment training features. Our memory-based feature augmentation network maps both training and testing features into an invariant subspace spanned by diverse memory features, implicitly aligning the training and testing domains in the projected space. To maintain a diverse and representative feature memory bank, we introduce an adversarial feature generation method that creates features extending beyond the training domain distribution. Experimental results demonstrate that our approach achieves state-of-the-art performance on standard single domain generalization benchmarks.
- Abstract(参考訳): ドメイン一般化(Domain Generalization, DG)は、複数のトレーニングドメインからのデータを活用することで、目に見えないテストドメインに一般化可能なモデルをトレーニングすることを目的としている。
しかしながら、従来のDGメソッドは、複数の多様なトレーニングドメインの可用性に依存しており、データ制約のあるシナリオにおける適用性を制限している。
単一ドメイン一般化(SDG)は、トレーニングデータを単一のドメイン分布に制限することで、より現実的で困難な設定に対処する。
SDGの主な課題は、トレーニングデータの多様性が限られていることと、目に見えないテストデータディストリビューションが利用できないことにある。
これらの課題に対処するために,敵対的メモリバンクを利用してトレーニング機能を増強する単一領域一般化手法を提案する。
メモリベースの機能拡張ネットワークは、トレーニングとテストの両方を、さまざまなメモリ機能にまたがる不変部分空間にマッピングし、投影された空間内のトレーニングとテストドメインを暗黙的に整列させます。
多様な代表的特徴記憶バンクを維持するために,学習領域の分布を超えて機能を生成する対角的特徴生成手法を提案する。
実験により,本手法は標準単一領域一般化ベンチマークの最先端性能を実現することを示す。
関連論文リスト
- Commute Your Domains: Trajectory Optimality Criterion for Multi-Domain Learning [50.80758278865274]
マルチドメイン学習では、共有知識を活用し、一般化を改善するために、多様なデータドメインで単一のモデルを訓練する。
これらのドメインからのデータがトレーニングに使用される順序は、各ドメインにおけるモデルの性能に大きく影響します。
勾配ベクトル場のリーブラケットの概念を用いたマルチドメイン学習における訓練順序(またはデータ混合)の影響について検討する。
論文 参考訳(メタデータ) (2025-01-26T15:12:06Z) - DIGIC: Domain Generalizable Imitation Learning by Causal Discovery [69.13526582209165]
因果性は機械学習と組み合わせて、ドメインの一般化のための堅牢な表現を生成する。
我々は、実証データ分布を活用して、ドメインの一般化可能なポリシーの因果的特徴を発見するために、異なる試みを行っている。
DIGICと呼ばれる新しいフレームワークを設計し、実演データ分布から専門家行動の直接的な原因を見出すことにより因果的特徴を識別する。
論文 参考訳(メタデータ) (2024-02-29T07:09:01Z) - A Novel Cross-Perturbation for Single Domain Generalization [54.612933105967606]
単一ドメインの一般化は、モデルが単一のソースドメインでトレーニングされたときに未知のドメインに一般化する能力を高めることを目的としている。
トレーニングデータの限られた多様性は、ドメイン不変の特徴の学習を妨げ、結果として一般化性能を損なう。
トレーニングデータの多様性を高めるために,CPerbを提案する。
論文 参考訳(メタデータ) (2023-08-02T03:16:12Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - Gated Domain Units for Multi-source Domain Generalization [14.643490853965385]
分散シフト(DS)は、テスト時のデータセットとトレーニング時のデータセットが異なる場合に発生する。
GDU(Gated Domain Units)で構成されるモジュール型ニューラルネットワークレイヤを導入し,各潜伏する基本分布の表現を学習する。
推論中、各基本分布の表現と新しい観測結果を比較することで、重み付けされた学習機械のアンサンブルを作成することができる。
論文 参考訳(メタデータ) (2022-06-24T18:12:38Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Robust Domain-Free Domain Generalization with Class-aware Alignment [4.442096198968069]
ドメインフリードメイン一般化(DFDG)は、目に見えないテストドメインでより良い一般化性能を実現するモデル非依存の方法である。
DFDGは新しい戦略を用いてドメイン不変なクラス差別的特徴を学習する。
時系列センサと画像分類公開データセットの両方で競合性能を得る。
論文 参考訳(メタデータ) (2021-02-17T17:46:06Z) - Batch Normalization Embeddings for Deep Domain Generalization [50.51405390150066]
ドメインの一般化は、異なるドメインと見えないドメインで堅牢に実行されるように機械学習モデルをトレーニングすることを目的としている。
一般的な領域一般化ベンチマークにおいて,最先端技術よりも分類精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2020-11-25T12:02:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。