論文の概要: Learning to Diversify for Single Domain Generalization
- arxiv url: http://arxiv.org/abs/2108.11726v3
- Date: Wed, 22 Mar 2023 09:13:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 07:35:43.477268
- Title: Learning to Diversify for Single Domain Generalization
- Title(参考訳): 単一ドメインの一般化のための多様性の学習
- Authors: Zijian Wang, Yadan Luo, Ruihong Qiu, Zi Huang, Mahsa Baktashmotlagh
- Abstract要約: ドメイン一般化(DG)は、複数のソース(トレーニング)ドメインで訓練されたモデルを、分散的に異なるターゲット(テスト)ドメインに一般化することを目的としている。
本稿では、より現実的で困難なシナリオ、すなわちSingle-DG(Single-DG)について考察する。
このシナリオでは、限られた多様性は、目に見えないターゲット領域上のモデル一般化を危険にさらす可能性がある。
そこで本研究では,ソースコードに相補的な多種多様な分布の画像を合成することにより,モデルの一般化能力を高めるためのスタイル補完モジュールを提案する。
- 参考スコア(独自算出の注目度): 46.35670520201863
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain generalization (DG) aims to generalize a model trained on multiple
source (i.e., training) domains to a distributionally different target (i.e.,
test) domain. In contrast to the conventional DG that strictly requires the
availability of multiple source domains, this paper considers a more realistic
yet challenging scenario, namely Single Domain Generalization (Single-DG),
where only one source domain is available for training. In this scenario, the
limited diversity may jeopardize the model generalization on unseen target
domains. To tackle this problem, we propose a style-complement module to
enhance the generalization power of the model by synthesizing images from
diverse distributions that are complementary to the source ones. More
specifically, we adopt a tractable upper bound of mutual information (MI)
between the generated and source samples and perform a two-step optimization
iteratively: (1) by minimizing the MI upper bound approximation for each sample
pair, the generated images are forced to be diversified from the source
samples; (2) subsequently, we maximize the MI between the samples from the same
semantic category, which assists the network to learn discriminative features
from diverse-styled images. Extensive experiments on three benchmark datasets
demonstrate the superiority of our approach, which surpasses the
state-of-the-art single-DG methods by up to 25.14%.
- Abstract(参考訳): ドメイン一般化(DG)は、複数のソース(トレーニング)ドメインで訓練されたモデルを、分散的に異なるターゲット(テスト)ドメインに一般化することを目的としている。
本稿では、複数のソースドメインの可用性を厳密に要求する従来のDGとは対照的に、より現実的で困難なシナリオである単一ドメイン一般化(Single-DG)について考察する。
このシナリオでは、限られた多様性は、目に見えないターゲット領域上のモデルの一般化を阻害する可能性がある。
この問題に対処するため,本稿では,原点と相補的な多様な分布の画像を合成することにより,モデルの一般化能力を高めるためのスタイル補完モジュールを提案する。
より具体的には、生成したサンプルとソースの相互情報(MI)のトラクタブルな上限を適用して、2段階の最適化を反復的に実施する。(1) サンプルペアごとにMI上限近似を最小化することにより、生成した画像はソースサンプルから多様化せざるを得なくなり、(2) 同一セマンティックカテゴリのサンプル間でMIを最大化し、ネットワークが多様なスタイルの画像から識別的特徴を学習するのに役立つ。
3つのベンチマークデータセットに対する大規模な実験は、最先端のシングルDGメソッドを最大25.14%上回るアプローチの優位性を示している。
関連論文リスト
- PracticalDG: Perturbation Distillation on Vision-Language Models for Hybrid Domain Generalization [24.413415998529754]
本稿では,Hybrid Domain Generalization (HDG) と,アルゴリズムのロバスト性を評価するために,様々な分割を構成する新しい指標である$H2$-CVを提案する。
提案手法は,複数のデータセット上での最先端アルゴリズムよりも優れており,特にデータ不足に直面する場合のロバスト性の向上に寄与する。
論文 参考訳(メタデータ) (2024-04-13T13:41:13Z) - Uncertainty-guided Contrastive Learning for Single Source Domain Generalisation [15.907643838530655]
本稿では,Contrastive Uncertainty Domain Generalisation Network(CUDGNet)と呼ばれる新しいモデルを紹介する。
鍵となるアイデアは、架空のドメインジェネレータを通じて、入力空間とラベル空間の両方のソース容量を増大させることである。
また,提案手法は,1つのフォワードパスからジェネレータサブネットワークを経由した推論時間における効率的な不確実性推定も提供する。
論文 参考訳(メタデータ) (2024-03-12T10:47:45Z) - Modality-Agnostic Debiasing for Single Domain Generalization [105.60451710436735]
単一DGのための多目的モダリティ・アグノスティック・デバイアス(MAD)フレームワークを提案する。
その結果,MADはDSUを2.82%改善し,精度とmIOUは1.5%向上した。
さらに驚くべきことに、3Dポイントの雲の認識と2D画像のセマンティックセグメンテーションのために、MADはDSUを1.5%精度とmIOUで改善する。
論文 参考訳(メタデータ) (2023-03-13T13:56:11Z) - Causality-based Dual-Contrastive Learning Framework for Domain
Generalization [16.81075442901155]
ドメイン一般化(Domain Generalization, DG)は、本質的には分布外一般化のサブブランチである。
本稿では,機能およびプロトタイプのコントラストを考慮したDCL(Dual-Contrastive Learning)モジュールを提案する。
また、多様性シフトに関する情報を活用するために、類似性に基づくハードペアマイニング(SHM)戦略も導入する。
論文 参考訳(メタデータ) (2023-01-22T13:07:24Z) - Adaptive Domain Generalization via Online Disagreement Minimization [17.215683606365445]
ドメインの一般化は、モデルを目に見えないターゲットのドメインに安全に転送することを目的としています。
AdaODMは、異なるターゲットドメインに対するテスト時にソースモデルを適応的に修正する。
その結果,AdaODMは未確認領域の一般化能力を安定的に向上することがわかった。
論文 参考訳(メタデータ) (2022-08-03T11:51:11Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - A Novel Mix-normalization Method for Generalizable Multi-source Person
Re-identification [49.548815417844786]
人物再識別(Re-ID)は、監督されたシナリオにおいて大きな成功を収めた。
モデルがソースドメインに過度に適合するため、教師付きモデルを任意の未確認領域に直接転送することは困難である。
ドメイン・アウェア・ミックス正規化(DMN)とドメイン・ウェア・センター正規化(DCR)からなるMixNormを提案する。
論文 参考訳(メタデータ) (2022-01-24T18:09:38Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Dual Distribution Alignment Network for Generalizable Person
Re-Identification [174.36157174951603]
ドメイン一般化(DG)は、人物再識別(Re-ID)を扱うための有望なソリューションとして機能する
本稿では、複数のソースドメインの分布を選択的に整列させることにより、この問題に対処するDual Distribution Alignment Network(DDAN)を提案する。
大規模なDomain Generalization Re-ID(DG Re-ID)ベンチマークでDDANを評価した。
論文 参考訳(メタデータ) (2020-07-27T00:08:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。