論文の概要: ADRMX: Additive Disentanglement of Domain Features with Remix Loss
- arxiv url: http://arxiv.org/abs/2308.06624v1
- Date: Sat, 12 Aug 2023 17:52:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-08-15 16:13:02.519442
- Title: ADRMX: Additive Disentanglement of Domain Features with Remix Loss
- Title(参考訳): ADRMX: リミックス損失を伴うドメイン機能の追加的アンタングル
- Authors: Berker Demirel, Erchan Aptoula and Huseyin Ozkan
- Abstract要約: ドメインの一般化は、新しい目に見えないドメインに一般化できる堅牢なモデルを作成することを目的としている。
本稿では,Remix Lossによるドメイン特徴の付加的分散という新しいアーキテクチャについて述べる。
- 参考スコア(独自算出の注目度): 7.206800397427553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The common assumption that train and test sets follow similar distributions
is often violated in deployment settings. Given multiple source domains, domain
generalization aims to create robust models capable of generalizing to new
unseen domains. To this end, most of existing studies focus on extracting
domain invariant features across the available source domains in order to
mitigate the effects of inter-domain distributional changes. However, this
approach may limit the model's generalization capacity by relying solely on
finding common features among the source domains. It overlooks the potential
presence of domain-specific characteristics that could be prevalent in a subset
of domains, potentially containing valuable information. In this work, a novel
architecture named Additive Disentanglement of Domain Features with Remix Loss
(ADRMX) is presented, which addresses this limitation by incorporating domain
variant features together with the domain invariant ones using an original
additive disentanglement strategy. Moreover, a new data augmentation technique
is introduced to further support the generalization capacity of ADRMX, where
samples from different domains are mixed within the latent space. Through
extensive experiments conducted on DomainBed under fair conditions, ADRMX is
shown to achieve state-of-the-art performance. Code will be made available at
GitHub after the revision process.
- Abstract(参考訳): トレーニングセットとテストセットが同様のディストリビューションに従うという一般的な仮定は、デプロイメント設定でしばしば違反する。
複数のソースドメインが与えられたとき、ドメインの一般化は、新しい未知のドメインに一般化できる堅牢なモデルを作ることを目的としている。
この目的のために、既存の研究の多くは、ドメイン間分布変化の影響を軽減するために、利用可能なソースドメイン間でのドメイン不変の特徴の抽出に重点を置いている。
しかし、このアプローチは、ソースドメイン間の共通の特徴のみに依存することによって、モデルの一般化能力を制限する可能性がある。
これは、ドメインのサブセットに広まり、価値のある情報を含む可能性のあるドメイン固有の特性の存在を見逃している。
本稿では,remix loss (adrmx) を伴う領域特徴の付加的不等角化(addment disentanglement of domain features with remix loss)という新しいアーキテクチャを提案する。
さらに,異なる領域のサンプルを潜在空間内に混合するadrmxの一般化能力をさらに支援するために,新たなデータ拡張手法が導入された。
公正な条件下でDomainBed上で行われた広範な実験を通じて、ADRMXは最先端のパフォーマンスを達成する。
コードはリビジョンプロセスの後にGitHubで公開される。
関連論文リスト
- Aggregation of Disentanglement: Reconsidering Domain Variations in
Domain Generalization [9.577254317971933]
ドメイン変種には、下流のタスクに有用な情報、すなわち分類対応情報も含まれている、と我々は主張する。
本稿では,ドメインエキスパートの特徴をソース・ドメイン・イメージから切り離すために,DDN(Domain Disentanglement Network)と呼ばれる新しいパラダイムを提案する。
また、ドメインの専門家がよりバランスよく分離可能な機能空間を形成するための、新しい対照的な学習方法を提案します。
論文 参考訳(メタデータ) (2023-02-05T09:48:57Z) - Domain generalization Person Re-identification on Attention-aware
multi-operation strategery [8.90472129039969]
ドメイン一般化者再識別(DG Re-ID)は、ソースドメイン上でトレーニングされたモデルを、十分に一般化された未確認対象ドメインに直接デプロイすることを目的としている。
既存のDG Re-ID法では、不変演算は領域一般化特徴の抽出に有効である。
DG Re-IDのための注意型マルチオペレーティングストラテジ(AMS)を提案し,より一般化された特徴を抽出した。
論文 参考訳(メタデータ) (2022-10-19T09:18:46Z) - Adaptive Domain Generalization via Online Disagreement Minimization [17.215683606365445]
ドメインの一般化は、モデルを目に見えないターゲットのドメインに安全に転送することを目的としています。
AdaODMは、異なるターゲットドメインに対するテスト時にソースモデルを適応的に修正する。
その結果,AdaODMは未確認領域の一般化能力を安定的に向上することがわかった。
論文 参考訳(メタデータ) (2022-08-03T11:51:11Z) - Dynamic Instance Domain Adaptation [109.53575039217094]
教師なしのドメイン適応に関するほとんどの研究は、各ドメインのトレーニングサンプルがドメインラベルを伴っていると仮定している。
適応的な畳み込みカーネルを持つ動的ニューラルネットワークを開発し、各インスタンスにドメインに依存しない深い特徴を適応させるために、インスタンス適応残差を生成する。
我々のモデルはDIDA-Netと呼ばれ、複数の一般的な単一ソースおよび複数ソースのUDAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-09T20:05:54Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Exploiting Domain-Specific Features to Enhance Domain Generalization [10.774902700296249]
ドメイン一般化(Domain Generalization, DG)は、観測されていないターゲットドメインで正常に動作するために、複数の観測されたソースドメインからモデルをトレーニングすることを目的としている。
以前のDGアプローチでは、ターゲットドメインを一般化するために、ソース間でのドメイン不変情報を抽出することに重点を置いていた。
本稿ではメタドメイン固有ドメイン不変量(mD)を提案する。
論文 参考訳(メタデータ) (2021-10-18T15:42:39Z) - Adaptive Domain-Specific Normalization for Generalizable Person
Re-Identification [81.30327016286009]
一般化可能なRe-IDのための適応型ドメイン固有正規化手法(AdsNorm)を提案する。
本研究では,一般化可能人物 Re-ID に対する適応領域特異的正規化手法 (AdsNorm) を提案する。
論文 参考訳(メタデータ) (2021-05-07T02:54:55Z) - Open Domain Generalization with Domain-Augmented Meta-Learning [83.59952915761141]
オープンドメイン一般化(OpenDG)の新しい実践的問題について研究する。
本稿では,オープンドメイン一般化表現を学ぶためのメタ学習フレームワークを提案する。
種々のマルチドメインデータセットの実験結果から、提案したドメイン拡張メタラーニング(DAML)が、未確認ドメイン認識の先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-08T09:12:24Z) - Generalized Domain Conditioned Adaptation Network [33.13337928537281]
ドメイン適応(DA)はラベル付きソースドメインで学んだ知識をラベル付けされていないが関連するターゲットドメインに転送しようとする。
DAの最近の進歩は、主にソースとターゲットの分布を調整することによって進みます。
汎用ドメイン条件適応ネットワーク(GDCAN)を開発し、各アテンションモジュールでドメインチャネルのアクティベーションが個別にモデル化されるべきかどうかを自動決定する。
論文 参考訳(メタデータ) (2021-03-23T06:24:26Z) - Dual Distribution Alignment Network for Generalizable Person
Re-Identification [174.36157174951603]
ドメイン一般化(DG)は、人物再識別(Re-ID)を扱うための有望なソリューションとして機能する
本稿では、複数のソースドメインの分布を選択的に整列させることにより、この問題に対処するDual Distribution Alignment Network(DDAN)を提案する。
大規模なDomain Generalization Re-ID(DG Re-ID)ベンチマークでDDANを評価した。
論文 参考訳(メタデータ) (2020-07-27T00:08:07Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。