論文の概要: ConstStyle: Robust Domain Generalization with Unified Style Transformation
- arxiv url: http://arxiv.org/abs/2509.05975v1
- Date: Sun, 07 Sep 2025 08:40:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.800172
- Title: ConstStyle: Robust Domain Generalization with Unified Style Transformation
- Title(参考訳): ConstStyle: 統一型変換によるロバストドメインの一般化
- Authors: Nam Duong Tran, Nam Nguyen Phuong, Hieu H. Pham, Phi Le Nguyen, My T. Thai,
- Abstract要約: ドメイン・ジェネリゼーション(DG)は、ドメイン不変の機能に焦点をあてたり、より多様なデータを増やすことで、この問題に対処することを目的としている。
ConstStyleは、統一ドメインを利用して、ドメイン不変の特徴を捉え、理論解析でドメインギャップを埋める新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 16.853951836297203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks often suffer performance drops when test data distribution differs from training data. Domain Generalization (DG) aims to address this by focusing on domain-invariant features or augmenting data for greater diversity. However, these methods often struggle with limited training domains or significant gaps between seen (training) and unseen (test) domains. To enhance DG robustness, we hypothesize that it is essential for the model to be trained on data from domains that closely resemble unseen test domains-an inherently difficult task due to the absence of prior knowledge about the unseen domains. Accordingly, we propose ConstStyle, a novel approach that leverages a unified domain to capture domain-invariant features and bridge the domain gap with theoretical analysis. During training, all samples are mapped onto this unified domain, optimized for seen domains. During testing, unseen domain samples are projected similarly before predictions. By aligning both training and testing data within this unified domain, ConstStyle effectively reduces the impact of domain shifts, even with large domain gaps or few seen domains. Extensive experiments demonstrate that ConstStyle consistently outperforms existing methods across diverse scenarios. Notably, when only a limited number of seen domains are available, ConstStyle can boost accuracy up to 19.82\% compared to the next best approach.
- Abstract(参考訳): ディープニューラルネットワークは、テストデータの分散がトレーニングデータと異なる場合、しばしばパフォーマンス低下を被る。
ドメイン・ジェネリゼーション(DG)は、ドメイン不変の機能に焦点をあてたり、より多様なデータを増やすことで、この問題に対処することを目的としている。
しかしながら、これらの手法は、限られた訓練領域や、目に見えない(トレーニング)ドメインと見えない(テスト)ドメインの間の大きなギャップに苦しむことが多い。
DGのロバスト性を高めるため、未確認領域に関する事前知識がないため、未確認領域によく似た領域のデータに基づいてモデルを訓練することが不可欠である、という仮説を立てる。
そこで本研究では,ドメイン不変な特徴を捕捉し,ドメインギャップを理論的解析でブリッジする,統一ドメインを利用した新しいアプローチであるConstStyleを提案する。
トレーニング中、すべてのサンプルは統合されたドメインにマッピングされ、見るドメインに最適化されます。
テスト中、見つからないドメインサンプルは予測される前に同じように投影される。
この統合されたドメイン内でのトレーニングとテストの両方のデータを整合させることで、ConstStyleは、大きなドメインギャップや少ないドメインであっても、ドメインシフトの影響を効果的に低減します。
広範な実験により、ConstStyleはさまざまなシナリオで既存のメソッドを一貫して上回ります。
特に、限られた数のドメインしか利用できない場合、ConstStyleは次のベストアプローチと比較して精度を19.82倍に向上させることができる。
関連論文リスト
- What's in a Latent? Leveraging Diffusion Latent Space for Domain Generalization [10.079844840768054]
ドメインの一般化は、新しい、目に見えないデータ分布に一般化できるモデルを開発することを目的としている。
モデルアーキテクチャと事前学習の目的が機能豊かさに与える影響について検討する。
我々のフレームワークは、最大4%以上のテスト精度向上により、未確認領域への一般化を改善する。
論文 参考訳(メタデータ) (2025-03-09T17:29:01Z) - Domain Generalization via Causal Adjustment for Cross-Domain Sentiment
Analysis [59.73582306457387]
クロスドメイン感情分析における領域一般化の問題に焦点をあてる。
本稿では,ドメイン固有表現とドメイン不変表現をアンタングル化するバックドア調整に基づく因果モデルを提案する。
一連の実験は、我々のモデルの優れたパフォーマンスと堅牢性を示しています。
論文 参考訳(メタデータ) (2024-02-22T13:26:56Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - Domain Generalization via Selective Consistency Regularization for Time
Series Classification [16.338176636365752]
ドメイン一般化手法は、限られた数のソースドメインからのデータで、ドメインシフトに頑健なモデルを学習することを目的としている。
本稿では,ソースドメイン間の予測一貫性を選択的に適用する表現学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-16T01:57:35Z) - Adaptive Methods for Real-World Domain Generalization [32.030688845421594]
本研究では、未確認の試験サンプルからドメイン情報を活用できるかどうかを検討する。
a) 教師なしのトレーニング例から識別的ドメイン埋め込みを最初に学び、b) このドメイン埋め込みを補足的な情報として使ってドメイン適応モデルを構築する。
提案手法は,各種領域一般化ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-03-29T17:44:35Z) - Batch Normalization Embeddings for Deep Domain Generalization [50.51405390150066]
ドメインの一般化は、異なるドメインと見えないドメインで堅牢に実行されるように機械学習モデルをトレーニングすることを目的としている。
一般的な領域一般化ベンチマークにおいて,最先端技術よりも分類精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2020-11-25T12:02:57Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。