論文の概要: Enhancing Evolving Domain Generalization through Dynamic Latent
Representations
- arxiv url: http://arxiv.org/abs/2401.08464v1
- Date: Tue, 16 Jan 2024 16:16:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 19:14:55.116817
- Title: Enhancing Evolving Domain Generalization through Dynamic Latent
Representations
- Title(参考訳): 動的潜在表現による進化するドメイン一般化の促進
- Authors: Binghui Xie, Yongqiang Chen, Jiaqi Wang, Kaiwen Zhou, Bo Han, Wei
Meng, James Cheng
- Abstract要約: 我々はMultual Information-Based Sequential Autoencoders (MISTS) と呼ばれる新しいフレームワークを提案する。
MISTSは、Mutual Information-Based Sequential Autoencoders (MISTS)と呼ばれる新しいフレームワークを通じて、動的および不変両方の機能を学ぶ
人工と実世界の両方のデータセットに対する実験結果は、MISTSが進化と不変の両方の情報を取得することに成功していることを示している。
- 参考スコア(独自算出の注目度): 47.3810472814143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain generalization is a critical challenge for machine learning systems.
Prior domain generalization methods focus on extracting domain-invariant
features across several stationary domains to enable generalization to new
domains. However, in non-stationary tasks where new domains evolve in an
underlying continuous structure, such as time, merely extracting the invariant
features is insufficient for generalization to the evolving new domains.
Nevertheless, it is non-trivial to learn both evolving and invariant features
within a single model due to their conflicts. To bridge this gap, we build
causal models to characterize the distribution shifts concerning the two
patterns, and propose to learn both dynamic and invariant features via a new
framework called Mutual Information-Based Sequential Autoencoders (MISTS).
MISTS adopts information theoretic constraints onto sequential autoencoders to
disentangle the dynamic and invariant features, and leverage a domain adaptive
classifier to make predictions based on both evolving and invariant
information. Our experimental results on both synthetic and real-world datasets
demonstrate that MISTS succeeds in capturing both evolving and invariant
information, and present promising results in evolving domain generalization
tasks.
- Abstract(参考訳): ドメインの一般化は、機械学習システムにとって重要な課題である。
事前ドメイン一般化法は、新しいドメインへの一般化を可能にするために、いくつかの定常ドメインにまたがるドメイン不変な特徴を抽出することに焦点を当てている。
しかし、時間のような基礎となる連続構造で新しいドメインが進化する非定常タスクでは、不変な特徴を抽出するだけでは、進化する新しいドメインへの一般化には不十分である。
それでも、その矛盾のため、単一のモデル内で進化と不変の両方の特徴を学ぶのは簡単ではない。
このギャップを埋めるために、我々は2つのパターンに関する分散シフトを特徴付ける因果モデルを構築し、Mutual Information-Based Sequential Autoencoders (MISTS)と呼ばれる新しいフレームワークを用いて動的および不変な特徴を学習することを提案する。
mistはシーケンシャルなオートエンコーダに情報理論的な制約を適用し、動的および不変な特徴を分離し、ドメイン適応分類器を利用して進化と不変の情報の両方に基づいて予測を行う。
合成および実世界の両方のデータセットに対する実験結果から、MISTSは進化した情報と不変な情報の両方を捕捉し、ドメイン一般化タスクを進化させる有望な結果を示す。
関連論文リスト
- Causality-inspired Latent Feature Augmentation for Single Domain Generalization [13.735443005394773]
単一ドメインの一般化(Single-DG)は、単一のトレーニングドメインのみを持つ一般化可能なモデルを開発し、他の未知のターゲットドメインでうまく機能させることを目的としている。
ドメイン・ハングリー構成の下で、ソース・ドメインのカバレッジを拡大し、異なる分布にまたがる固有の因果的特徴を見つける方法がモデルの一般化能力を高める鍵となる。
本稿では、因果学習と介入に基づく特徴レベルの変換のメタ知識を学習することで、単一DGの因果性に着想を得た潜在機能拡張手法を提案する。
論文 参考訳(メタデータ) (2024-06-10T02:42:25Z) - HCVP: Leveraging Hierarchical Contrastive Visual Prompt for Domain
Generalization [69.33162366130887]
ドメイン一般化(DG)は、不変の機能を学ぶことによって、目に見えないシナリオに優れた機械学習モデルを作成するための取り組みである。
モデルにドメインレベルとタスク固有の特性を補足する新しい手法を提案する。
このアプローチは、特定の特徴から不変な特徴をより効果的に分離し、一般化を促進することを目的としている。
論文 参考訳(メタデータ) (2024-01-18T04:23:21Z) - Algorithmic Fairness Generalization under Covariate and Dependence Shifts Simultaneously [28.24666589680547]
公平かつ不変な分類器の学習を目的とした,単純かつ効果的な手法を提案する。
モデルを用いて様々な合成データドメインを拡張することにより、ソースドメインの公平かつ不変な分類器を学習する。
この分類器は未知の対象領域に一般化することができ、モデル予測と公平性の懸念の両方を維持できる。
論文 参考訳(メタデータ) (2023-11-23T05:52:00Z) - Domain Generalization In Robust Invariant Representation [10.132611239890345]
本稿では,分布外データに基づく不変表現の一般化について検討する。
不変モデルは分布シフトに頑健な非構造潜在表現を学習することを示す。
論文 参考訳(メタデータ) (2023-04-07T00:58:30Z) - Learning to Learn Domain-invariant Parameters for Domain Generalization [29.821634033299855]
ドメイン一般化(DG)は、ソースドメインからドメイン不変表現をキャプチャすることでこの問題を克服することを目的としている。
DDC(Domain Decoupling and Combination)とDIGB(Domain-invariance-guided Backpropagation)の2つのモジュールを提案する。
提案手法は,高い一般化能力を有する最先端性能を実現する。
論文 参考訳(メタデータ) (2022-11-04T07:19:34Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - TAL: Two-stream Adaptive Learning for Generalizable Person
Re-identification [115.31432027711202]
我々は、ドメイン固有性とドメイン不変性の両方が、re-idモデルの一般化能力の向上に不可欠であると主張する。
これら2種類の情報を同時にモデル化するために,2ストリーム適応学習 (TAL) を命名した。
我々のフレームワークは、単一ソースとマルチソースの両方のドメイン一般化タスクに適用できる。
論文 参考訳(メタデータ) (2021-11-29T01:27:42Z) - Instrumental Variable-Driven Domain Generalization with Unobserved
Confounders [53.735614014067394]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインから、目に見えないターゲットドメインをうまく一般化できるモデルを学ぶことを目的としている。
観測不能な共同創設者のバイアスを2段階学習で除去し,インストゥルメンタル変数駆動型DG法(IV-DG)を提案する。
第1段階では、あるドメインの入力特徴の条件分布を他のドメインの入力特徴の条件分布として学習する。
第2段階では,ラベルと学習条件分布の関係を推定する。
論文 参考訳(メタデータ) (2021-10-04T13:32:57Z) - Learning to Learn with Variational Information Bottleneck for Domain
Generalization [128.90691697063616]
ドメイン一般化モデルは、これまで見つからなかった領域に一般化することを学ぶが、予測の不確実性とドメインシフトに悩まされる。
ドメイン一般化のための確率論的メタラーニングモデルを導入し、ドメイン間で共有されるパラメータを分布としてモデル化する。
ドメインシフトに対処するため、メタ変動情報ボトルネックという提案原則を用いてドメイン不変表現を学習し、メタVIBと呼ぶ。
論文 参考訳(メタデータ) (2020-07-15T12:05:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。