論文の概要: Domain Generalizable Continual Learning
- arxiv url: http://arxiv.org/abs/2510.16914v1
- Date: Sun, 19 Oct 2025 16:16:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.205101
- Title: Domain Generalizable Continual Learning
- Title(参考訳): ドメイン一般化型連続学習
- Authors: Hongwei Yan, Guanglong Sun, Zhiqi Kang, Yi Zhong, Liyuan Wang,
- Abstract要約: ドメイン一般化型連続学習(DGCL)という,斬新で現実的な設定を導入する。
モデルは、遭遇したすべてのタスクとドメイン間でうまく機能することを目的として、単一のドメインを含む各ドメインでシーケンシャルなタスクを学習する。
この設定は、セマンティックおよびドメイン関連情報を堅牢な一般化に利用し、保持し、活用する上で、ユニークな課題を提起する。
本稿では,DGCLに適合する革新的PTMに基づくドメイン変換手法である適応型ドメイン変換(DoT)を提案する。
- 参考スコア(独自算出の注目度): 24.99964797750464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To adapt effectively to dynamic real-world environments, intelligent systems must continually acquire new skills while generalizing them to diverse, unseen scenarios. Here, we introduce a novel and realistic setting named domain generalizable continual learning (DGCL): a model learns sequential tasks with each involving a single domain, aiming to perform well across all encountered tasks and domains. This setting poses unique challenges in acquiring, retaining, and leveraging both semantic- and domain-relevant information for robust generalization. Although state-of-the-art continual learning (CL) methods have employed pre-trained models (PTMs) to enhance task-specific generalization, they typically assume identical training and testing domains for each task and therefore perform poorly in DGCL. To this end, we propose adaptive Domain Transformation (DoT), an innovative PTMs-based approach tailored to DGCL. Inspired by the distributed-plus-hub theory of the human brain, DoT disentangles semantic- and domain-relevant information in representation learning, and adaptively transforms task representations across various domains for output alignment, ensuring balanced and generalized predictions. DoT serves as a plug-in strategy that greatly facilitates state-of-the-art CL baselines under both full parameter tuning and parameter-efficient tuning paradigms in DGCL, validated by extensive experiments. Also, DoT is shown to accumulate domain-generalizable knowledge from DGCL, and ensure resource efficiency with a lightweight implementation.
- Abstract(参考訳): ダイナミックな現実世界環境に効果的に適応するためには、インテリジェントシステムは新たなスキルを継続的に獲得し、それらを多様な、目に見えないシナリオに一般化する必要がある。
そこで本研究では,ドメイン一般化型連続学習(DGCL)という,新規で現実的な設定を導入する。
この設定は、意味的情報とドメイン関連情報の両方を堅牢な一般化に利用し、保持し、活用する上で、ユニークな課題を提起する。
State-of-the-art continual learning (CL)メソッドは、タスク固有の一般化を促進するために事前訓練されたモデル(PTM)を使用しているが、通常、各タスクに対して同一のトレーニングとテストドメインを仮定するので、DGCLでは不十分である。
そこで本研究では,DGCL に適合する革新的 PTM ベースのアプローチである Adaptive Domain Transformation (DoT) を提案する。
人間の脳の分布+ハブ理論にインスパイアされたDoTは、表現学習において意味関連情報とドメイン関連情報を分離し、タスク表現を様々な領域に適応的に変換して出力アライメントし、バランスよく一般化された予測を確実にする。
DoTは、DGCLにおける完全なパラメータチューニングとパラメータ効率チューニングのパラダイムの下で、最先端のCLベースラインを大幅に促進するプラグイン戦略として機能し、広範な実験によって検証されている。
また、DoTはDGCLからドメイン一般化可能な知識を蓄積し、軽量な実装で資源効率を確保することが示されている。
関連論文リスト
- Federated Domain Generalization with Domain-specific Soft Prompts Generation [34.51919138862278]
本稿では,フェデレートされた領域一般化タスクを扱うための,ジェネレーティブの観点から,新しい効果的な手法を提案する。
具体的には、トレーニング中、各ドメインに対してドメイン固有のソフトプロンプト(DSP)を導入し、コンテンツとドメイン知識を生成モデルに統合する。
推論フェーズでは、ジェネレータを使用して、未知のターゲットドメインのDSPを取得し、未知のドメインの下流タスクを誘導する。
論文 参考訳(メタデータ) (2025-09-25T06:41:48Z) - Large Language Model Empowered Recommendation Meets All-domain Continual Pre-Training [60.38082979765664]
CPRecは、レコメンデーションのための全ドメイン連続事前トレーニングフレームワークである。
LLMを連続的な事前学習パラダイムを通じて、普遍的なユーザ行動と整合させる。
2つの異なるプラットフォームから5つの実世界のデータセットを実験する。
論文 参考訳(メタデータ) (2025-04-11T20:01:25Z) - MLDGG: Meta-Learning for Domain Generalization on Graphs [9.872254367103057]
グラフ上のドメインの一般化は、堅牢な一般化機能を持つモデルを開発することを目的としている。
我々のフレームワークであるMDDGGは、多分野間メタラーニングを統合することで、多分野にわたる適応可能な一般化を実現する。
実験の結果,MDDGGはベースライン法を超越し,3種類の分散シフト設定で有効性を示した。
論文 参考訳(メタデータ) (2024-11-19T22:57:38Z) - Advancing Open-Set Domain Generalization Using Evidential Bi-Level Hardest Domain Scheduler [45.71475375161575]
Open-Set Domain Generalizationでは、新しいデータ外観(ドメイン)とオープンセット条件の両方でモデルが公開される。
適応型ドメインスケジューラを実現するために,Evidential Bi-Level Hardest Domain Scheduler (EBiL-HaDS)を提案する。
論文 参考訳(メタデータ) (2024-09-26T05:57:35Z) - HCVP: Leveraging Hierarchical Contrastive Visual Prompt for Domain
Generalization [69.33162366130887]
ドメイン一般化(DG)は、不変の機能を学ぶことによって、目に見えないシナリオに優れた機械学習モデルを作成するための取り組みである。
モデルにドメインレベルとタスク固有の特性を補足する新しい手法を提案する。
このアプローチは、特定の特徴から不変な特徴をより効果的に分離し、一般化を促進することを目的としている。
論文 参考訳(メタデータ) (2024-01-18T04:23:21Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - ViDA: Homeostatic Visual Domain Adapter for Continual Test Time Adaptation [48.039156140237615]
目標ドメインの継続的な変更に事前訓練されたモデルを適用するために、連続的なテスト時間適応タスクを提案する。
我々はCTTA用のVisual Domain Adapter (ViDA) を設計し、ドメイン固有知識とドメイン共有知識の両方を明示的に扱う。
提案手法は,CTTAタスクの分類とセグメント化の両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-06-07T11:18:53Z) - TAL: Two-stream Adaptive Learning for Generalizable Person
Re-identification [115.31432027711202]
我々は、ドメイン固有性とドメイン不変性の両方が、re-idモデルの一般化能力の向上に不可欠であると主張する。
これら2種類の情報を同時にモデル化するために,2ストリーム適応学習 (TAL) を命名した。
我々のフレームワークは、単一ソースとマルチソースの両方のドメイン一般化タスクに適用できる。
論文 参考訳(メタデータ) (2021-11-29T01:27:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。