論文の概要: Language as an Anchor: Preserving Relative Visual Geometry for Domain Incremental Learning
- arxiv url: http://arxiv.org/abs/2511.14401v1
- Date: Tue, 18 Nov 2025 12:06:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.09143
- Title: Language as an Anchor: Preserving Relative Visual Geometry for Domain Incremental Learning
- Title(参考訳): アンカーとしての言語:ドメインインクリメンタル学習のための相対的視覚幾何学を保存する
- Authors: Shuyi Geng, Tao Zhou, Yi Zhou,
- Abstract要約: ドメインインクリメンタルラーニングの鍵となる課題は、分散の変化の下で継続的に学習することだ。
テキストベースの参照アンカーによって駆動される相対的アライメントと直接特徴アライメントを置き換える新しいDILフレームワークであるLAVAを提案する。
標準的なDILベンチマークの実験では、LAVAは最先端技術よりも大幅なパフォーマンス向上を実現している。
- 参考スコア(独自算出の注目度): 8.952803050083203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A key challenge in Domain Incremental Learning (DIL) is to continually learn under shifting distributions while preserving knowledge from previous domains. Existing methods face a fundamental dilemma. On one hand, projecting all domains into a single unified visual space leads to inter-domain interference and semantic distortion, as large shifts may vary with not only visual appearance but also underlying semantics. On the other hand, isolating domain-specific parameters causes knowledge fragmentation, creating "knowledge islands" that hamper knowledge reuse and exacerbate forgetting. To address this issue, we propose LAVA (Language-Anchored Visual Alignment), a novel DIL framework that replaces direct feature alignment with relative alignment driven by a text-based reference anchor. LAVA guides the visual representations of each incoming domain to preserve a consistent relative geometry, which is defined by mirroring the pairwise semantic similarities between the class names. This anchored geometric structure acts as a bridge across domains, enabling the retrieval of class-aware prior knowledge and facilitating robust feature aggregation. Extensive experiments on standard DIL benchmarks demonstrate that LAVA achieves significant performance improvements over state-of-the-arts. Code is available at https://github.com/ShuyiGeng/LAVA.
- Abstract(参考訳): ドメインインクリメンタルラーニング(DIL)における重要な課題は、従来のドメインからの知識を維持しながら、分散のシフトの下で継続的に学習することである。
既存の手法は基本的なジレンマに直面している。
一方、全ての領域を単一の統合された視覚空間に投影すると、大きなシフトは視覚的外観だけでなく、基礎となる意味論も異なるため、ドメイン間の干渉や意味的歪みにつながる。
一方、ドメイン固有パラメータの分離は知識の断片化を引き起こし、知識の再利用を妨げ、忘れを悪化させる「知識島」を創出する。
この問題に対処するために,テキストベースの参照アンカーによって駆動される相対的アライメントと直接特徴アライメントを置き換える新しいDILフレームワークであるLAVA(Language-Anchored Visual Alignment)を提案する。
LAVAは、各入力ドメインの視覚的表現をガイドし、クラス名間のペアワイズなセマンティックな類似性を反映することによって定義される、一貫した相対幾何学を保存する。
このアンカー付き幾何学構造は、ドメイン間のブリッジとして機能し、クラス認識された事前知識の検索を可能にし、ロバストな特徴集約を容易にする。
標準的なDILベンチマークに対する大規模な実験により、LAVAは最先端技術よりも大幅なパフォーマンス向上を実現している。
コードはhttps://github.com/ShuyiGeng/LAVA.comで入手できる。
関連論文リスト
- Free Lunch to Meet the Gap: Intermediate Domain Reconstruction for Cross-Domain Few-Shot Learning [20.048013939398484]
クロスドメインのFew-Shot Learningは、ソースドメインからターゲットドメインに一般化された知識を転送する試みである。
我々は、コードブックとしてソース機能を組み込んだ中間ドメインプロキシ(IDP)を構築するための新しい試みを行っている。
本研究では,これらのプロキシをターゲット領域の特徴変換の学習指導として利用する高速なドメインアライメント手法を開発した。
論文 参考訳(メタデータ) (2025-11-18T09:14:06Z) - Cross-Domain Attribute Alignment with CLIP: A Rehearsal-Free Approach for Class-Incremental Unsupervised Domain Adaptation [27.40776917141145]
Class-Incremental Unsupervised Domain Adaptation (CI-UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインにモデルを適応させることを目的としている。
この問題を解決する鍵は、以前の対象クラスに関する知識の破滅的な忘れを避けることである。
本稿では,CI-UDAタスクを促進するために,ドメイン不変およびクラス非依存の知識をマイニングし,保存することを提案する。
論文 参考訳(メタデータ) (2025-09-14T13:27:46Z) - Prompt-based Visual Alignment for Zero-shot Policy Transfer [35.784936617675896]
強化学習におけるオーバーフィッティングは、強化学習への応用における主要な障害の1つとなっている。
ゼロショットポリシー転送のための画像における有害領域バイアスを軽減するために,プロンプトベースの視覚アライメント(PVA)を提案する。
CARLAシミュレータを用いて視覚に基づく自律運転タスクにおけるPVAの検証を行う。
論文 参考訳(メタデータ) (2024-06-05T13:26:30Z) - Unsupervised Domain Adaptation via Style-Aware Self-intermediate Domain [52.783709712318405]
非教師なしドメイン適応(UDA)は、ラベル豊富なソースドメインから関連するがラベルのないターゲットドメインに知識を伝達する、かなりの注目を集めている。
本研究では,大規模なドメインギャップと伝達知識を橋渡しし,クラス非ネイティブ情報の損失を軽減するために,SAFF(style-aware feature fusion)法を提案する。
論文 参考訳(メタデータ) (2022-09-05T10:06:03Z) - SPCL: A New Framework for Domain Adaptive Semantic Segmentation via
Semantic Prototype-based Contrastive Learning [6.705297811617307]
ドメイン適応は、ラベル付けされたソースドメインからラベル付けされていないターゲットドメインに知識を転送するのに役立ちます。
本稿では,クラスアライメントを微粒化するための新しい意味的プロトタイプに基づくコントラスト学習フレームワークを提案する。
我々の手法は実装が容易であり、最先端の手法と比較して優れた結果が得られる。
論文 参考訳(メタデータ) (2021-11-24T09:26:07Z) - Structured Latent Embeddings for Recognizing Unseen Classes in Unseen
Domains [108.11746235308046]
本稿では,異なる領域からの画像を投影することで,ドメインに依存しない遅延埋め込みを学習する手法を提案する。
挑戦的なDomainNetとDomainNet-LSベンチマークの実験は、既存のメソッドよりもアプローチの方が優れていることを示している。
論文 参考訳(メタデータ) (2021-07-12T17:57:46Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Learning to Combine: Knowledge Aggregation for Multi-Source Domain
Adaptation [56.694330303488435]
マルチソースドメイン適応(LtC-MSDA)フレームワークを併用する学習法を提案する。
簡単に言うと、知識グラフは様々なドメインのプロトタイプ上に構築され、セマンティックに隣接した表現間の情報伝達を実現する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-07-17T07:52:44Z) - Learning Cross-domain Semantic-Visual Relationships for Transductive
Zero-Shot Learning [29.498249893085287]
本研究では、トランスダクティブゼロショット学習(ZSL)へのトランスダクティブ・セマンティック・ビジュアル・リレーション(TSVR)アプローチを提案する。
TSVRは画像認識を再定義し、クラス属性と視覚的特徴からなる意味視覚融合のための類似性/相似性ラベルを予測する。
この問題に対して、類似のセマンティック・視覚対の数は、異種対のものとはかなり小さい。
論文 参考訳(メタデータ) (2020-03-31T11:26:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。