論文の概要: ViLAaD: Enhancing "Attracting and Dispersing'' Source-Free Domain Adaptation with Vision-and-Language Model
- arxiv url: http://arxiv.org/abs/2503.23529v1
- Date: Sun, 30 Mar 2025 17:22:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 19:35:57.172237
- Title: ViLAaD: Enhancing "Attracting and Dispersing'' Source-Free Domain Adaptation with Vision-and-Language Model
- Title(参考訳): ViLAaD:ビジョン・アンド・ランゲージモデルによる「ソースフリードメイン適応の抽出と分散」の促進
- Authors: Shuhei Tarashima, Xinqi Shu, Norio Tagawa,
- Abstract要約: Source-Free Domain Adaptation (SFDA)は、トレーニング済みのソースモデルを、ソースデータにアクセスすることなく、異なるドメインからターゲットデータセットに適応することを目的としている。
視覚と言語(ViL)モデルを用いて既存のFDAフレームワークを拡張して補助情報を組み込む新しい手法を提案する。
我々のアプローチは ViL-enhanced AaD (ViLAaD) と呼ばれ、AaD フレームワークのシンプルさと柔軟性を保ちながら、適応性能を大幅に向上させるために ViL モデルを活用している。
- 参考スコア(独自算出の注目度): 0.9831489366502302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Source-Free Domain Adaptation (SFDA) aims to adapt a pre-trained source model to a target dataset from a different domain without access to the source data. Conventional SFDA methods are limited by the information encoded in the pre-trained source model and the unlabeled target data. Recently, approaches leveraging auxiliary resources have emerged, yet remain in their early stages, offering ample opportunities for research. In this work, we propose a novel method that incorporates auxiliary information by extending an existing SFDA framework using Vision-and-Language (ViL) models. Specifically, we build upon Attracting and Dispersing (AaD), a widely adopted SFDA technique, and generalize its core principle to naturally integrate ViL models as a powerful initialization for target adaptation. Our approach, called ViL-enhanced AaD (ViLAaD), preserves the simplicity and flexibility of the AaD framework, while leveraging ViL models to significantly boost adaptation performance. We validate our method through experiments using various ViL models, demonstrating that ViLAaD consistently outperforms both AaD and zero-shot classification by ViL models, especially when both the source model and ViL model provide strong initializations. Moreover, the flexibility of ViLAaD allows it to be seamlessly incorporated into an alternating optimization framework with ViL prompt tuning and extended with additional objectives for target model adaptation. Extensive experiments on four SFDA benchmarks show that this enhanced version, ViLAaD++, achieves state-of-the-art performance across multiple SFDA scenarios, including Closed-set SFDA, Partial-set SFDA, and Open-set SFDA.
- Abstract(参考訳): Source-Free Domain Adaptation (SFDA)は、トレーニング済みのソースモデルを、ソースデータにアクセスすることなく、異なるドメインからターゲットデータセットに適応することを目的としている。
従来のSFDA法は、事前訓練されたソースモデルとラベルなしターゲットデータに符号化された情報によって制限される。
近年、補助資源を活用するアプローチが出現しているが、まだ初期段階にあり、研究の機会が豊富である。
本研究では,視覚と言語(ViL)モデルを用いて既存のFDAフレームワークを拡張し,補助情報を組み込んだ新しい手法を提案する。
具体的には、広く採用されているFDA技術であるAttracting and Dispersing(AaD)を基盤として、ターゲット適応のための強力な初期化としてVLモデルを自然に統合する、その基本原理を一般化する。
我々のアプローチは ViL-enhanced AaD (ViLAaD) と呼ばれ、AaD フレームワークのシンプルさと柔軟性を保ちながら、適応性能を大幅に向上させるために ViL モデルを活用している。
各種ViLモデルを用いた実験により,VLAaD が AaD と 0-shot の両方を ViL モデルで一貫的に上回り,特にソースモデルと ViL モデルの両方が強い初期化を提供する場合において,本手法の有効性を検証した。
さらに、ViLAaDの柔軟性により、ViLのプロンプトチューニングとターゲットモデル適応のための追加目的の拡張により、交互最適化フレームワークにシームレスに組み込むことができる。
4つのSFDAベンチマークの大規模な実験によると、この拡張版であるViLAaD++は、クローズドセットのSFDA、部分セットのSFDA、オープンセットのSFDAなど、複数のSFDAシナリオで最先端のパフォーマンスを実現している。
関連論文リスト
- Unveiling the Superior Paradigm: A Comparative Study of Source-Free Domain Adaptation and Unsupervised Domain Adaptation [52.36436121884317]
Source-Free Domain Adaptation (SFDA) は、現実のシナリオにおいて、Unsupervised Domain Adaptation (UDA) よりも一般的に優れていることを示す。
SFDAは、時間効率、ストレージ要件、対象とする学習目標、負の移動リスクの低減、過度な適合に対する堅牢性の向上といった利点を提供している。
利用可能なソースデータをマルチSFDA手法に効果的に統合する新しい重み推定法を提案する。
論文 参考訳(メタデータ) (2024-11-24T13:49:29Z) - Learn from the Learnt: Source-Free Active Domain Adaptation via Contrastive Sampling and Visual Persistence [60.37934652213881]
ドメイン適応(DA)は、ソースドメインから関連するターゲットドメインへの知識伝達を容易にする。
本稿では、ソースデータフリーなアクティブドメイン適応(SFADA)という実用的なDAパラダイムについて検討する。
本稿では,学習者学習(LFTL)というSFADAの新たなパラダイムを紹介し,学習した学習知識を事前学習モデルから活用し,余分なオーバーヘッドを伴わずにモデルを積極的に反復する。
論文 参考訳(メタデータ) (2024-07-26T17:51:58Z) - Unified Source-Free Domain Adaptation [44.95240684589647]
ソーストレーニングデータにアクセスせずにソースモデルをターゲットドメインに転送する目的で、Source-Free Domain Adaptation (SFDA)が広く研究されている。
我々はLCFD(Latent Causal Factors Discovery)と呼ばれる新しい手法を提案する。
現実の統計的記述の学習を強調する従来の代替手段とは対照的に、因果性の観点からLCFDを定式化する。
論文 参考訳(メタデータ) (2024-03-12T12:40:08Z) - Source-Free Domain Adaptation with Frozen Multimodal Foundation Model [42.19262809313472]
Source-Free Domain Adaptation (SFDA)は、ターゲットドメインにソースモデルを適用することを目的としている。
ヘテロジニアス知識を生かしながら、リッチな市販の視覚言語(ViL)マルチモーダルモデルの可能性を探る。
本稿では,新しいDIFOアポローチモデルを提案する。
論文 参考訳(メタデータ) (2023-11-27T12:58:02Z) - The Unreasonable Effectiveness of Large Language-Vision Models for
Source-free Video Domain Adaptation [56.61543110071199]
Source-Free Video Unsupervised Domain Adaptation (SFVUDA)タスクは、ラベル付きソースデータセットでトレーニングされたアクション認識モデルを、ラベル付きターゲットデータセットに適応させることによって構成される。
従来のアプローチでは、ターゲットデータ自体から派生した自己スーパービジョンを活用してSFVUDAに対処しようと試みてきた。
我々は、LLVMがドメインシフトに対して驚くほど堅牢になる前に、リッチな世界を含むという理論によって、LLVM(Large Language-Vision Models)から"web-supervision"を利用するアプローチを取る。
論文 参考訳(メタデータ) (2023-08-17T18:12:05Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - ViDA: Homeostatic Visual Domain Adapter for Continual Test Time Adaptation [48.039156140237615]
目標ドメインの継続的な変更に事前訓練されたモデルを適用するために、連続的なテスト時間適応タスクを提案する。
我々はCTTA用のVisual Domain Adapter (ViDA) を設計し、ドメイン固有知識とドメイン共有知識の両方を明示的に扱う。
提案手法は,CTTAタスクの分類とセグメント化の両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-06-07T11:18:53Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Continual Source-Free Unsupervised Domain Adaptation [37.060694803551534]
既存のソースフリーのUnsupervised Domain Adaptationアプローチは破滅的な忘れを見せる。
本稿では,SuDAの継続的な学習環境における課題に対応するための連続的なSUDA(C-SUDA)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-14T20:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。