論文の概要: CLIP-Powered Domain Generalization and Domain Adaptation: A Comprehensive Survey
- arxiv url: http://arxiv.org/abs/2504.14280v1
- Date: Sat, 19 Apr 2025 12:27:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 03:38:32.27342
- Title: CLIP-Powered Domain Generalization and Domain Adaptation: A Comprehensive Survey
- Title(参考訳): CLIPによるドメインの一般化とドメイン適応: 総合的な調査
- Authors: Jindong Li, Yongguang Li, Yali Fu, Jiahong Liu, Yixin Liu, Menglin Yang, Irwin King,
- Abstract要約: この調査は、ドメイン一般化(DG)とドメイン適応(DA)におけるコントラスト言語-画像事前学習(CLIP)の適用を体系的に検討する。
CLIPは、モデルが見えないドメインで効果的に実行できる強力なゼロショット機能を提供する。
オーバーフィッティング、ドメインの多様性、計算効率といった主な課題に対処する。
- 参考スコア(独自算出の注目度): 38.281260447611395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning evolves, domain generalization (DG) and domain adaptation (DA) have become crucial for enhancing model robustness across diverse environments. Contrastive Language-Image Pretraining (CLIP) plays a significant role in these tasks, offering powerful zero-shot capabilities that allow models to perform effectively in unseen domains. However, there remains a significant gap in the literature, as no comprehensive survey currently exists that systematically explores the applications of CLIP in DG and DA, highlighting the necessity for this review. This survey presents a comprehensive review of CLIP's applications in DG and DA. In DG, we categorize methods into optimizing prompt learning for task alignment and leveraging CLIP as a backbone for effective feature extraction, both enhancing model adaptability. For DA, we examine both source-available methods utilizing labeled source data and source-free approaches primarily based on target domain data, emphasizing knowledge transfer mechanisms and strategies for improved performance across diverse contexts. Key challenges, including overfitting, domain diversity, and computational efficiency, are addressed, alongside future research opportunities to advance robustness and efficiency in practical applications. By synthesizing existing literature and pinpointing critical gaps, this survey provides valuable insights for researchers and practitioners, proposing directions for effectively leveraging CLIP to enhance methodologies in domain generalization and adaptation. Ultimately, this work aims to foster innovation and collaboration in the quest for more resilient machine learning models that can perform reliably across diverse real-world scenarios. A more up-to-date version of the papers is maintained at: https://github.com/jindongli-Ai/Survey_on_CLIP-Powered_Domain_Generalization_and_Adaptation.
- Abstract(参考訳): 機械学習が発展するにつれて、ドメイン一般化(DG)とドメイン適応(DA)は多様な環境におけるモデル堅牢性を高めるために重要になっている。
対照的に、CLIP(Contrastive Language- Image Pretraining)はこれらのタスクにおいて重要な役割を果たす。
しかし、CLIPのDGおよびDAへの適用を体系的に調査する総合的な調査は存在しないため、文献には大きなギャップが残っている。
この調査は、DGおよびDAにおけるCLIPの応用に関する総合的なレビューを示す。
DGでは、タスクアライメントのための迅速な学習を最適化し、CLIPを効果的な特徴抽出のためのバックボーンとして活用する手法を分類する。
DAでは、ラベル付きソースデータと、主に対象ドメインデータに基づくソースフリーアプローチの両手法について検討し、知識伝達機構と多種多様な文脈における性能向上戦略を強調した。
オーバーフィッティング、ドメインの多様性、計算効率といった主要な課題に対処し、将来の研究機会とともに、実用アプリケーションにおける堅牢性と効率を向上する。
既存の文献を合成し、重要なギャップを指摘することによって、この調査は研究者や実践者に貴重な洞察を与え、CLIPを効果的に活用し、ドメインの一般化と適応の方法論を強化する方向を提案する。
最終的には、さまざまな現実世界のシナリオで確実に機能する、よりレジリエントな機械学習モデルを求める中で、イノベーションとコラボレーションを促進することを目的としている。
最新版は、https://github.com/jindongli-Ai/Survey_on_CLIP-Powered_Domain_Generalization_and_Adaptationで維持されている。
関連論文リスト
- A Survey of Direct Preference Optimization [103.59317151002693]
LLM(Large Language Models)は、前例のない生成能力を示す。
人的価値との整合性は、有用で無害なデプロイメントを保証する上で、依然として重要です。
直接優先度最適化(DPO)は、最近、合理化された代替案として注目されている。
論文 参考訳(メタデータ) (2025-03-12T08:45:15Z) - Beyond Batch Learning: Global Awareness Enhanced Domain Adaptation [7.414646586981638]
Global Awareness Enhanced Domain Adaptation (GAN-DA)は、従来のバッチベースの制限を超越した新しいアプローチである。
GAN-DAは、ドメイン間分布のアライメントを容易にするために、ユニークな事前定義された特徴表現(PFR)を統合する。
実験では, GAN-DA の優れた優位性を示し, 確立された 24 のDA 法を有意差で上回った。
論文 参考訳(メタデータ) (2025-02-10T09:13:11Z) - The Efficiency Spectrum of Large Language Models: An Algorithmic Survey [54.19942426544731]
LLM(Large Language Models)の急速な成長は、様々なドメインを変換する原動力となっている。
本稿では,LLMのエンドツーエンドのアルゴリズム開発に不可欠な多面的効率性について検討する。
論文 参考訳(メタデータ) (2023-12-01T16:00:25Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - A Comprehensive Survey on Source-free Domain Adaptation [69.17622123344327]
ソースフリードメイン適応(SFDA)の研究は近年注目を集めている。
SFDAの最近の進歩を包括的に調査し、それらを統一的な分類体系に整理する。
一般的な3つの分類基準で30以上のSFDA法を比較検討した。
論文 参考訳(メタデータ) (2023-02-23T06:32:09Z) - Discriminative Adversarial Domain Generalization with Meta-learning
based Cross-domain Validation [9.265557367859637]
ドメイン一般化(DG)技術は、機械学習モデルのそのような一般化能力を高めることを目的としている。
メタラーニングに基づくクロスドメイン検証により,DADG(Dariminative Adversarial Domain Generalization)を提案する。
その結果、DADGは強力なベースラインであるDeepAllを一貫して上回り、ほとんどの場合、既存のDGアルゴリズムよりも上回ります。
論文 参考訳(メタデータ) (2020-11-01T07:48:16Z) - Universal Source-Free Domain Adaptation [57.37520645827318]
ドメイン適応のための新しい2段階学習プロセスを提案する。
Procurementの段階では、今後のカテゴリギャップやドメインシフトに関する事前知識を前提とせず、将来的なソースフリーデプロイメントのためのモデルの提供を目標としています。
Deploymentの段階では、幅広いカテゴリギャップをまたいで動作可能な統一適応アルゴリズムを設計することを目的としている。
論文 参考訳(メタデータ) (2020-04-09T07:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。