論文の概要: The Unreasonable Effectiveness of Large Language-Vision Models for
Source-free Video Domain Adaptation
- arxiv url: http://arxiv.org/abs/2308.09139v1
- Date: Thu, 17 Aug 2023 18:12:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 15:35:49.058552
- Title: The Unreasonable Effectiveness of Large Language-Vision Models for
Source-free Video Domain Adaptation
- Title(参考訳): ソースフリービデオ領域適応のための大規模言語ビジョンモデルの不合理性
- Authors: Giacomo Zara, Alessandro Conti, Subhankar Roy, St\'ephane
Lathuili\`ere, Paolo Rota, Elisa Ricci
- Abstract要約: Source-Free Video Unsupervised Domain Adaptation (SFVUDA) メソッドは、ラベル付きソースデータセットでトレーニングされたアクション認識モデルを、ラベル付きターゲットデータセットに適応するタスクで構成される。
従来のアプローチでは、ターゲットデータ自体から派生した自己スーパービジョンを活用してSFVUDAに対処しようと試みてきた。
我々は,LLVMがよりリッチな世界を含むという理論的根拠により,Large Language-Vision Models (LLVMs) の "web-supervision" を利用するアプローチをとる。
- 参考スコア(独自算出の注目度): 56.61543110071199
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Source-Free Video Unsupervised Domain Adaptation (SFVUDA) methods consists in
the task of adapting an action recognition model, trained on a labelled source
dataset, to an unlabelled target dataset, without accessing the actual source
data. Previous approaches have attempted to address SFVUDA by leveraging
self-supervision (e.g., enforcing temporal consistency) derived from the target
data itself. In this work we take an orthogonal approach by exploiting
"web-supervision" from Large Language-Vision Models (LLVMs), driven by the
rationale that LLVMs contain rich world prior, which is surprisingly robust to
domain-shift. We showcase the unreasonable effectiveness of integrating LLVMs
for SFVUDA by devising an intuitive and parameter efficient method, which we
name as Domain Adaptation with Large Language-Vision models (DALL-V), that
distills the world prior and complementary source model information into a
student network tailored for the target. Despite the simplicity, DALL-V
achieves significant improvement over state-of-the-art SFVUDA methods.
- Abstract(参考訳): Source-Free Video Unsupervised Domain Adaptation (SFVUDA)メソッドは、ラベル付きソースデータセットでトレーニングされたアクション認識モデルを、実際のソースデータにアクセスすることなく、未ラベルのターゲットデータセットに適応するタスクで構成される。
以前のアプローチでは、ターゲットデータ自体から派生した自己超越(例えば、時間的一貫性の強化)を活用してSFVUDAに対処しようとした。
この作業では、llvmがリッチワールドを事前に含んでいるという根拠によって駆動される、大規模な言語ビジョンモデル(llvm)からの"web-supervision"を活用し、直交的なアプローチを取ります。
本稿では,SFVUDA に LLVM を組み込むことによる不合理な効果を,大言語ビジョンモデル (DALL-V) を用いたドメイン適応法 (Domain Adaptation with Large Language-Vision Model, DALL-V) と呼ぶ直感的でパラメータ効率のよい手法で示す。
単純さにもかかわらず、DALL-Vは最先端のSFVUDAメソッドよりも大幅に改善されている。
関連論文リスト
- Learn from the Learnt: Source-Free Active Domain Adaptation via Contrastive Sampling and Visual Persistence [60.37934652213881]
ドメイン適応(DA)は、ソースドメインから関連するターゲットドメインへの知識伝達を容易にする。
本稿では、ソースデータフリーなアクティブドメイン適応(SFADA)という実用的なDAパラダイムについて検討する。
本稿では,学習者学習(LFTL)というSFADAの新たなパラダイムを紹介し,学習した学習知識を事前学習モデルから活用し,余分なオーバーヘッドを伴わずにモデルを積極的に反復する。
論文 参考訳(メタデータ) (2024-07-26T17:51:58Z) - Source-Free Domain Adaptation Guided by Vision and Vision-Language Pre-Training [23.56208527227504]
ソースフリードメイン適応(SFDA)は、完全にラベル付けされたソースドメインでトレーニングされたソースモデルを、関連するがラベル付けされていないターゲットドメインに適応させることを目的としている。
従来のSFDAパイプラインでは、ソースモデルを初期化するために、大量のデータ(イメージネットなど)を事前訓練した特徴抽出器が使用される。
トレーニング済みネットワークを対象適応プロセスに組み込むための統合フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-05T14:48:13Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Instance Relation Graph Guided Source-Free Domain Adaptive Object
Detection [79.89082006155135]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、ドメインシフトの問題に取り組むための効果的なアプローチである。
UDAメソッドは、ターゲットドメインの一般化を改善するために、ソースとターゲット表現を整列させようとする。
Source-Free Adaptation Domain (SFDA)設定は、ソースデータへのアクセスを必要とせずに、ターゲットドメインに対してソーストレーニングされたモデルを適用することで、これらの懸念を軽減することを目的としている。
論文 参考訳(メタデータ) (2022-03-29T17:50:43Z) - Source-Free Domain Adaptation for Semantic Segmentation [11.722728148523366]
Unsupervised Domain Adaptation(UDA)は、セマンティックセグメンテーションのための畳み込みニューラルネットワークベースのアプローチがピクセルレベルの注釈付きデータに大きく依存するという課題に取り組むことができる。
そこで本稿では,十分に訓練されたソースモデルとラベルなしのターゲットドメインデータセットのみを適用可能な,意味セグメンテーションのためのソースフリーなドメイン適応フレームワークsfdaを提案する。
論文 参考訳(メタデータ) (2021-03-30T14:14:29Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。