論文の概要: Transitive Vision-Language Prompt Learning for Domain Generalization
- arxiv url: http://arxiv.org/abs/2404.18758v1
- Date: Mon, 29 Apr 2024 14:56:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 13:18:30.930406
- Title: Transitive Vision-Language Prompt Learning for Domain Generalization
- Title(参考訳): 領域一般化のためのトランジティブ・ビジョン・ランゲージ・プロンプト学習
- Authors: Liyuan Wang, Yan Jin, Zhen Chen, Jinlin Wu, Mengke Li, Yang Lu, Hanzi Wang,
- Abstract要約: ビジョン言語による事前トレーニングにより、ディープモデルは、目に見えないドメインをまたがる一般化において、大きな一歩を踏み出した。
しかし、ドメインの不変性とクラス分離性の間のトレードオフがまだ進行しているという問題がまだ残っている。
- 参考スコア(独自算出の注目度): 41.484858946789664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The vision-language pre-training has enabled deep models to make a huge step forward in generalizing across unseen domains. The recent learning method based on the vision-language pre-training model is a great tool for domain generalization and can solve this problem to a large extent. However, there are still some issues that an advancement still suffers from trading-off between domain invariance and class separability, which are crucial in current DG problems. However, there are still some issues that an advancement still suffers from trading-off between domain invariance and class separability, which are crucial in current DG problems. In this paper, we introduce a novel prompt learning strategy that leverages deep vision prompts to address domain invariance while utilizing language prompts to ensure class separability, coupled with adaptive weighting mechanisms to balance domain invariance and class separability. Extensive experiments demonstrate that deep vision prompts effectively extract domain-invariant features, significantly improving the generalization ability of deep models and achieving state-of-the-art performance on three datasets.
- Abstract(参考訳): ビジョン言語による事前トレーニングにより、ディープモデルは、目に見えないドメインをまたがる一般化において、大きな一歩を踏み出した。
視覚言語事前学習モデルに基づく最近の学習方法は、ドメインの一般化に優れたツールであり、この問題を広範囲に解決することができる。
しかし、現在のDG問題において重要なドメイン不変性とクラス分離性の間のトレードオフによって、まだ進展に苦しむ問題がまだ残っている。
しかし、現在のDG問題において重要なドメイン不変性とクラス分離性の間のトレードオフによって、まだ進展に苦しむ問題がまだ残っている。
本稿では,クラス分離性を確保するために言語プロンプトを活用しながら,ドメイン不変性とクラス分離性のバランスをとるための適応重み付け機構と組み合わせて,ドメイン不変性に対処する新しいプロンプト学習戦略を提案する。
広範囲な実験により、ディープビジョンはドメイン不変の特徴を効果的に抽出し、ディープモデルの一般化能力を大幅に改善し、3つのデータセット上で最先端のパフォーマンスを達成することが示されている。
関連論文リスト
- FEED: Fairness-Enhanced Meta-Learning for Domain Generalization [13.757379847454372]
モデルフェアネスを認識しながら配布外データに一般化することは、メタラーニングにおいて重要かつ困難な問題である。
本稿では,ドメインの一般化能力を大幅に向上させるフェアネスを考慮したメタラーニング手法を提案する。
論文 参考訳(メタデータ) (2024-11-02T17:34:33Z) - Robust Domain Generalization for Multi-modal Object Recognition [14.128747255526012]
マルチラベル分類において、機械学習は、トレーニングデータから異なる分布でタスクを処理する際に、ドメインの一般化の課題に直面する。
視覚言語プレトレーニングの最近の進歩は、広範囲にわたる視覚言語ペアの監視を活用し、多様なドメインでの学習を可能にしている。
本稿では、実際の損失を推定し、より大きな視覚言語バックボーンに対する評価を拡大し、Mixup-CLIPoodを導入することで解決策を提案する。
論文 参考訳(メタデータ) (2024-08-11T17:13:21Z) - Towards Full-scene Domain Generalization in Multi-agent Collaborative Bird's Eye View Segmentation for Connected and Autonomous Driving [49.03947018718156]
協調的な知覚の訓練と推論の段階で利用される統合されたドメイン一般化フレームワークを提案する。
また、システム内ドメインアライメント機構を導入し、コネクテッドおよび自律走行車間のドメインの差を減らし、潜在的に排除する。
論文 参考訳(メタデータ) (2023-11-28T12:52:49Z) - Multi-Scale and Multi-Layer Contrastive Learning for Domain Generalization [5.124256074746721]
深部畳み込みニューラルネットワークの一般化能力は、ネットワークの多層的および多スケール的表現を活用することで向上できると論じる。
画像分類器の領域一般化を目的とした,低レベル特徴と高レベル特徴を複数スケールで組み合わせたフレームワークを提案する。
我々のモデルは従来のDG手法よりも優れており、全てのデータセットにおいて競争力と最先端の結果を連続的に生成できることを示す。
論文 参考訳(メタデータ) (2023-08-28T08:54:27Z) - Trade-off between reconstruction loss and feature alignment for domain
generalization [30.459247038765568]
ドメイン一般化(Domain Generalization、DG)は、いくつかの見知らぬ領域で学習モデルを訓練し、その後、これらの事前学習されたモデルを他の未知の(未知だが関連する)領域に適用することを目的とした、伝達学習の分野である。
未確認ドメインのデータとラベルの両方がトレーニング時に利用できないDGの困難な設定に対処するために、最も一般的なアプローチは、ドメイン不変の表現機能に基づいて分類器を設計することである。
一般的な信念とは対照的に、DGでは不変表現のみに基づく分類器の設計は必要だが不十分であることを示す。
論文 参考訳(メタデータ) (2022-10-26T19:40:25Z) - A Style and Semantic Memory Mechanism for Domain Generalization [108.98041306507372]
ドメイン内スタイルの不変性は、ドメインの一般化の効率を改善する上で重要な要素である。
本稿では,ドメイン間の意味的特徴の共通性を学習する上で特に有効な,新しい「判断」機構を提案する。
提案手法は最先端の手法をクリアマージンで超越している。
論文 参考訳(メタデータ) (2021-12-14T16:23:24Z) - Improving Transferability of Domain Adaptation Networks Through Domain
Alignment Layers [1.3766148734487902]
マルチソースアン教師付きドメイン適応(MSDA)は、ソースモデルの袋から弱い知識を割り当てることで、ラベルのないドメインの予測子を学習することを目的としている。
我々は,DomaIn Alignment Layers (MS-DIAL) のマルチソースバージョンを予測器の異なるレベルに埋め込むことを提案する。
我々の手法は最先端のMSDA法を改善することができ、分類精度の相対利得は+30.64%に達する。
論文 参考訳(メタデータ) (2021-09-06T18:41:19Z) - Coarse to Fine: Domain Adaptive Crowd Counting via Adversarial Scoring
Network [58.05473757538834]
本稿では,ドメイン間のギャップを粗い粒度から細かな粒度に埋める新しい逆スコアリングネットワーク (ASNet) を提案する。
3組のマイグレーション実験により,提案手法が最先端のカウント性能を実現することを示す。
論文 参考訳(メタデータ) (2021-07-27T14:47:24Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Adaptively-Accumulated Knowledge Transfer for Partial Domain Adaptation [66.74638960925854]
部分ドメイン適応(PDA)は、ソースドメインラベル空間がターゲットドメインを置き換えるとき、現実的で困難な問題を扱う。
本稿では,2つの領域にまたがる関連カテゴリを整合させる適応的知識伝達フレームワーク(A$2KT)を提案する。
論文 参考訳(メタデータ) (2020-08-27T00:53:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。