論文の概要: Domain-Unified Prompt Representations for Source-Free Domain
Generalization
- arxiv url: http://arxiv.org/abs/2209.14926v1
- Date: Thu, 29 Sep 2022 16:44:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 17:31:03.136705
- Title: Domain-Unified Prompt Representations for Source-Free Domain
Generalization
- Title(参考訳): ソースフリードメイン一般化のためのドメイン統一型プロンプト表現
- Authors: Hongjing Niu, Hanting Li, Feng Zhao, and Bin Li
- Abstract要約: ドメインの一般化は、汎用人工知能に対する確実な方法だ。
既存の手法では、オープンワールドシナリオにおいて多様なドメインにスケールすることは困難である。
本稿では,大規模視覚言語事前学習モデルに基づくアプローチを提案する。
- 参考スコア(独自算出の注目度): 6.614361539661422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain generalization (DG), aiming to make models work on unseen domains, is
a surefire way toward general artificial intelligence. Limited by the scale and
diversity of current DG datasets, it is difficult for existing methods to scale
to diverse domains in open-world scenarios (e.g., science fiction and pixelate
style). Therefore, the source-free domain generalization (SFDG) task is
necessary and challenging. To address this issue, we propose an approach based
on large-scale vision-language pretraining models (e.g., CLIP), which exploits
the extensive domain information embedded in it. The proposed scheme generates
diverse prompts from a domain bank that contains many more diverse domains than
existing DG datasets. Furthermore, our method yields domain-unified
representations from these prompts, thus being able to cope with samples from
open-world domains. Extensive experiments on mainstream DG datasets, namely
PACS, VLCS, OfficeHome, and DomainNet, show that the proposed method achieves
competitive performance compared to state-of-the-art (SOTA) DG methods that
require source domain data for training. Besides, we collect a small datasets
consists of two domains to evaluate the open-world domain generalization
ability of the proposed method. The source code and the dataset will be made
publicly available at
https://github.com/muse1998/Source-Free-Domain-Generalization
- Abstract(参考訳): ドメイン一般化(dg、domain generalization)とは、モデルが未知のドメインで動作するようにすることを目的としている。
現在のDGデータセットのスケールと多様性によって制限されているため、既存の手法がオープンワールドシナリオ(SFやピクセルスタイルなど)の様々な領域にスケールすることは困難である。
したがって、ソースフリー領域一般化(SFDG)タスクは必要で困難である。
この問題に対処するために,大規模視覚言語事前学習モデル(例えばCLIP)に基づくアプローチを提案する。
提案手法は既存のDGデータセットよりも多くのドメインを含むドメインバンクから多様なプロンプトを生成する。
さらに,提案手法は,これらのプロンプトからドメイン統一表現を生成し,オープンワールドドメインからのサンプルを処理することができる。
PACS、VLCS、OfficeHome、DomainNetといった主流のDGデータセットに対する大規模な実験により、提案手法は、トレーニングにソースドメインデータを必要とするSOTA(State-of-the-art)DG法と比較して、競合的な性能を達成することが示された。
さらに,提案手法のオープンワールドドメイン一般化能力を評価するために,2つのドメインからなる小さなデータセットを収集する。
ソースコードとデータセットはhttps://github.com/muse1998/Source-Free-Domain-Generalizationで公開される。
関連論文リスト
- DomainVerse: A Benchmark Towards Real-World Distribution Shifts For
Tuning-Free Adaptive Domain Generalization [27.099706316752254]
我々はAdaptive Domain Generalization (ADG)のための新しいデータセットDomainVerseを確立する。
DomainVerseは、導入した階層的なドメインシフトの定義に相応しく、390のきめ細かい現実的なドメインから約0.5万の画像で構成されている。
チューニング不要適応型ドメイン一般化のためのDomain CLIPとDomain++ CLIPという2つの手法を提案する。
論文 参考訳(メタデータ) (2024-03-05T07:10:25Z) - Domain Generalization for Domain-Linked Classes [8.738092015092207]
実世界では、クラスはドメインリンクされ、すなわち特定のドメインでのみ表現される。
本稿では,ドメインリンクDG,FONDのためのFair and cONtrastive feature-space regularizationアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-01T16:39:50Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Exploiting Domain-Specific Features to Enhance Domain Generalization [10.774902700296249]
ドメイン一般化(Domain Generalization, DG)は、観測されていないターゲットドメインで正常に動作するために、複数の観測されたソースドメインからモデルをトレーニングすることを目的としている。
以前のDGアプローチでは、ターゲットドメインを一般化するために、ソース間でのドメイン不変情報を抽出することに重点を置いていた。
本稿ではメタドメイン固有ドメイン不変量(mD)を提案する。
論文 参考訳(メタデータ) (2021-10-18T15:42:39Z) - Reappraising Domain Generalization in Neural Networks [8.06370138649329]
機械学習アルゴリズムのドメイン一般化(DG)は、複数のトレーニング分布からドメインに依存しない仮説を学習する能力として定義される。
経験的リスク最小化(ERM)ベースラインは,既存のDG手法を一貫して上回っていることがわかった。
そこで我々は,各クラスに対してランダムにドメインを選択して,それをテスト用として保持する,クラスワイズDGの定式化を提案する。
論文 参考訳(メタデータ) (2021-10-15T10:06:40Z) - COLUMBUS: Automated Discovery of New Multi-Level Features for Domain
Generalization via Knowledge Corruption [12.555885317622131]
ここでは、ソースドメインの集合で訓練されたモデルが、データに触れることなく、目に見えないドメインでうまく一般化されることを期待する領域一般化問題に対処する。
コロンバス(Columbus)は、最も関連性の高い入力とマルチレベルのデータ表現を対象とする汚職によって、新機能の発見を強制する手法である。
論文 参考訳(メタデータ) (2021-09-09T14:52:05Z) - Open Domain Generalization with Domain-Augmented Meta-Learning [83.59952915761141]
オープンドメイン一般化(OpenDG)の新しい実践的問題について研究する。
本稿では,オープンドメイン一般化表現を学ぶためのメタ学習フレームワークを提案する。
種々のマルチドメインデータセットの実験結果から、提案したドメイン拡張メタラーニング(DAML)が、未確認ドメイン認識の先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-08T09:12:24Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Dual Distribution Alignment Network for Generalizable Person
Re-Identification [174.36157174951603]
ドメイン一般化(DG)は、人物再識別(Re-ID)を扱うための有望なソリューションとして機能する
本稿では、複数のソースドメインの分布を選択的に整列させることにより、この問題に対処するDual Distribution Alignment Network(DDAN)を提案する。
大規模なDomain Generalization Re-ID(DG Re-ID)ベンチマークでDDANを評価した。
論文 参考訳(メタデータ) (2020-07-27T00:08:07Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。