論文の概要: Learning Class and Domain Augmentations for Single-Source Open-Domain
Generalization
- arxiv url: http://arxiv.org/abs/2311.02599v1
- Date: Sun, 5 Nov 2023 08:53:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 16:37:14.397923
- Title: Learning Class and Domain Augmentations for Single-Source Open-Domain
Generalization
- Title(参考訳): 単元オープンドメイン一般化のための学習クラスとドメイン拡張
- Authors: Prathmesh Bele, Valay Bundele, Avigyan Bhattacharya, Ankit Jha, Gemma
Roig, Biplab Banerjee
- Abstract要約: 単一オープンソースのオープンソースドメイン一般化(SS-ODG)は、トレーニング中の監督とテスト中の未ラベルの新規ターゲットドメインによるラベル付きソースドメインの課題に対処する。
本稿では,新しいドメインを同時に合成し,擬似オープンサンプルを生成するSODG-Netという新しいフレームワークを提案する。
提案手法は,新しい計量基準を用いて既知のクラス標本のスタイルを多様化することにより一般化を促進する。
- 参考スコア(独自算出の注目度): 15.338029608652777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Single-source open-domain generalization (SS-ODG) addresses the challenge of
labeled source domains with supervision during training and unlabeled novel
target domains during testing. The target domain includes both known classes
from the source domain and samples from previously unseen classes. Existing
techniques for SS-ODG primarily focus on calibrating source-domain classifiers
to identify open samples in the target domain. However, these methods struggle
with visually fine-grained open-closed data, often misclassifying open samples
as closed-set classes. Moreover, relying solely on a single source domain
restricts the model's ability to generalize. To overcome these limitations, we
propose a novel framework called SODG-Net that simultaneously synthesizes novel
domains and generates pseudo-open samples using a learning-based objective, in
contrast to the ad-hoc mixing strategies commonly found in the literature. Our
approach enhances generalization by diversifying the styles of known class
samples using a novel metric criterion and generates diverse pseudo-open
samples to train a unified and confident multi-class classifier capable of
handling both open and closed-set data. Extensive experimental evaluations
conducted on multiple benchmarks consistently demonstrate the superior
performance of SODG-Net compared to the literature.
- Abstract(参考訳): single-source open-domain generalization (ss-odg)は、トレーニング中にラベル付きソースドメイン、テスト中にラベルなしの新しいターゲットドメインの課題に対処する。
ターゲットドメインは、ソースドメインからの既知のクラスと、以前に見つからなかったクラスからのサンプルの両方を含む。
SS-ODGの既存の技術は主にソースドメイン分類器を校正し、ターゲットドメイン内のオープンサンプルを識別することに焦点を当てている。
しかし、これらのメソッドは視覚的にきめ細かいオープンクローズドデータに苦労し、しばしばオープンサンプルをクローズドセットクラスとして誤分類する。
さらに、単一のソースドメインのみに依存することは、モデルを一般化する能力を制限する。
これらの制約を克服するため,本論文でよく見られるアドホック混合戦略とは対照的に,新しいドメインを同時に合成し,学習目的を用いて擬似オープンサンプルを生成するSODG-Netという新しいフレームワークを提案する。
提案手法は,新しい計量基準を用いて既知のクラスサンプルのスタイルを多様化し,多様な擬似オープンサンプルを生成し,オープン・アンド・クローズド・セットデータの両方を扱える統一かつ確実なマルチクラス分類器を訓練することにより,一般化を促進する。
複数のベンチマークで実施した大規模な実験により,SODG-Netの性能は文献と比較して一貫して向上した。
関連論文リスト
- Feature-Space Semantic Invariance: Enhanced OOD Detection for Open-Set Domain Generalization [10.38552112657656]
本稿では、FSI(Feature-space Semantic Invariance)を導入して、オープンセット領域の一般化のための統一的なフレームワークを提案する。
FSIは機能領域内の異なるドメイン間のセマンティック一貫性を維持しており、見えないドメイン内のOODインスタンスをより正確に検出することができる。
また、新しいドメインスタイルやクラスラベルで合成データを生成するために生成モデルを採用し、モデルロバスト性を高めます。
論文 参考訳(メタデータ) (2024-11-11T21:51:45Z) - Domain Expansion and Boundary Growth for Open-Set Single-Source Domain Generalization [70.02187124865627]
オープンソースの単一ソースドメインの一般化は、単一のソースドメインを使用して、未知のターゲットドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
本稿では,領域拡大と境界成長に基づく新しい学習手法を提案する。
提案手法は,いくつかの領域横断画像分類データセットにおいて,大幅な改善と最先端性能を実現することができる。
論文 参考訳(メタデータ) (2024-11-05T09:08:46Z) - Uncertainty-guided Open-Set Source-Free Unsupervised Domain Adaptation with Target-private Class Segregation [22.474866164542302]
UDAアプローチはソースとターゲットドメインが同じラベル空間を共有していると一般的に仮定する。
本稿では、SF-OSDA(Source-Free Open-set Domain Adaptation)設定の課題について考察する。
本稿では,サンプルを複数の未知のクラスに分離することで,ターゲット・プライベートカテゴリの粒度を利用したSF-OSDAの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-16T13:52:00Z) - Unknown Prompt, the only Lacuna: Unveiling CLIP's Potential for Open Domain Generalization [12.126495847808803]
本稿では、視覚言語モデルCLIPのセマンティックな長所を生かしたODG-CLIPを紹介する。
我々はODGを、既知のカテゴリと新しいカテゴリの両方を包含する多クラス分類課題として概念化している。
我々は,CLIPの視覚的埋め込みの忠実度を高めるために,プロンプト空間から派生したクラス識別的知識で画像を注入する。
論文 参考訳(メタデータ) (2024-03-31T15:03:31Z) - Activate and Reject: Towards Safe Domain Generalization under Category
Shift [71.95548187205736]
カテゴリーシフト(DGCS)下における領域一般化の実践的問題について検討する。
未知のクラスサンプルを同時に検出し、ターゲットドメイン内の既知のクラスサンプルを分類することを目的としている。
従来のDGと比較すると,1)ソースクラスのみを用いたトレーニングにおいて,未知の概念を学習する方法,2)ソーストレーニングされたモデルを未知の環境に適応する方法,の2つの新しい課題に直面している。
論文 参考訳(メタデータ) (2023-10-07T07:53:12Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Self-Paced Learning for Open-Set Domain Adaptation [50.620824701934]
従来のドメイン適応手法は、ソースとターゲットドメインのクラスが同一であると仮定する。
オープンセットドメイン適応(OSDA)は、この制限に対処する。
そこで,本研究では,共通クラスと未知クラスを識別するための自己評価学習に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-10T14:11:09Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Robust Domain-Free Domain Generalization with Class-aware Alignment [4.442096198968069]
ドメインフリードメイン一般化(DFDG)は、目に見えないテストドメインでより良い一般化性能を実現するモデル非依存の方法である。
DFDGは新しい戦略を用いてドメイン不変なクラス差別的特徴を学習する。
時系列センサと画像分類公開データセットの両方で競合性能を得る。
論文 参考訳(メタデータ) (2021-02-17T17:46:06Z) - Exploring Category-Agnostic Clusters for Open-Set Domain Adaptation [138.29273453811945]
本稿では、カテゴリ非依存クラスタ(SE-CC)を対象ドメインのカテゴリ非依存クラスタと組み合わせた、新たなアーキテクチャを提案する。
クラスタリングは、対象ドメイン特有の基盤となるデータ空間構造を明らかにするカテゴリ非依存クラスタを得るために、ラベルなしのターゲットサンプルすべてにわたって実行される。
論文 参考訳(メタデータ) (2020-06-11T16:19:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。