論文の概要: Learning Class and Domain Augmentations for Single-Source Open-Domain
Generalization
- arxiv url: http://arxiv.org/abs/2311.02599v1
- Date: Sun, 5 Nov 2023 08:53:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 16:37:14.397923
- Title: Learning Class and Domain Augmentations for Single-Source Open-Domain
Generalization
- Title(参考訳): 単元オープンドメイン一般化のための学習クラスとドメイン拡張
- Authors: Prathmesh Bele, Valay Bundele, Avigyan Bhattacharya, Ankit Jha, Gemma
Roig, Biplab Banerjee
- Abstract要約: 単一オープンソースのオープンソースドメイン一般化(SS-ODG)は、トレーニング中の監督とテスト中の未ラベルの新規ターゲットドメインによるラベル付きソースドメインの課題に対処する。
本稿では,新しいドメインを同時に合成し,擬似オープンサンプルを生成するSODG-Netという新しいフレームワークを提案する。
提案手法は,新しい計量基準を用いて既知のクラス標本のスタイルを多様化することにより一般化を促進する。
- 参考スコア(独自算出の注目度): 15.338029608652777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Single-source open-domain generalization (SS-ODG) addresses the challenge of
labeled source domains with supervision during training and unlabeled novel
target domains during testing. The target domain includes both known classes
from the source domain and samples from previously unseen classes. Existing
techniques for SS-ODG primarily focus on calibrating source-domain classifiers
to identify open samples in the target domain. However, these methods struggle
with visually fine-grained open-closed data, often misclassifying open samples
as closed-set classes. Moreover, relying solely on a single source domain
restricts the model's ability to generalize. To overcome these limitations, we
propose a novel framework called SODG-Net that simultaneously synthesizes novel
domains and generates pseudo-open samples using a learning-based objective, in
contrast to the ad-hoc mixing strategies commonly found in the literature. Our
approach enhances generalization by diversifying the styles of known class
samples using a novel metric criterion and generates diverse pseudo-open
samples to train a unified and confident multi-class classifier capable of
handling both open and closed-set data. Extensive experimental evaluations
conducted on multiple benchmarks consistently demonstrate the superior
performance of SODG-Net compared to the literature.
- Abstract(参考訳): single-source open-domain generalization (ss-odg)は、トレーニング中にラベル付きソースドメイン、テスト中にラベルなしの新しいターゲットドメインの課題に対処する。
ターゲットドメインは、ソースドメインからの既知のクラスと、以前に見つからなかったクラスからのサンプルの両方を含む。
SS-ODGの既存の技術は主にソースドメイン分類器を校正し、ターゲットドメイン内のオープンサンプルを識別することに焦点を当てている。
しかし、これらのメソッドは視覚的にきめ細かいオープンクローズドデータに苦労し、しばしばオープンサンプルをクローズドセットクラスとして誤分類する。
さらに、単一のソースドメインのみに依存することは、モデルを一般化する能力を制限する。
これらの制約を克服するため,本論文でよく見られるアドホック混合戦略とは対照的に,新しいドメインを同時に合成し,学習目的を用いて擬似オープンサンプルを生成するSODG-Netという新しいフレームワークを提案する。
提案手法は,新しい計量基準を用いて既知のクラスサンプルのスタイルを多様化し,多様な擬似オープンサンプルを生成し,オープン・アンド・クローズド・セットデータの両方を扱える統一かつ確実なマルチクラス分類器を訓練することにより,一般化を促進する。
複数のベンチマークで実施した大規模な実験により,SODG-Netの性能は文献と比較して一貫して向上した。
関連論文リスト
- Activate and Reject: Towards Safe Domain Generalization under Category
Shift [71.95548187205736]
カテゴリーシフト(DGCS)下における領域一般化の実践的問題について検討する。
未知のクラスサンプルを同時に検出し、ターゲットドメイン内の既知のクラスサンプルを分類することを目的としている。
従来のDGと比較すると,1)ソースクラスのみを用いたトレーニングにおいて,未知の概念を学習する方法,2)ソーストレーニングされたモデルを未知の環境に適応する方法,の2つの新しい課題に直面している。
論文 参考訳(メタデータ) (2023-10-07T07:53:12Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Self-Paced Learning for Open-Set Domain Adaptation [50.620824701934]
従来のドメイン適応手法は、ソースとターゲットドメインのクラスが同一であると仮定する。
オープンセットドメイン適応(OSDA)は、この制限に対処する。
そこで,本研究では,共通クラスと未知クラスを識別するための自己評価学習に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-10T14:11:09Z) - Polycentric Clustering and Structural Regularization for Source-free
Unsupervised Domain Adaptation [20.952542421577487]
Source-Free Domain Adaptation (SFDA)は、訓練済みのソースモデルから学習した知識を未確認のターゲットドメインに転送することで、ドメイン適応問題を解決することを目的としている。
既存のほとんどのメソッドは、機能プロトタイプを生成することによって、ターゲットデータに擬似ラベルを割り当てる。
本稿では,PCSRと命名された新しいフレームワークを,クラス内多中心クラスタリングおよび構造規則化戦略を通じてSFDAに取り組むために提案する。
論文 参考訳(メタデータ) (2022-10-14T02:20:48Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - Improving Multi-Domain Generalization through Domain Re-labeling [31.636953426159224]
本稿では,事前特定ドメインラベルと一般化性能の関連性について検討する。
マルチドメイン一般化のための一般的なアプローチであるMulDEnsを導入し,ERMをベースとした深層アンサンブルバックボーンを用いた。
我々は、MulDEnsがデータセット固有の拡張戦略やトレーニングプロセスの調整を必要としないことを示す。
論文 参考訳(メタデータ) (2021-12-17T23:21:50Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Robust Domain-Free Domain Generalization with Class-aware Alignment [4.442096198968069]
ドメインフリードメイン一般化(DFDG)は、目に見えないテストドメインでより良い一般化性能を実現するモデル非依存の方法である。
DFDGは新しい戦略を用いてドメイン不変なクラス差別的特徴を学習する。
時系列センサと画像分類公開データセットの両方で競合性能を得る。
論文 参考訳(メタデータ) (2021-02-17T17:46:06Z) - Domain Generalization via Semi-supervised Meta Learning [7.722498348924133]
ラベルのないサンプルを活用するための領域一般化法を提案する。
メタ学習アプローチによってトレーニングされ、入力されたソースドメインと見えないターゲットドメイン間の分散シフトを模倣する。
ベンチマークデータセットによる実験結果から,DGは最先端領域の一般化や半教師付き学習方法よりも優れていた。
論文 参考訳(メタデータ) (2020-09-26T18:05:04Z) - Exploring Category-Agnostic Clusters for Open-Set Domain Adaptation [138.29273453811945]
本稿では、カテゴリ非依存クラスタ(SE-CC)を対象ドメインのカテゴリ非依存クラスタと組み合わせた、新たなアーキテクチャを提案する。
クラスタリングは、対象ドメイン特有の基盤となるデータ空間構造を明らかにするカテゴリ非依存クラスタを得るために、ラベルなしのターゲットサンプルすべてにわたって実行される。
論文 参考訳(メタデータ) (2020-06-11T16:19:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。