論文の概要: Generalized Domain Adaptation
- arxiv url: http://arxiv.org/abs/2106.01656v1
- Date: Thu, 3 Jun 2021 07:55:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 16:09:21.132368
- Title: Generalized Domain Adaptation
- Title(参考訳): 一般化ドメイン適応
- Authors: Yu Mitsuzumi, Go Irie, Daiki Ikami and Takashi Shibata
- Abstract要約: 一般化ドメイン適応 (Generalized Domain Adaptation, GDA) という UDA 問題の一般的な表現を与える。
GDAは、主要な変種を特別なケースとしてカバーしており、包括的なフレームワークでそれらを整理することができます。
本稿では,自己教師型クラス破壊学習システムである新しいセッティングに対する新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 16.36451405054308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many variants of unsupervised domain adaptation (UDA) problems have been
proposed and solved individually. Its side effect is that a method that works
for one variant is often ineffective for or not even applicable to another,
which has prevented practical applications. In this paper, we give a general
representation of UDA problems, named Generalized Domain Adaptation (GDA). GDA
covers the major variants as special cases, which allows us to organize them in
a comprehensive framework. Moreover, this generalization leads to a new
challenging setting where existing methods fail, such as when domain labels are
unknown, and class labels are only partially given to each domain. We propose a
novel approach to the new setting. The key to our approach is self-supervised
class-destructive learning, which enables the learning of class-invariant
representations and domain-adversarial classifiers without using any domain
labels. Extensive experiments using three benchmark datasets demonstrate that
our method outperforms the state-of-the-art UDA methods in the new setting and
that it is competitive in existing UDA variations as well.
- Abstract(参考訳): unsupervised domain adaptation (uda) 問題の多くの変種が提案され、個別に解決されている。
その副作用として、ある変種に対して作用する手法は、他の変種にも適用できない場合が多く、実用的応用を妨げている。
本稿では,一般領域適応 (Generalized Domain Adaptation, GDA) と呼ばれる UDA 問題の一般的な表現について述べる。
gdaは、包括的なフレームワークでそれらを整理できる特別なケースとして、主要な変種をカバーしています。
さらに、この一般化は、ドメインラベルが不明な場合や、クラスラベルが各ドメインに部分的にのみ与えられる場合など、既存のメソッドが失敗する、新たな困難な設定につながる。
我々は新しい設定に対する新しいアプローチを提案する。
提案手法の鍵となるのは自己教師型クラス破壊学習であり,ドメインラベルを使わずに,クラス不変表現とドメイン逆分類器の学習を可能にする。
3つのベンチマークデータセットを用いた大規模な実験により、我々の手法は、新しい環境での最先端の UDA 手法よりも優れており、既存の UDA のバリエーションにも競合することを示した。
関連論文リスト
- Enhancing Domain Adaptation through Prompt Gradient Alignment [16.618313165111793]
我々は、ドメイン不変性と特定の特徴の両方を学ぶために、素早い学習に基づく一連の作品を開発する。
我々は、UDAを、各目的がドメイン損失で表される多重目的最適化問題とみなした。
提案手法は,異なるUDAベンチマークにおいて,他のプロンプトベースベースラインをはるかに上回っている。
論文 参考訳(メタデータ) (2024-06-13T17:40:15Z) - Open-Set Domain Adaptation for Semantic Segmentation [6.3951361316638815]
対象ドメインが未知のクラスを含むセマンティック(OSDA-SS)を初めて導入する。
これらの問題に対処するため,BUS を作成したBundary and Unknown Shape-Aware Open-set Domain adaptationを提案する。
我々のBUSは、新しい拡張浸食に基づくコントラスト損失を用いて、未知のクラスと未知のクラスの境界を正確に識別することができる。
論文 参考訳(メタデータ) (2024-05-30T09:55:19Z) - MLNet: Mutual Learning Network with Neighborhood Invariance for
Universal Domain Adaptation [70.62860473259444]
ユニバーサルドメイン適応(UniDA)は実用的だが難しい問題である。
既存のUniDAメソッドは、ターゲットドメイン内のドメイン内バリエーションを見落としている問題に悩まされる可能性がある。
そこで我々は,UniDA の近傍不変性を考慮した新しい相互学習ネットワーク (MLNet) を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:34Z) - UFDA: Universal Federated Domain Adaptation with Practical Assumptions [33.06684706053823]
本稿では,Universal Federated Domain Adaptation(UFDA)という,より実践的なシナリオについて検討する。
ブラックボックスモデルと各ソースドメインのラベルセット情報のみを必要とする。
本稿では,HCLD (Contrastive Label Disambiguation) を用いたホットラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-27T06:38:07Z) - Make the U in UDA Matter: Invariant Consistency Learning for
Unsupervised Domain Adaptation [86.61336696914447]
ICON (Invariant Consistency Learning) の略。
我々は2つの領域に等しくの地位を与えることで、教師なしDAのUを作成することを提案する。
ICON は古典的な UDA ベンチマークである Office-Home と VisDA-2017 で最先端のパフォーマンスを実現し、挑戦的な WILDS 2.0 ベンチマークでは従来の方法よりも優れています。
論文 参考訳(メタデータ) (2023-09-22T09:43:32Z) - Self-Paced Learning for Open-Set Domain Adaptation [50.620824701934]
従来のドメイン適応手法は、ソースとターゲットドメインのクラスが同一であると仮定する。
オープンセットドメイン適応(OSDA)は、この制限に対処する。
そこで,本研究では,共通クラスと未知クラスを識別するための自己評価学習に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-10T14:11:09Z) - Open Set Domain Adaptation By Novel Class Discovery [118.25447367755737]
Open Set Domain Adaptation (OSDA)では、ソースドメインに存在しない暗黙のカテゴリから大量のターゲットサンプルが引き出される。
暗黙のクラスを徐々に発見することによってOSDAを実現しようとする自己教師付きクラス発見アダプタを提案する。
論文 参考訳(メタデータ) (2022-03-07T12:16:46Z) - UMAD: Universal Model Adaptation under Domain and Category Shift [138.12678159620248]
Universal Model Adaptation (UMAD)フレームワークは、ソースデータにアクセスせずに両方のUDAシナリオを処理する。
未知のサンプルと未知のサンプルを識別するのに役立つ情報整合性スコアを開発した。
オープンセットおよびオープンパーティルセット UDA シナリオの実験では、UMAD が最先端のデータ依存手法に匹敵する性能を示した。
論文 参考訳(メタデータ) (2021-12-16T01:22:59Z) - A New Bidirectional Unsupervised Domain Adaptation Segmentation
Framework [27.13101555533594]
異なるドメイン間のギャップを埋めるために、教師なしドメイン適応(UDA)技術が提案されている。
本稿では,両方向のUDA演奏に対して,非交互表現学習に基づく双方向UDAフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-18T05:25:11Z) - Class-Incremental Domain Adaptation [56.72064953133832]
私たちは、CIDA(Class-Incremental Domain Adaptation)と呼ばれる実践的ドメイン適応(DA)パラダイムを導入します。
既存のDAメソッドはドメインシフトに取り組むが、新しいターゲットドメインクラスを学ぶのには適さない。
提案手法は,CIDAパラダイムにおけるDAメソッドとCIメソッドの両方と比較して,優れた性能が得られる。
論文 参考訳(メタデータ) (2020-08-04T07:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。