論文の概要: Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation
- arxiv url: http://arxiv.org/abs/2003.03787v2
- Date: Tue, 10 Mar 2020 09:15:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 14:34:22.850247
- Title: Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation
- Title(参考訳): Mind the Gap: Open Set Domain Adaptationにおけるドメインギャップの拡大
- Authors: Dongliang Chang, Aneeshan Sain, Zhanyu Ma, Yi-Zhe Song, Jun Guo
- Abstract要約: オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 65.38975706997088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation aims to leverage labeled data from a source
domain to learn a classifier for an unlabeled target domain. Among its many
variants, open set domain adaptation (OSDA) is perhaps the most challenging, as
it further assumes the presence of unknown classes in the target domain. In
this paper, we study OSDA with a particular focus on enriching its ability to
traverse across larger domain gaps. Firstly, we show that existing
state-of-the-art methods suffer a considerable performance drop in the presence
of larger domain gaps, especially on a new dataset (PACS) that we re-purposed
for OSDA. We then propose a novel framework to specifically address the larger
domain gaps. The key insight lies with how we exploit the mutually beneficial
information between two networks; (a) to separate samples of known and unknown
classes, (b) to maximize the domain confusion between source and target domain
without the influence of unknown samples. It follows that (a) and (b) will
mutually supervise each other and alternate until convergence. Extensive
experiments are conducted on Office-31, Office-Home, and PACS datasets,
demonstrating the superiority of our method in comparison to other
state-of-the-arts. Code available at
https://github.com/dongliangchang/Mutual-to-Separate/
- Abstract(参考訳): 教師なしのドメイン適応は、ソースドメインからのラベル付きデータを活用して、ラベルなしのターゲットドメインの分類子を学ぶことを目的としています。
その多くの変種の中で、open set domain adaptation (osda) はおそらく最も困難であり、ターゲットドメインに未知のクラスの存在を想定している。
本稿では,osda について,より大きな領域間隙を横断する能力の強化に特に焦点をあてて検討する。
第一に、既存の最先端手法は、特にOSDA用に再設計された新しいデータセット(PACS)において、より大きなドメインギャップが存在する場合、大幅なパフォーマンス低下を被ることを示す。
次に、より大きなドメインギャップに対処する新しいフレームワークを提案する。
重要な洞察は、2つのネットワーク間の相互に有益な情報をどのように活用するかである。
a) 既知のクラスと未知のクラスのサンプルを分離する。
b) 未知のサンプルの影響を受けずに、ソースとターゲットドメイン間のドメインの混乱を最大化する。
その通りです
(a)及び
(b)相互に監督し、収束するまで交代する。
Office-31、Office-Home、PACSのデータセットで大規模な実験を行い、他の最先端技術と比較して、我々の手法の優位性を実証した。
コードはhttps://github.com/dongliangchang/mutual-to-separate/。
関連論文リスト
- Reducing Source-Private Bias in Extreme Universal Domain Adaptation [11.875619863954238]
Universal Domain Adaptation (UniDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
我々は、ソースドメインが重複するクラスよりもはるかに重複しないクラスを持つ場合、最先端のメソッドが苦労していることを示す。
対象データの構造を保存するために,自己教師付き学習を提案する。
論文 参考訳(メタデータ) (2024-10-15T04:51:37Z) - Open-Set Domain Adaptation for Semantic Segmentation [6.3951361316638815]
対象ドメインが未知のクラスを含むセマンティック(OSDA-SS)を初めて導入する。
これらの問題に対処するため,BUS を作成したBundary and Unknown Shape-Aware Open-set Domain adaptationを提案する。
我々のBUSは、新しい拡張浸食に基づくコントラスト損失を用いて、未知のクラスと未知のクラスの境界を正確に識別することができる。
論文 参考訳(メタデータ) (2024-05-30T09:55:19Z) - Domain Adaptive Few-Shot Open-Set Learning [36.39622440120531]
本稿では,DA-FSOS(Domain Adaptive Few-Shot Open Set Recognition)を提案する。
我々のトレーニングアプローチは、DAFOS-NETがターゲットドメインの新しいシナリオにうまく適応できるようにします。
本稿では,Office-Home,mini-ImageNet/CUB,DomainNetデータセットに基づくDA-FSOSの3つのベンチマークを示す。
論文 参考訳(メタデータ) (2023-09-22T12:04:47Z) - Make the U in UDA Matter: Invariant Consistency Learning for
Unsupervised Domain Adaptation [86.61336696914447]
ICON (Invariant Consistency Learning) の略。
我々は2つの領域に等しくの地位を与えることで、教師なしDAのUを作成することを提案する。
ICON は古典的な UDA ベンチマークである Office-Home と VisDA-2017 で最先端のパフォーマンスを実現し、挑戦的な WILDS 2.0 ベンチマークでは従来の方法よりも優れています。
論文 参考訳(メタデータ) (2023-09-22T09:43:32Z) - Discover, Hallucinate, and Adapt: Open Compound Domain Adaptation for
Semantic Segmentation [91.30558794056056]
意味的セグメンテーションのための教師なしドメイン適応(UDA)が近年注目を集めている。
我々は,発見,幻覚,適応の3つの主要な設計原則に基づく新しいフレームワークを提案する。
我々は、標準ベンチマークGTAからC自動運転へのソリューションの評価を行い、新しい最先端の結果を得た。
論文 参考訳(メタデータ) (2021-10-08T13:20:09Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。