論文の概要: Unsupervised Domain Expansion for Visual Categorization
- arxiv url: http://arxiv.org/abs/2104.00233v1
- Date: Thu, 1 Apr 2021 03:27:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-03 04:36:24.235534
- Title: Unsupervised Domain Expansion for Visual Categorization
- Title(参考訳): 視覚分類のための教師なし領域拡張
- Authors: Jie Wang and Kaibin Tian and Dayong Ding and Gang Yang and Xirong Li
- Abstract要約: Unsupervised Domain expansion (UDE)は、モデルのパフォーマンスをソースドメインで維持しながら、ラベルのないデータでターゲットドメインのディープモデルを適用することを目的としています。
我々は知識蒸留に基づく学習機構を開発し、kddeはソース領域とターゲット領域が等しく扱われる単一の目的を最適化できる。
- 参考スコア(独自算出の注目度): 12.427064803221729
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Expanding visual categorization into a novel domain without the need of extra
annotation has been a long-term interest for multimedia intelligence.
Previously, this challenge has been approached by unsupervised domain
adaptation (UDA). Given labeled data from a source domain and unlabeled data
from a target domain, UDA seeks for a deep representation that is both
discriminative and domain-invariant. While UDA focuses on the target domain, we
argue that the performance on both source and target domains matters, as in
practice which domain a test example comes from is unknown. In this paper we
extend UDA by proposing a new task called unsupervised domain expansion (UDE),
which aims to adapt a deep model for the target domain with its unlabeled data,
meanwhile maintaining the model's performance on the source domain. We propose
Knowledge Distillation Domain Expansion (KDDE) as a general method for the UDE
task. Its domain-adaptation module can be instantiated with any existing model.
We develop a knowledge distillation based learning mechanism, enabling KDDE to
optimize a single objective wherein the source and target domains are equally
treated. Extensive experiments on two major benchmarks, i.e., Office-Home and
DomainNet, show that KDDE compares favorably against four competitive
baselines, i.e., DDC, DANN, DAAN, and CDAN, for both UDA and UDE tasks. Our
study also reveals that the current UDA models improve their performance on the
target domain at the cost of noticeable performance loss on the source domain.
- Abstract(参考訳): 付加的なアノテーションを必要とせずに視覚的分類を新しいドメインに拡張することは、マルチメディアインテリジェンスにとって長年の関心事である。
これまで、この課題はunsupervised domain adaptation (uda)によって解決されてきた。
ソースドメインからのラベル付きデータと対象ドメインからのラベルなしデータを考えると、UDAは識別とドメイン不変の両方の深い表現を求めます。
UDAは対象ドメインに重点を置いているが、テスト例がどのドメインから来ているかは分かっていないため、ソースドメインとターゲットドメインの両方のパフォーマンスが重要であると論じる。
本稿では,未ラベルデータを用いて対象領域の深層モデルを適用することを目的とした,unsupervised domain expansion (UDE) と呼ばれる新たなタスクを提案することにより,UDAを拡張した。
UDEタスクの一般的な方法として知識蒸留ドメイン拡張(KDDE)を提案する。
そのドメイン適応モジュールは既存のモデルでもインスタンス化できる。
我々は知識蒸留に基づく学習機構を開発し、KDDEはソースとターゲットドメインが等しく扱われる単一の目的を最適化することができる。
Office-HomeとDomainNetの2つの主要なベンチマークに関する大規模な実験は、KDDEがUDAタスクとUDEタスクの両方において、DDC、DANN、DAAN、CDANの4つの競合ベースラインと好適に比較していることを示している。
また、本研究では、現在のUDAモデルは、ソースドメインにおける顕著なパフォーマンス損失を犠牲にして、ターゲットドメインにおけるパフォーマンスを改善することも明らかにした。
関連論文リスト
- Style Adaptation for Domain-adaptive Semantic Segmentation [2.1365683052370046]
ドメインの不一致は、ターゲットドメインに適用した場合、ソースドメインデータに基づいてトレーニングされた一般的なネットワークモデルの性能を著しく低下させる。
パラメータ計算を必要とせず、自己学習に基づくUDA手法とシームレスに統合する。
提案手法は,GTA->Cityscapesデータセット上で76.93 mIoUの有意なUDA性能を達成し,過去の成果に比べて+1.03ポイント向上したことを示す。
論文 参考訳(メタデータ) (2024-04-25T02:51:55Z) - Make the U in UDA Matter: Invariant Consistency Learning for
Unsupervised Domain Adaptation [86.61336696914447]
ICON (Invariant Consistency Learning) の略。
我々は2つの領域に等しくの地位を与えることで、教師なしDAのUを作成することを提案する。
ICON は古典的な UDA ベンチマークである Office-Home と VisDA-2017 で最先端のパフォーマンスを実現し、挑戦的な WILDS 2.0 ベンチマークでは従来の方法よりも優れています。
論文 参考訳(メタデータ) (2023-09-22T09:43:32Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - AVATAR: Adversarial self-superVised domain Adaptation network for TARget
domain [11.764601181046496]
本稿では,未ラベル対象領域データの予測のための教師なし領域適応(UDA)手法を提案する。
本稿では,AVATAR(Adversarial Self-superVised Domain Adaptation Network for the TARget domain)アルゴリズムを提案する。
提案手法は,3つのUDAベンチマークにおいて,最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-04-28T20:31:56Z) - Learning Feature Decomposition for Domain Adaptive Monocular Depth
Estimation [51.15061013818216]
改良されたアプローチは、深層学習の進歩で大きな成功をもたらしたが、それらは大量の地底深度アノテーションに依存している。
教師なしドメイン適応(UDA)は、教師付き学習の制約を緩和するため、ラベル付きソースデータからラベルなしターゲットデータに知識を転送する。
本稿では,その特徴空間をコンテンツやスタイルコンポーネントに分解することを学ぶための,学習特徴分解 for Adaptation (LFDA) と呼ばれる新しいMDEのためのUDA手法を提案する。
論文 参考訳(メタデータ) (2022-07-30T08:05:35Z) - Domain-Agnostic Prior for Transfer Semantic Segmentation [197.9378107222422]
教師なしドメイン適応(UDA)はコンピュータビジョンコミュニティにおいて重要なトピックである。
ドメインに依存しない事前学習(DAP)を用いてドメイン間表現学習を規則化する機構を提案する。
我々の研究は、UDAがより良いプロキシ、おそらく他のデータモダリティの恩恵を受けていることを明らかにしている。
論文 参考訳(メタデータ) (2022-04-06T09:13:25Z) - Co-Teaching for Unsupervised Domain Adaptation and Expansion [12.455364571022576]
Unsupervised Domain Adaptation (UDA)は基本的に、ターゲットドメインのパフォーマンスを改善するために、ソースドメインでモデルのパフォーマンスを交換する。
UDEは、UDAのようにターゲットドメインにモデルを適応させようとするが、その間には、そのソースドメインのパフォーマンスを維持している。
UDAとUDEの両方の設定では、与えられたドメインに合わせたモデル(ソースまたはターゲットドメイン)が、与えられたドメインからのサンプルをうまく処理すると仮定される。
我々はこの発見を生かし、コ・ティーチング(CT)を提案する。
論文 参考訳(メタデータ) (2022-04-04T02:34:26Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。