論文の概要: Unsupervised Domain Adaptation via Distilled Discriminative Clustering
- arxiv url: http://arxiv.org/abs/2302.11984v1
- Date: Thu, 23 Feb 2023 13:03:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 15:17:09.961909
- Title: Unsupervised Domain Adaptation via Distilled Discriminative Clustering
- Title(参考訳): 蒸留分別クラスタリングによる教師なしドメイン適応
- Authors: Hui Tang, Yaowei Wang, and Kui Jia
- Abstract要約: 対象データの識別クラスタリングとしてドメイン適応問題を再検討する。
本稿では,ラベル付き情報源データよりも並列に教師付き学習目標を用いて,ネットワークを協調的に訓練することを提案する。
5つの人気のあるベンチマークデータセットに対して、慎重にアブレーション研究と広範な実験を行う。
- 参考スコア(独自算出の注目度): 45.39542287480395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation addresses the problem of classifying data in
an unlabeled target domain, given labeled source domain data that share a
common label space but follow a different distribution. Most of the recent
methods take the approach of explicitly aligning feature distributions between
the two domains. Differently, motivated by the fundamental assumption for
domain adaptability, we re-cast the domain adaptation problem as discriminative
clustering of target data, given strong privileged information provided by the
closely related, labeled source data. Technically, we use clustering objectives
based on a robust variant of entropy minimization that adaptively filters
target data, a soft Fisher-like criterion, and additionally the cluster
ordering via centroid classification. To distill discriminative source
information for target clustering, we propose to jointly train the network
using parallel, supervised learning objectives over labeled source data. We
term our method of distilled discriminative clustering for domain adaptation as
DisClusterDA. We also give geometric intuition that illustrates how constituent
objectives of DisClusterDA help learn class-wisely pure, compact feature
distributions. We conduct careful ablation studies and extensive experiments on
five popular benchmark datasets, including a multi-source domain adaptation
one. Based on commonly used backbone networks, DisClusterDA outperforms
existing methods on these benchmarks. It is also interesting to observe that in
our DisClusterDA framework, adding an additional loss term that explicitly
learns to align class-level feature distributions across domains does harm to
the adaptation performance, though more careful studies in different
algorithmic frameworks are to be conducted.
- Abstract(参考訳): 教師なしドメイン適応は、共通のラベル空間を共有するが、異なる分布に従うラベル付きソースドメインデータを与えられたラベル付きターゲットドメインで分類する問題に対処する。
最近の手法のほとんどは、2つのドメイン間の特徴分布を明示的に整列するアプローチを取っている。
異なるのは、ドメイン適応性の基本的な仮定に動機づけられ、近縁のラベル付きソースデータによって提供される強い特権情報によって、対象データの識別的クラスタリングとしてドメイン適応問題を再キャストする。
技術的には、ターゲットデータを適応的にフィルタリングするエントロピー最小化の頑健な変種、ソフトフィッシャーライクな基準、およびセントロイド分類によるクラスタ順序付けに基づくクラスタリング目的を用いる。
ターゲットクラスタリングのための識別源情報を抽出するために,ラベル付きソースデータよりも並列で教師付き学習目標を用いてネットワークを協調訓練することを提案する。
ドメイン適応のための蒸留分別クラスタリング法をDisClusterDAと呼ぶ。
また、disclusterdaの構成的目的がクラス的に純粋でコンパクトな機能分布をどのように学習するかを示す幾何学的直観を与える。
マルチソースドメイン適応データを含む5つの人気のあるベンチマークデータセットについて,注意深いアブレーション研究と広範な実験を行う。
一般的に使用されるバックボーンネットワークに基づいて、DisClusterDAはこれらのベンチマークで既存のメソッドより優れている。
また、DisClusterDAフレームワークでは、ドメイン間のクラスレベルの特徴分布の整合を明示的に学習する損失項を追加することで、適応性能に悪影響を及ぼすが、異なるアルゴリズムフレームワークでのより慎重な研究が実施される。
関連論文リスト
- Polycentric Clustering and Structural Regularization for Source-free
Unsupervised Domain Adaptation [20.952542421577487]
Source-Free Domain Adaptation (SFDA)は、訓練済みのソースモデルから学習した知識を未確認のターゲットドメインに転送することで、ドメイン適応問題を解決することを目的としている。
既存のほとんどのメソッドは、機能プロトタイプを生成することによって、ターゲットデータに擬似ラベルを割り当てる。
本稿では,PCSRと命名された新しいフレームワークを,クラス内多中心クラスタリングおよび構造規則化戦略を通じてSFDAに取り組むために提案する。
論文 参考訳(メタデータ) (2022-10-14T02:20:48Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Cross-Domain Adaptive Clustering for Semi-Supervised Domain Adaptation [85.6961770631173]
半監視されたドメイン適応では、残りのターゲットサンプルのターゲットドメインガイド機能内のクラスごとのいくつかのラベル付きサンプルが、その周辺に集約される。
この問題に対処するために,クロスドメイン適応クラスタリングという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-04-19T16:07:32Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Towards Uncovering the Intrinsic Data Structures for Unsupervised Domain
Adaptation using Structurally Regularized Deep Clustering [119.88565565454378]
Unsupervised Domain Adapt (UDA) は、ターゲットドメイン上のラベルなしデータの予測を行う分類モデルを学ぶことである。
本稿では,対象データの正規化判別クラスタリングと生成クラスタリングを統合する構造的正規化深層クラスタリングのハイブリッドモデルを提案する。
提案するH-SRDCは, インダクティブ設定とトランスダクティブ設定の両方において, 既存の手法よりも優れている。
論文 参考訳(メタデータ) (2020-12-08T08:52:00Z) - Exploring Category-Agnostic Clusters for Open-Set Domain Adaptation [138.29273453811945]
本稿では、カテゴリ非依存クラスタ(SE-CC)を対象ドメインのカテゴリ非依存クラスタと組み合わせた、新たなアーキテクチャを提案する。
クラスタリングは、対象ドメイン特有の基盤となるデータ空間構造を明らかにするカテゴリ非依存クラスタを得るために、ラベルなしのターゲットサンプルすべてにわたって実行される。
論文 参考訳(メタデータ) (2020-06-11T16:19:02Z) - Domain Adaptation by Class Centroid Matching and Local Manifold
Self-Learning [8.316259570013813]
本稿では,対象領域のデータ分散構造を徹底的に探索できる新しい領域適応手法を提案する。
対象領域内の同一クラスタ内のサンプルを個人ではなく全体とみなし、クラスセントロイドマッチングにより擬似ラベルを対象クラスタに割り当てる。
提案手法の目的関数を理論的収束保証を用いて解くために,効率的な反復最適化アルゴリズムを設計した。
論文 参考訳(メタデータ) (2020-03-20T16:59:27Z) - Unsupervised Domain Adaptation via Structurally Regularized Deep
Clustering [35.008158504090176]
教師なし領域適応(Unsupervised domain adapt, UDA)とは、対象ドメイン上のラベルなしデータの予測であり、対象ドメインから分布がシフトするソースドメイン上のラベル付きデータである。
対象データの識別クラスタリングにより,本質的な対象識別を直接発見することを提案する。
我々は,提案手法をSRDC (Structurely Regularized Deep Clustering) と呼ぶ。
論文 参考訳(メタデータ) (2020-03-19T07:26:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。