論文の概要: Contrast and Clustering: Learning Neighborhood Pair Representation for
Source-free Domain Adaptation
- arxiv url: http://arxiv.org/abs/2301.13428v3
- Date: Sat, 18 Mar 2023 03:02:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 00:23:20.557331
- Title: Contrast and Clustering: Learning Neighborhood Pair Representation for
Source-free Domain Adaptation
- Title(参考訳): コントラストとクラスタリング:ソースフリードメイン適応のための近隣ペア表現の学習
- Authors: Yuqi Chen, Xiangbin Zhu and Yonggang Li and Yingjian Li and Haojie
Fang
- Abstract要約: 我々は、ソースドメインデータが利用できず、ターゲットドメインデータがラベル付けされていないような、より実用的で困難な設定を考えます。
具体的には、対照的な学習の観点から、ドメインの不一致の問題に対処する。
私たちは、VisDA、Office-Home、Office-31の3つの一般的なベンチマークで、慎重にアブレーション研究と広範な実験を行います。
- 参考スコア(独自算出の注目度): 4.032100683989033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation uses source data from different distributions
to solve the problem of classifying data from unlabeled target domains.
However, conventional methods require access to source data, which often raise
concerns about data privacy. In this paper, we consider a more practical but
challenging setting where the source domain data is unavailable and the target
domain data is unlabeled. Specifically, we address the domain discrepancy
problem from the perspective of contrastive learning. The key idea of our work
is to learn a domain-invariant feature by 1) performing clustering directly in
the original feature space with nearest neighbors; 2) constructing truly hard
negative pairs by extended neighbors without introducing additional
computational complexity; and 3) combining noise-contrastive estimation theory
to gain computational advantage. We conduct careful ablation studies and
extensive experiments on three common benchmarks: VisDA, Office-Home, and
Office-31. The results demonstrate the superiority of our methods compared with
other state-of-the-art works.
- Abstract(参考訳): 教師なしドメイン適応は、異なるディストリビューションのソースデータを使用して、ラベルのないターゲットドメインからデータを分類する問題を解決する。
しかし、従来の方法ではソースデータへのアクセスが必要であり、データプライバシに関する懸念がしばしば生じている。
本稿では、ソースドメインデータが利用できなくなり、対象ドメインデータがラベル付けされていない、より実用的で困難な設定について考察する。
具体的には, コントラスト学習の観点から, ドメインの不一致問題に対処する。
私たちの仕事の鍵となるアイデアは、ドメイン不変機能を学ぶことです。
1) 隣人と共に元の特徴空間に直接クラスタリングを行う。
2) さらなる計算複雑性を導入することなく、隣り合う拡張による真の強負対の構築
3) ノイズコントラスト推定理論を組み合わせ, 計算上の優位性を得る。
我々はvisda, office-home, office-31の3つの共通ベンチマークについて, 注意深くアブレーション研究を行い, 広範な実験を行った。
その結果,本手法は他の最先端作品と比較して優れていることがわかった。
関連論文リスト
- Trust your Good Friends: Source-free Domain Adaptation by Reciprocal
Neighborhood Clustering [50.46892302138662]
我々は、ソースデータがない場合に、ソース事前学習されたモデルをターゲット領域に適応させる、ソースフリー領域適応問題に対処する。
提案手法は,ソースドメイン分類器と一致しない可能性のあるターゲットデータが,依然として明確なクラスタを形成しているという観測に基づいている。
本研究では, この地域構造を, 地域住民, 相互隣人, 及び拡張近所を考慮し, 効率的に把握できることを実証する。
論文 参考訳(メタデータ) (2023-09-01T15:31:18Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - Domain-aware Triplet loss in Domain Generalization [0.0]
ドメインシフトは、テストとトレーニングデータの分布の相違によって引き起こされる。
ドメイン一般化のためのドメイン認識三重項損失を設計し、モデルが類似のセマンティックな特徴をクラスタリングするのを助ける。
本アルゴリズムは,埋め込み空間におけるドメイン情報を分散するように設計されている。
論文 参考訳(メタデータ) (2023-03-01T14:02:01Z) - Domain Generalization via Selective Consistency Regularization for Time
Series Classification [16.338176636365752]
ドメイン一般化手法は、限られた数のソースドメインからのデータで、ドメインシフトに頑健なモデルを学習することを目的としている。
本稿では,ソースドメイン間の予測一貫性を選択的に適用する表現学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-16T01:57:35Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Connect, Not Collapse: Explaining Contrastive Learning for Unsupervised
Domain Adaptation [88.5448806952394]
我々は、対象ドメインのラベル付きデータと対象ドメインのラベルなしデータを用いて、対象ドメインの分類器を学習する、教師なしドメイン適応(UDA)を考える。
ラベル付きソースとターゲットデータの特徴を学習し,ラベル付きソースデータに微調整を行うコントラスト事前学習は,強いUDA手法と競合することを示す。
論文 参考訳(メタデータ) (2022-04-01T16:56:26Z) - Domain Adaptive Semantic Segmentation without Source Data [50.18389578589789]
モデルがソースドメイン上で事前学習されていることを前提として、ソースデータのないドメイン適応セマンティックセマンティックセマンティックセマンティクスについて検討する。
本稿では,この課題に対して,肯定的学習と否定的学習という2つの要素を用いた効果的な枠組みを提案する。
私たちのフレームワークは、パフォーマンスをさらに向上するために、他のメソッドに簡単に実装および組み込むことができます。
論文 参考訳(メタデータ) (2021-10-13T04:12:27Z) - Prior Omission of Dissimilar Source Domain(s) for Cost-Effective
Few-Shot Learning [24.647313693814798]
ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル(NLU)の分野における新たな研究課題
ソースドメインからの十分なアノテートされたデータによって、重要な課題は、モデルを少数のラベルしか持たない別のターゲットドメインにトレーニングし、適応する方法である。
論文 参考訳(メタデータ) (2021-09-11T09:30:59Z) - Contradistinguisher: A Vapnik's Imperative to Unsupervised Domain
Adaptation [7.538482310185133]
本研究では,コントラスト特徴を学習するContradistinguisherと呼ばれるモデルを提案する。
Office-31とVisDA-2017における最先端のデータセットを、シングルソースとマルチソースの両方で実現しています。
論文 参考訳(メタデータ) (2020-05-25T19:54:38Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。