論文の概要: Contrast and Clustering: Learning Neighborhood Pair Representation for
Source-free Domain Adaptation
- arxiv url: http://arxiv.org/abs/2301.13428v1
- Date: Tue, 31 Jan 2023 05:51:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 17:23:05.452608
- Title: Contrast and Clustering: Learning Neighborhood Pair Representation for
Source-free Domain Adaptation
- Title(参考訳): コントラストとクラスタリング:ソースフリードメイン適応のための近隣ペア表現の学習
- Authors: Yuqi Chen, Xiangbin Zhu and Yonggang Li and Yingjian Li and Yuanwang
Wei and Haojie Fang
- Abstract要約: ドメイン適応を教師なしクラスタリング問題として扱い、ソースデータにアクセスせずにターゲットモデルを訓練する。
VisDA, Office-Home, Office-31 の3つのベンチマーク実験により,本手法が最先端性能を実現することを示す。
- 参考スコア(独自算出の注目度): 4.091069596051112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptation has attracted a great deal of attention in the machine
learning community, but it requires access to source data, which often raises
concerns about data privacy. We are thus motivated to address these issues and
propose a simple yet efficient method. This work treats domain adaptation as an
unsupervised clustering problem and trains the target model without access to
the source data. Specifically, we propose a loss function called contrast and
clustering (CaC), where a positive pair term pulls neighbors belonging to the
same class together in the feature space to form clusters, while a negative
pair term pushes samples of different classes apart. In addition, extended
neighbors are taken into account by querying the nearest neighbor indexes in
the memory bank to mine for more valuable negative pairs. Extensive experiments
on three common benchmarks, VisDA, Office-Home and Office-31, demonstrate that
our method achieves state-of-the-art performance. The code will be made
publicly available at https://github.com/yukilulu/CaC.
- Abstract(参考訳): ドメイン適応は機械学習コミュニティで多くの注目を集めていますが、ソースデータへのアクセスが必要です。
そこで我々はこれらの問題に対処し、シンプルで効率的な方法を提案する。
この研究は、教師なしクラスタリング問題としてのドメイン適応を扱い、ソースデータにアクセスせずにターゲットモデルを訓練する。
具体的には、コントラスト・クラスタリング(CaC)と呼ばれる損失関数を提案し、正のペア項は特徴空間内の同じクラスに属する隣人を一緒に引いてクラスタを形成し、負のペア項は異なるクラスのサンプルを分離する。
さらに、拡張された近傍は、メモリバンクの最も近い隣接インデックスに問い合わせて、より価値のある負のペアをマイニングすることで考慮される。
VisDA, Office-Home, Office-31 の3つの一般的なベンチマーク実験により,本手法が最先端性能を実現することを示す。
コードはhttps://github.com/yukilulu/CaC.comで公開される。
関連論文リスト
- Trust your Good Friends: Source-free Domain Adaptation by Reciprocal
Neighborhood Clustering [50.46892302138662]
我々は、ソースデータがない場合に、ソース事前学習されたモデルをターゲット領域に適応させる、ソースフリー領域適応問題に対処する。
提案手法は,ソースドメイン分類器と一致しない可能性のあるターゲットデータが,依然として明確なクラスタを形成しているという観測に基づいている。
本研究では, この地域構造を, 地域住民, 相互隣人, 及び拡張近所を考慮し, 効率的に把握できることを実証する。
論文 参考訳(メタデータ) (2023-09-01T15:31:18Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - Domain-aware Triplet loss in Domain Generalization [0.0]
ドメインシフトは、テストとトレーニングデータの分布の相違によって引き起こされる。
ドメイン一般化のためのドメイン認識三重項損失を設計し、モデルが類似のセマンティックな特徴をクラスタリングするのを助ける。
本アルゴリズムは,埋め込み空間におけるドメイン情報を分散するように設計されている。
論文 参考訳(メタデータ) (2023-03-01T14:02:01Z) - Domain Generalization via Selective Consistency Regularization for Time
Series Classification [16.338176636365752]
ドメイン一般化手法は、限られた数のソースドメインからのデータで、ドメインシフトに頑健なモデルを学習することを目的としている。
本稿では,ソースドメイン間の予測一貫性を選択的に適用する表現学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-16T01:57:35Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Connect, Not Collapse: Explaining Contrastive Learning for Unsupervised
Domain Adaptation [88.5448806952394]
我々は、対象ドメインのラベル付きデータと対象ドメインのラベルなしデータを用いて、対象ドメインの分類器を学習する、教師なしドメイン適応(UDA)を考える。
ラベル付きソースとターゲットデータの特徴を学習し,ラベル付きソースデータに微調整を行うコントラスト事前学習は,強いUDA手法と競合することを示す。
論文 参考訳(メタデータ) (2022-04-01T16:56:26Z) - Domain Adaptive Semantic Segmentation without Source Data [50.18389578589789]
モデルがソースドメイン上で事前学習されていることを前提として、ソースデータのないドメイン適応セマンティックセマンティックセマンティックセマンティクスについて検討する。
本稿では,この課題に対して,肯定的学習と否定的学習という2つの要素を用いた効果的な枠組みを提案する。
私たちのフレームワークは、パフォーマンスをさらに向上するために、他のメソッドに簡単に実装および組み込むことができます。
論文 参考訳(メタデータ) (2021-10-13T04:12:27Z) - Prior Omission of Dissimilar Source Domain(s) for Cost-Effective
Few-Shot Learning [24.647313693814798]
ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル(NLU)の分野における新たな研究課題
ソースドメインからの十分なアノテートされたデータによって、重要な課題は、モデルを少数のラベルしか持たない別のターゲットドメインにトレーニングし、適応する方法である。
論文 参考訳(メタデータ) (2021-09-11T09:30:59Z) - Contradistinguisher: A Vapnik's Imperative to Unsupervised Domain
Adaptation [7.538482310185133]
本研究では,コントラスト特徴を学習するContradistinguisherと呼ばれるモデルを提案する。
Office-31とVisDA-2017における最先端のデータセットを、シングルソースとマルチソースの両方で実現しています。
論文 参考訳(メタデータ) (2020-05-25T19:54:38Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。