論文の概要: GLC++: Source-Free Universal Domain Adaptation through Global-Local Clustering and Contrastive Affinity Learning
- arxiv url: http://arxiv.org/abs/2403.14410v1
- Date: Thu, 21 Mar 2024 13:57:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 14:09:01.257401
- Title: GLC++: Source-Free Universal Domain Adaptation through Global-Local Clustering and Contrastive Affinity Learning
- Title(参考訳): GLC++:グローバルローカルクラスタリングとコントラスト親和性学習によるソースフリーユニバーサルドメイン適応
- Authors: Sanqing Qu, Tianpei Zou, Florian Röhrbein, Cewu Lu, Guang Chen, Dacheng Tao, Changjun Jiang,
- Abstract要約: Source-Free Universal Domain Adaptation (SF-UniDA) は、共通カテゴリに属する「既知の」データを正確に分類することを目的としている。
本稿では,適応的な一対一のグローバルクラスタリングアルゴリズムを備えた新しいグローバル・ローカルクラスタリング(GLC)手法を提案する。
我々はGLCをGLC++に進化させ、対照的な親和性学習戦略を統合する。
- 参考スコア(独自算出の注目度): 84.54244771470012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks often exhibit sub-optimal performance under covariate and category shifts. Source-Free Domain Adaptation (SFDA) presents a promising solution to this dilemma, yet most SFDA approaches are restricted to closed-set scenarios. In this paper, we explore Source-Free Universal Domain Adaptation (SF-UniDA) aiming to accurately classify "known" data belonging to common categories and segregate them from target-private "unknown" data. We propose a novel Global and Local Clustering (GLC) technique, which comprises an adaptive one-vs-all global clustering algorithm to discern between target classes, complemented by a local k-NN clustering strategy to mitigate negative transfer. Despite the effectiveness, the inherent closed-set source architecture leads to uniform treatment of "unknown" data, impeding the identification of distinct "unknown" categories. To address this, we evolve GLC to GLC++, integrating a contrastive affinity learning strategy. We examine the superiority of GLC and GLC++ across multiple benchmarks and category shift scenarios. Remarkably, in the most challenging open-partial-set scenarios, GLC and GLC++ surpass GATE by 16.7% and 18.6% in H-score on VisDA, respectively. GLC++ enhances the novel category clustering accuracy of GLC by 4.3% in open-set scenarios on Office-Home. Furthermore, the introduced contrastive learning strategy not only enhances GLC but also significantly facilitates existing methodologies.
- Abstract(参考訳): ディープニューラルネットワークは、共変量およびカテゴリーシフトの下で、しばしば準最適性能を示す。
Source-Free Domain Adaptation (SFDA)はこのジレンマに対して有望な解決策を提供するが、ほとんどのSFDAアプローチはクローズドセットシナリオに限定されている。
本稿では、共通カテゴリに属する「既知の」データを正確に分類し、ターゲットプライベートな「未知」データから分離することを目的とした、ソースフリーユニバーサルドメイン適応(SF-UniDA)について検討する。
本稿では,グローバルクラスタリング(GLC, Global and Local Clustering)手法を提案する。この手法は1対1のグローバルクラスタリングアルゴリズムを用いて,ターゲットクラスを識別し,ローカルk-NNクラスタリング戦略を補完し,負の転送を緩和する。
この効果にもかかわらず、固有のクローズド・セット・ソース・アーキテクチャは「未知」なデータを均一に扱い、異なる「未知」なカテゴリの識別を妨げる。
これを解決するため、GLCをGLC++に進化させ、対照的な親和性学習戦略を統合する。
複数のベンチマークおよびカテゴリシフトシナリオにおけるGLCとGLC++の優位性を検討する。
注目すべきは、最も困難なオープンパーティショナリーセットのシナリオでは、GLCとGLC++がそれぞれ、VisDAのHスコアで16.7%、GLC++が18.6%を上回っていることである。
GLC++は、Office-Home上のオープンセットシナリオにおいて、GLCの新しいカテゴリクラスタリング精度を4.3%向上させる。
さらに, コントラスト学習戦略の導入は, GLCを増強するだけでなく, 既存の方法論を著しく促進する。
関連論文リスト
- Federated Learning with Bilateral Curation for Partially Class-Disjoint Data [47.55180390473258]
部分的なクラス分離データ(PCDD)は、一般的なが未探索のデータ生成であり、フェデレートされたアルゴリズムの性能に深刻な挑戦をする。
我々はFedGELAと呼ばれる新しい手法を提案し、ETFは局所的に個人分布に適応しながら、単純なETFとしてグローバルに固定されている。
我々は、FedGELAが有望なパフォーマンスを達成することを示すために、さまざまなデータセットに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-05-29T10:34:44Z) - Federated Generalized Category Discovery [68.35420359523329]
一般カテゴリー発見(GCD)は、未知のクラスからラベルのないサンプルをグループ化することを目的としている。
地域社会における近年の分権化の傾向に対応するため,フェデレーションGCD(Fed-GCD)という,実践的かつ困難な課題を導入する。
Fed-GCDの目標は、プライバシ保護された制約の下で、クライアントのコラボレーションによって汎用的なGCDモデルをトレーニングすることである。
論文 参考訳(メタデータ) (2023-05-23T14:27:41Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Chaos to Order: A Label Propagation Perspective on Source-Free Domain
Adaptation [8.27771856472078]
我々は、ソースフリードメイン適応(SFDA)のための新しいアプローチであるChaos to Order(CtO)を提示する。
CtOは、セマンティックな信頼性を制約し、ターゲットのサブポピュレーション間でラベル情報を伝達する。
実証的な証拠は、CtOが3つの公開ベンチマークで芸術の状態を上回っていることを示している。
論文 参考訳(メタデータ) (2023-01-20T03:39:35Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。