論文の概要: When Source-Free Domain Adaptation Meets Label Propagation
- arxiv url: http://arxiv.org/abs/2301.08413v1
- Date: Fri, 20 Jan 2023 03:39:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-23 13:47:04.601057
- Title: When Source-Free Domain Adaptation Meets Label Propagation
- Title(参考訳): ソースフリードメイン適応がラベル伝搬に遭遇する
- Authors: Chunwei Wu, Guitao Cao, Yan Li, Xidong Xi, Wenming Cao, Hong Wang
- Abstract要約: Adaptive Local Transfer (ALT)は,ラベル伝搬の観点から,効率的な特徴クラスタリングを実現することを目的としている。
ALTは、学習状態の適応しきい値に基づいて、対象データを内および外層サンプルに分割する。
これにより、サブポピュレーション間のラベル情報を効果的に伝播しながら、局所クラスタリングが急激なクラスタを形成するのを防止することができる。
- 参考スコア(独自算出の注目度): 10.506462772732018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Source-free domain adaptation, where only a pre-trained source model is used
to adapt to the target distribution, is a more general approach to achieving
domain adaptation. However, it can be challenging to capture the inherent
structure of the target features accurately due to the lack of supervised
information on the target domain. To tackle this problem, we propose a novel
approach called Adaptive Local Transfer (ALT) that tries to achieve efficient
feature clustering from the perspective of label propagation. ALT divides the
target data into inner and outlier samples based on the adaptive threshold of
the learning state, and applies a customized learning strategy to best fits the
data property. Specifically, inner samples are utilized for learning
intra-class structure thanks to their relatively well-clustered properties. The
low-density outlier samples are regularized by input consistency to achieve
high accuracy with respect to the ground truth labels. In this way, local
clustering can be prevented from forming spurious clusters while effectively
propagating label information among subpopulations. Empirical evidence
demonstrates that ALT outperforms the state of the arts on three public
benchmarks: Office-31, Office-Home, and VisDA.
- Abstract(参考訳): 対象の分布に適応するために事前訓練されたソースモデルのみを使用するソースフリードメイン適応は、ドメイン適応を達成するためのより一般的なアプローチである。
しかし,対象領域の教師付き情報が欠如していることから,対象特徴の固有構造を正確に把握することは困難である。
この問題に対処するため,ラベル伝搬の観点から効率的な特徴クラスタリングを実現するために,適応局所移動(ALT)と呼ばれる新しい手法を提案する。
ALTは、学習状態の適応しきい値に基づいて、対象データをインナーおよびアウヤサンプルに分割し、データ特性に最も合うようにカスタマイズされた学習戦略を適用する。
具体的には、内部サンプルは比較的凝集した性質によりクラス内構造を学習するために利用される。
低密度の異常サンプルは入力一貫性によって正規化され、基底真理ラベルに対して高い精度を達成する。
これにより、サブ集団間のラベル情報を効果的に伝播させながら、局所クラスタリングによるスプリアスクラスタの形成を防止することができる。
実証的な証拠は、ALTがOffice-31、Office-Home、VisDAの3つの公開ベンチマークで芸術の状態を上回っていることを示している。
関連論文リスト
- High-order Neighborhoods Know More: HyperGraph Learning Meets Source-free Unsupervised Domain Adaptation [34.08681468394247]
Source-free Unsupervised Domain Adaptationは、未学習のソースモデルと未学習のターゲットモデルにのみアクセスすることで、ターゲットサンプルを分類することを目的としている。
既存の手法は、通常、対象サンプル間のペアワイズ関係を利用して、これらのサンプルを意味的特徴に基づいてクラスタリングすることで、それらの相関関係を見つけようとする。
本研究では、高次近傍関係を利用して、ドメインシフト効果を明示的に考慮した新しいSFDA法を提案する。
論文 参考訳(メタデータ) (2024-05-11T05:07:43Z) - Unsupervised Domain Adaptation via Distilled Discriminative Clustering [45.39542287480395]
対象データの識別クラスタリングとしてドメイン適応問題を再検討する。
本稿では,ラベル付き情報源データよりも並列に教師付き学習目標を用いて,ネットワークを協調的に訓練することを提案する。
5つの人気のあるベンチマークデータセットに対して、慎重にアブレーション研究と広範な実験を行う。
論文 参考訳(メタデータ) (2023-02-23T13:03:48Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Low-confidence Samples Matter for Domain Adaptation [47.552605279925736]
ドメイン適応(DA)は、知識をラベルの豊富なソースドメインから関連するがラベルの少ないターゲットドメインに転送することを目的としている。
低信頼度サンプルの処理による新しいコントラスト学習法を提案する。
提案手法を教師なしと半教師付きの両方のDA設定で評価する。
論文 参考訳(メタデータ) (2022-02-06T15:45:45Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Cycle Self-Training for Domain Adaptation [85.14659717421533]
Cycle Self-Training (CST) は、ドメイン間の一般化に擬似ラベルを強制する、原則付き自己学習アルゴリズムである。
CSTは目標の真理を回復し、不変の機能学習とバニラ自己訓練の両方が失敗する。
実験結果から,標準的なUDAベンチマークでは,CSTは先行技術よりも大幅に改善されていることが示唆された。
論文 参考訳(メタデータ) (2021-03-05T10:04:25Z) - Towards Uncovering the Intrinsic Data Structures for Unsupervised Domain
Adaptation using Structurally Regularized Deep Clustering [119.88565565454378]
Unsupervised Domain Adapt (UDA) は、ターゲットドメイン上のラベルなしデータの予測を行う分類モデルを学ぶことである。
本稿では,対象データの正規化判別クラスタリングと生成クラスタリングを統合する構造的正規化深層クラスタリングのハイブリッドモデルを提案する。
提案するH-SRDCは, インダクティブ設定とトランスダクティブ設定の両方において, 既存の手法よりも優れている。
論文 参考訳(メタデータ) (2020-12-08T08:52:00Z) - Alleviating Semantic-level Shift: A Semi-supervised Domain Adaptation
Method for Semantic Segmentation [97.8552697905657]
このタスクの重要な課題は、ソースとターゲットドメイン間のデータ分散の相違を緩和する方法である。
本稿では,グローバルな視点とローカルな視点の両方から分布の整合性を促進できるASS(Alleviating Semantic-level Shift)を提案する。
GTA5、Cityscapes、Synthia、Cityscapesの2つのドメイン適応タスクにASSを適用します。
論文 参考訳(メタデータ) (2020-04-02T03:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。