論文の概要: When Source-Free Domain Adaptation Meets Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2301.13381v1
- Date: Tue, 31 Jan 2023 03:06:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 17:53:12.044576
- Title: When Source-Free Domain Adaptation Meets Learning with Noisy Labels
- Title(参考訳): ソース不要なドメイン適応がノイズラベルによる学習に遭遇する時
- Authors: Li Yi, Gezheng Xu, Pengcheng Xu, Jiaqi Li, Ruizhi Pu, Charles Ling, A.
Ian McLeod and Boyu Wang
- Abstract要約: ラベルノイズ(LLN)を用いた学習の観点から、ソースフリードメイン適応(SFDA)について検討する。
SFDAのラベルノイズは異なる分布仮定に従っており、既存のLLN法ではSFDAのラベルノイズに対処できないことが証明された。
SFDAのラベルノイズに対処するためにETPを活用することで既存のSFDAアルゴリズムを大幅に改善した。
- 参考スコア(独自算出の注目度): 15.231824258485199
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent state-of-the-art source-free domain adaptation (SFDA) methods have
focused on learning meaningful cluster structures in the feature space, which
have succeeded in adapting the knowledge from source domain to unlabeled target
domain without accessing the private source data. However, existing methods
rely on the pseudo-labels generated by source models that can be noisy due to
domain shift. In this paper, we study SFDA from the perspective of learning
with label noise (LLN). Unlike the label noise in the conventional LLN
scenario, we prove that the label noise in SFDA follows a different
distribution assumption. We also prove that such a difference makes existing
LLN methods that rely on their distribution assumptions unable to address the
label noise in SFDA. Empirical evidence suggests that only marginal
improvements are achieved when applying the existing LLN methods to solve the
SFDA problem. On the other hand, although there exists a fundamental difference
between the label noise in the two scenarios, we demonstrate theoretically that
the early-time training phenomenon (ETP), which has been previously observed in
conventional label noise settings, can also be observed in the SFDA problem.
Extensive experiments demonstrate significant improvements to existing SFDA
algorithms by leveraging ETP to address the label noise in SFDA.
- Abstract(参考訳): 最近のsfda(state-of-the-art source-free domain adaptation)法は、プライベートなソースデータにアクセスせずに、ソースドメインからラベルなしのターゲットドメインへの知識の適用に成功した、機能空間における有意義なクラスタ構造を学ぶことに重点を置いている。
しかし、既存の手法は、ドメインシフトによってノイズになりうるソースモデルによって生成される擬似ラベルに依存している。
本稿では,ラベルノイズ(LLN)を用いた学習の観点からSFDAについて検討する。
従来のLLNシナリオのラベルノイズとは異なり、SFDAのラベルノイズは異なる分布仮定に従っていることを示す。
また, この差が, SFDA のラベルノイズに対処できない分布仮定に依存する既存のLLN法を立証する。
実証的な証拠は、既存のLLN法を適用してSFDAの問題を解決する際に、限界的な改善のみが達成されることを示している。
一方,2つのシナリオにはラベルノイズに根本的な違いがあるものの,従来のラベルノイズ設定ではこれまで観測されていた早期学習現象(ETP)がSFDA問題でも観察できることが理論的に証明されている。
SFDAのラベルノイズに対処するためにETPを活用することで既存のSFDAアルゴリズムを大幅に改善した。
関連論文リスト
- Uncertainty-guided Open-Set Source-Free Unsupervised Domain Adaptation with Target-private Class Segregation [22.474866164542302]
UDAアプローチはソースとターゲットドメインが同じラベル空間を共有していると一般的に仮定する。
本稿では、SF-OSDA(Source-Free Open-set Domain Adaptation)設定の課題について考察する。
本稿では,サンプルを複数の未知のクラスに分離することで,ターゲット・プライベートカテゴリの粒度を利用したSF-OSDAの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-16T13:52:00Z) - De-Confusing Pseudo-Labels in Source-Free Domain Adaptation [14.954662088592762]
ソースのないドメイン適応は、ソースデータにアクセスすることなく、未ラベルのターゲットドメインにソース訓練されたモデルを適用することを目的としている。
本稿では,ドメイン適応設定における雑音分布に対処するための新しいノイズ学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-03T10:07:11Z) - Exploiting Low-confidence Pseudo-labels for Source-free Object Detection [54.98300313452037]
Source-free Object Detection (SFOD) は、ラベル付きソースデータにアクセスすることなく、未ラベルのターゲットドメインにソーストレーニングされた検出器を適応することを目的としている。
現在のSFOD法は適応相におけるしきい値に基づく擬似ラベル手法を用いる。
疑似ラベルを最大限に活用するために,高信頼度と低信頼度しきい値を導入する手法を提案する。
論文 参考訳(メタデータ) (2023-10-19T12:59:55Z) - SF-FSDA: Source-Free Few-Shot Domain Adaptive Object Detection with
Efficient Labeled Data Factory [94.11898696478683]
ドメイン適応オブジェクト検出は、ラベル付きソースドメインから学んだ知識を活用し、ラベルなしのターゲットドメインのパフォーマンスを改善することを目的としています。
本研究では,SF-FSDA という名称のソースフリーおよび少数ショット条件下で,より実用的で困難な領域適応型オブジェクト検出問題を提案し,検討する。
論文 参考訳(メタデータ) (2023-06-07T12:34:55Z) - C-SFDA: A Curriculum Learning Aided Self-Training Framework for
Efficient Source Free Domain Adaptation [18.58469201869616]
教師なしドメイン適応(UDA)アプローチは、ラベル付きソースドメインでトレーニングされたモデルをラベルなしターゲットドメインに適応させることに重点を置いている。
C-SFDAは、選択的擬似ラベルによるドメイン間の変化に効率よく確実に適応できる、SFDAの自己学習フレームワークである。
論文 参考訳(メタデータ) (2023-03-30T03:42:54Z) - Towards Federated Learning against Noisy Labels via Local
Self-Regularization [11.077889765623588]
フェデレーテッド・ラーニング(FL)は、ラベル付きデータをプライバシを保存する方法で、大規模に分散化されたデバイスから共同知識を学ぶことを目的としている。
高品質なラベル付きデータは高価な人間の知性と努力を必要とするため、誤ったラベル(ノイズラベルと呼ばれる)を持つデータは現実にはどこにでもある。
本研究では,雑音ラベルを暗黙的に記憶することによる局所的な学習過程を効果的に調整する局所自己正規化手法を提案する。
論文 参考訳(メタデータ) (2022-08-25T04:03:12Z) - Balancing Discriminability and Transferability for Source-Free Domain
Adaptation [55.143687986324935]
従来のドメイン適応(DA)技術は、ドメイン不変表現を学習することでドメイン転送性を改善することを目的としている。
ラベル付けされたソースとラベル付けされていないターゲットへの同時アクセス要件は、ソースフリーなDA設定に適さない。
そこで本研究では,原文と翻訳サンプルの混在が識別可能性と伝達可能性のトレードオフを促進することを示す新しい知見を導出する。
論文 参考訳(メタデータ) (2022-06-16T09:06:22Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Adaptive Pseudo-Label Refinement by Negative Ensemble Learning for
Source-Free Unsupervised Domain Adaptation [35.728603077621564]
既存のUnsupervised Domain Adaptation (UDA)メソッドは、トレーニング中にソースとターゲットのドメインデータを同時に利用できると仮定する。
訓練済みのソースモデルは、よく知られたドメインシフトの問題により、ターゲットに対して性能が悪くても、常に利用可能であると考えられている。
適応型ノイズフィルタリングと擬似ラベル改良に取り組むための統一手法を提案する。
論文 参考訳(メタデータ) (2021-03-29T22:18:34Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - Confidence Scores Make Instance-dependent Label-noise Learning Possible [129.84497190791103]
ノイズのあるラベルで学習する際、そのラベルはノイズモデルと呼ばれる遷移分布に従ってランダムに他のクラスに移動することができる。
我々は、各インスタンスラベル対に信頼スコアを付与する、信頼スコア付きインスタンス依存ノイズ(CSIDN)を導入する。
信頼性スコアの助けを借りて、各インスタンスの遷移分布を推定できる。
論文 参考訳(メタデータ) (2020-01-11T16:15:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。