論文の概要: UDA-Bench: Revisiting Common Assumptions in Unsupervised Domain Adaptation Using a Standardized Framework
- arxiv url: http://arxiv.org/abs/2409.15264v1
- Date: Mon, 23 Sep 2024 17:57:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 13:43:14.920315
- Title: UDA-Bench: Revisiting Common Assumptions in Unsupervised Domain Adaptation Using a Standardized Framework
- Title(参考訳): UDA-Bench: 標準化されたフレームワークを使用して、教師なしのドメイン適応における一般的な仮定を再考する
- Authors: Tarun Kalluri, Sreyas Ravichandran, Manmohan Chandraker,
- Abstract要約: 現代無監督領域適応法(UDA)の有効性に影響を及ぼす様々な要因について, より深く考察する。
分析を容易にするため,ドメイン適応のためのトレーニングと評価を標準化する新しいPyTorchフレームワークであるUDA-Benchを開発した。
- 参考スコア(独自算出の注目度): 59.428668614618914
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we take a deeper look into the diverse factors that influence the efficacy of modern unsupervised domain adaptation (UDA) methods using a large-scale, controlled empirical study. To facilitate our analysis, we first develop UDA-Bench, a novel PyTorch framework that standardizes training and evaluation for domain adaptation enabling fair comparisons across several UDA methods. Using UDA-Bench, our comprehensive empirical study into the impact of backbone architectures, unlabeled data quantity, and pre-training datasets reveals that: (i) the benefits of adaptation methods diminish with advanced backbones, (ii) current methods underutilize unlabeled data, and (iii) pre-training data significantly affects downstream adaptation in both supervised and self-supervised settings. In the context of unsupervised adaptation, these observations uncover several novel and surprising properties, while scientifically validating several others that were often considered empirical heuristics or practitioner intuitions in the absence of a standardized training and evaluation framework. The UDA-Bench framework and trained models are publicly available at https://github.com/ViLab-UCSD/UDABench_ECCV2024.
- Abstract(参考訳): 本研究では、大規模かつ制御された実証研究を用いて、現代の教師なしドメイン適応法(UDA)の有効性に影響を及ぼす様々な要因について、より深く考察する。
UDA-Benchはドメイン適応のトレーニングと評価を標準化する新しいPyTorchフレームワークである。
UDA-Benchを使用して、バックボーンアーキテクチャ、ラベルなしデータ量、事前トレーニングデータセットの影響に関する包括的な実証研究により、次のようなことが明らかになった。
一 高度な後骨により適応方法の利点が低下すること。
(二)未ラベルデータを未利用の現行の方法、及び
3)事前学習データは,教師付き設定と自己管理設定の両方において,下流適応に大きな影響を及ぼす。
教師なし適応の文脈では、これらの観察はいくつかの斬新な性質と驚くべき性質を明らかにし、また標準化された訓練と評価の枠組みが欠如している中で、経験的ヒューリスティックや実践者の直観と見なされる他のいくつかを科学的に検証した。
UDA-Benchフレームワークとトレーニングされたモデルはhttps://github.com/ViLab-UCSD/UDABench_ECCV2024で公開されている。
関連論文リスト
- Unveiling the Superior Paradigm: A Comparative Study of Source-Free Domain Adaptation and Unsupervised Domain Adaptation [52.36436121884317]
Source-Free Domain Adaptation (SFDA) は、現実のシナリオにおいて、Unsupervised Domain Adaptation (UDA) よりも一般的に優れていることを示す。
SFDAは、時間効率、ストレージ要件、対象とする学習目標、負の移動リスクの低減、過度な適合に対する堅牢性の向上といった利点を提供している。
利用可能なソースデータをマルチSFDA手法に効果的に統合する新しい重み推定法を提案する。
論文 参考訳(メタデータ) (2024-11-24T13:49:29Z) - BoostAdapter: Improving Vision-Language Test-Time Adaptation via Regional Bootstrapping [64.8477128397529]
本稿では,テスト時間適応フレームワークを提案する。
我々は、インスタンスに依存しない履歴サンプルとインスタンスを意識したブースティングサンプルから特徴を検索するための軽量なキー値メモリを維持している。
理論的には,本手法の背後にある合理性を正当化し,アウト・オブ・ディストリビューションとクロスドメイン・データセットの両方において,その有効性を実証的に検証する。
論文 参考訳(メタデータ) (2024-10-20T15:58:43Z) - (Predictable) Performance Bias in Unsupervised Anomaly Detection [3.826262429926079]
教師なし異常検出(UAD)モデルは、疾患検出の重要な第1ステップを支援することを約束する。
本研究は, ある集団群に対して, UADモデルの異なる性能を定量的に評価した。
論文 参考訳(メタデータ) (2023-09-25T14:57:43Z) - Achieving Reliable and Fair Skin Lesion Diagnosis via Unsupervised Domain Adaptation [43.1078084014722]
教師なしドメイン適応(UDA)は、信頼性の高い分類器を開発するために、大きな外部データセットを統合することができる。
UDAは少数派に対する偏見を効果的に軽減し、診断システムの公平性を高めることができる。
論文 参考訳(メタデータ) (2023-07-06T17:32:38Z) - Can We Evaluate Domain Adaptation Models Without Target-Domain Labels? [36.05871459064825]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル豊富なソースドメインでトレーニングされたモデルをラベルなしのターゲットドメインに適応させる。
現実のシナリオでは、ターゲットドメインラベルがないため、UDAモデルの性能を評価するのは難しい。
これらの問題に対処するため,textitTransfer Scoreと呼ばれる新しいメトリクスを提案する。
論文 参考訳(メタデータ) (2023-05-30T03:36:40Z) - Domain Adaptation with Adversarial Training on Penultimate Activations [82.9977759320565]
教師なし領域適応(Unsupervised Domain Adaptation, UDA)の重要な目的は、ラベルなし対象データに対するモデル予測の信頼性を高めることである。
我々は,この戦略が,入力画像や中間特徴に対する敵対的訓練よりも予測信頼性を高める目的と,より効率的で相関性が高いことを示す。
論文 参考訳(メタデータ) (2022-08-26T19:50:46Z) - f-Domain-Adversarial Learning: Theory and Algorithms [82.97698406515667]
教師なしのドメイン適応は、トレーニング中、ターゲットドメイン内のラベルなしデータにアクセス可能な、多くの機械学習アプリケーションで使用されている。
領域適応のための新しい一般化法を導出し、f-発散体の変分的特徴に基づく分布間の相違性の新しい尺度を利用する。
論文 参考訳(メタデータ) (2021-06-21T18:21:09Z) - Self-Domain Adaptation for Face Anti-Spoofing [31.441928816043536]
推論時にラベルのないテストドメインデータを利用するための自己ドメイン適応フレームワークを提案する。
トレーニングステップで複数のソースドメインのデータを用いて,メタラーニングに基づく適応学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-24T08:46:39Z) - On the Benefits of Invariance in Neural Networks [56.362579457990094]
データ拡張によるトレーニングは、リスクとその勾配をよりよく見積もることを示し、データ拡張でトレーニングされたモデルに対して、PAC-Bayes一般化を提供する。
また,データ拡張と比べ,平均化は凸損失を伴う場合の一般化誤差を低減し,PAC-Bayes境界を狭めることを示した。
論文 参考訳(メタデータ) (2020-05-01T02:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。