論文の概要: Gradual Domain Adaptation: Theory and Algorithms
- arxiv url: http://arxiv.org/abs/2310.13852v1
- Date: Fri, 20 Oct 2023 23:02:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 05:01:32.706227
- Title: Gradual Domain Adaptation: Theory and Algorithms
- Title(参考訳): 漸進的領域適応:理論とアルゴリズム
- Authors: Yifei He, Haoxiang Wang, Bo Li, Han Zhao
- Abstract要約: 教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインからラベルなしターゲットドメインへのモデルをワンオフで適応する。
本研究ではまず,GDAアルゴリズムである漸進的な自己学習を理論的に解析し,より優れた一般化バウンダリを提供する。
我々は、$textbfG$enerative Gradual D$textbfO$main $textbfA$daptation with Optimal $textbfT$ransport (GOAT)を提案する。
- 参考スコア(独自算出の注目度): 15.278170387810409
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation (UDA) adapts a model from a labeled source
domain to an unlabeled target domain in a one-off way. Though widely applied,
UDA faces a great challenge whenever the distribution shift between the source
and the target is large. Gradual domain adaptation (GDA) mitigates this
limitation by using intermediate domains to gradually adapt from the source to
the target domain. In this work, we first theoretically analyze gradual
self-training, a popular GDA algorithm, and provide a significantly improved
generalization bound compared with Kumar et al. (2020). Our theoretical
analysis leads to an interesting insight: to minimize the generalization error
on the target domain, the sequence of intermediate domains should be placed
uniformly along the Wasserstein geodesic between the source and target domains.
The insight is particularly useful under the situation where intermediate
domains are missing or scarce, which is often the case in real-world
applications. Based on the insight, we propose $\textbf{G}$enerative Gradual
D$\textbf{O}$main $\textbf{A}$daptation with Optimal $\textbf{T}$ransport
(GOAT), an algorithmic framework that can generate intermediate domains in a
data-dependent way. More concretely, we first generate intermediate domains
along the Wasserstein geodesic between two given consecutive domains in a
feature space, then apply gradual self-training to adapt the source-trained
classifier to the target along the sequence of intermediate domains.
Empirically, we demonstrate that our GOAT framework can improve the performance
of standard GDA when the given intermediate domains are scarce, significantly
broadening the real-world application scenarios of GDA. Our code is available
at https://github.com/yifei-he/GOAT.
- Abstract(参考訳): unsupervised domain adaptation (uda) はラベル付きソースドメインからラベルなしのターゲットドメインにワンオフ方式でモデルを適用する。
広く適用されているが、ソースとターゲット間の分散シフトが大きいと、UDAは大きな課題に直面している。
gradual domain adaptation(gda)は、ソースからターゲットドメインに徐々に適応するために中間ドメインを使用することで、この制限を緩和する。
本研究は,一般的なgdaアルゴリズムである漸進的自己学習を理論上初めて解析し,kumarら(2020)と比較して大幅に改良された一般化を提供する。
対象領域上の一般化誤差を最小限に抑えるために、中間領域の列はソースとターゲット領域の間のワッサーシュタイン測地線に沿って一様に配置されなければならない。
この洞察は、中間ドメインが欠落している、あるいは不足している状況下では特に有用である。
この知見に基づいて、データ依存型で中間ドメインを生成するアルゴリズムフレームワークである、$\textbf{G}$enerative Gradual D$\textbf{O}$main $\textbf{A}$daptation with Optimal $\textbf{T}$ransport (GOAT)を提案する。
より具体的には、我々はまず特徴空間において与えられた2つの連続する領域の間のワッサーシュタイン測地線に沿って中間領域を生成し、次に段階的な自己学習を適用して、中間領域の列に沿ってソース学習された分類器をターゲットに適応させる。
実証的に、我々のGOATフレームワークは、与えられた中間ドメインが不足している場合に標準GDAの性能を向上し、GDAの実際のアプリケーションシナリオを大幅に拡張できることを示した。
私たちのコードはhttps://github.com/yifei-he/goatで利用可能です。
関連論文リスト
- Improving Domain Adaptation Through Class Aware Frequency Transformation [15.70058524548143]
Unsupervised Domain Adaptation (UDA)アルゴリズムのほとんどは、ラベル付きソースと非ラベル付きターゲットドメインの間のグローバルドメインシフトの削減に重点を置いている。
本稿では,従来の画像処理手法であるCAFT(Class Aware Frequency Transformation)に基づく新しい手法を提案する。
CAFTは、既存のUDAアルゴリズムの全体的な性能を改善するために、擬似ラベルに基づく一貫した低周波スワップを使用する。
論文 参考訳(メタデータ) (2024-07-28T18:16:41Z) - Gradual Domain Adaptation without Indexed Intermediate Domains [23.726336635748783]
中間領域の配列を発見するための粗大なフレームワークを提案する。
提案手法は, 事前定義されたドメインシーケンスと比較して, 適応性能が向上することを示す。
論文 参考訳(メタデータ) (2022-07-11T02:25:39Z) - Gradual Domain Adaptation via Normalizing Flows [2.7467053150385956]
ソースドメインとターゲットドメインの間には大きなギャップがある。
グラデーショナル・ドメイン適応(Gradual Domain adapt)は、この問題に対処するために使用されるアプローチの1つである。
本稿では,この問題に対処するための正規化フローを提案する。
論文 参考訳(メタデータ) (2022-06-23T06:24:50Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Understanding Gradual Domain Adaptation: Improved Analysis, Optimal Path
and Beyond [20.518134448156744]
グラデーショナルドメイン適応(GDA)は、ソースとターゲットをブリッジする未ラベルの中間ドメインのパスを$(T-1)と仮定する。
我々は、$widetildeOleft(varepsilon_0+Oleft(sqrtlog(T)/nright)$, $Delta$が連続ドメイン間の平均分布距離であることを示す。
論文 参考訳(メタデータ) (2022-04-18T07:39:23Z) - Domain-Agnostic Prior for Transfer Semantic Segmentation [197.9378107222422]
教師なしドメイン適応(UDA)はコンピュータビジョンコミュニティにおいて重要なトピックである。
ドメインに依存しない事前学習(DAP)を用いてドメイン間表現学習を規則化する機構を提案する。
我々の研究は、UDAがより良いプロキシ、おそらく他のデータモダリティの恩恵を受けていることを明らかにしている。
論文 参考訳(メタデータ) (2022-04-06T09:13:25Z) - IDM: An Intermediate Domain Module for Domain Adaptive Person Re-ID [58.46907388691056]
ソースとターゲットドメイン間のブリッジは、UDA re-IDタスクに対処するために有効である、と我々は主張する。
中間ドメインの表現をオンザフライで生成するための中間ドメインモジュール(IDM)を提案する。
提案手法は,UDAのre-IDタスクに共通するタスクにおいて,最先端のタスクよりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2021-08-05T07:19:46Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Unsupervised Model Adaptation for Continual Semantic Segmentation [15.820660013260584]
本研究では,ラベル付きソースドメインを用いて訓練されたセマンティックセグメンテーションモデルを,ラベル付きターゲットドメインで適切に一般化するアルゴリズムを開発した。
我々は,アルゴリズムが有効である条件を理論的に分析し,説明する。
ベンチマーク適応タスクの実験では, 共同UDA手法と比較して, 競争性能が向上することを示した。
論文 参考訳(メタデータ) (2020-09-26T04:55:50Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。