論文の概要: Gradual Domain Adaptation without Indexed Intermediate Domains
- arxiv url: http://arxiv.org/abs/2207.04587v1
- Date: Mon, 11 Jul 2022 02:25:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 13:05:00.992508
- Title: Gradual Domain Adaptation without Indexed Intermediate Domains
- Title(参考訳): インデックス付き中間領域を含まない経時的ドメイン適応
- Authors: Hong-You Chen, Wei-Lun Chao
- Abstract要約: 中間領域の配列を発見するための粗大なフレームワークを提案する。
提案手法は, 事前定義されたドメインシーケンスと比較して, 適応性能が向上することを示す。
- 参考スコア(独自算出の注目度): 23.726336635748783
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The effectiveness of unsupervised domain adaptation degrades when there is a
large discrepancy between the source and target domains. Gradual domain
adaptation (GDA) is one promising way to mitigate such an issue, by leveraging
additional unlabeled data that gradually shift from the source to the target.
Through sequentially adapting the model along the "indexed" intermediate
domains, GDA substantially improves the overall adaptation performance. In
practice, however, the extra unlabeled data may not be separated into
intermediate domains and indexed properly, limiting the applicability of GDA.
In this paper, we investigate how to discover the sequence of intermediate
domains when it is not already available. Concretely, we propose a
coarse-to-fine framework, which starts with a coarse domain discovery step via
progressive domain discriminator training. This coarse domain sequence then
undergoes a fine indexing step via a novel cycle-consistency loss, which
encourages the next intermediate domain to preserve sufficient discriminative
knowledge of the current intermediate domain. The resulting domain sequence can
then be used by a GDA algorithm. On benchmark data sets of GDA, we show that
our approach, which we name Intermediate DOmain Labeler (IDOL), can lead to
comparable or even better adaptation performance compared to the pre-defined
domain sequence, making GDA more applicable and robust to the quality of domain
sequences. Codes are available at https://github.com/hongyouc/IDOL.
- Abstract(参考訳): 教師なし領域適応の有効性は、ソースとターゲットドメインの間に大きな相違があるときに低下する。
グラデーショナルドメイン適応(GDA)は、ソースからターゲットへと徐々にシフトする追加のラベルのないデータを活用することで、そのような問題を緩和する1つの有望な方法である。
中間領域に沿ってモデルを順次適応させることで、GDAは全体的な適応性能を大幅に改善する。
しかし実際には、余分なラベルのないデータは中間領域に分割して適切にインデックス化されず、gdaの適用性が制限される。
本稿では,中間領域のシーケンスが既に利用できない場合の探索方法について検討する。
具体的には,progressive domain discriminator training(プログレッシブドメイン判別子トレーニング)を通じて,粗いドメイン発見ステップから始める粗いto-fineフレームワークを提案する。
この粗い領域列は、新しいサイクル整合性損失を通じて細かなインデックス化ステップを実行し、それによって次の中間ドメインが現在の中間ドメインの十分な識別的知識を保持することを促す。
結果のドメインシーケンスはGDAアルゴリズムで使用することができる。
GDAのベンチマークデータセットでは、中間DOmain Labeler (IDOL) と名づけた我々のアプローチが、事前定義されたドメインシーケンスと比較して、同等あるいはそれ以上の適応性能を実現し、GDAをより適用可能で、ドメインシーケンスの品質に堅牢であることを示す。
コードはhttps://github.com/hongyouc/idolで入手できる。
関連論文リスト
- Gradual Domain Adaptation: Theory and Algorithms [15.278170387810409]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインからラベルなしターゲットドメインへのモデルをワンオフで適応する。
本研究ではまず,GDAアルゴリズムである漸進的な自己学習を理論的に解析し,より優れた一般化バウンダリを提供する。
我々は、$textbfG$enerative Gradual D$textbfO$main $textbfA$daptation with Optimal $textbfT$ransport (GOAT)を提案する。
論文 参考訳(メタデータ) (2023-10-20T23:02:08Z) - IIDM: Inter and Intra-domain Mixing for Semi-supervised Domain Adaptation in Semantic Segmentation [46.6002506426648]
教師なし領域適応(Unsupervised domain adapt, UDA)は、この問題を解決する主要なアプローチである。
この制限を克服するための半教師付きドメイン適応(SSDA)を提案する。
我々は、ドメイン間混合がソース・ターゲット領域ギャップを緩和し、ドメイン内混合が利用可能なターゲットドメイン情報を豊かにする、インター・ドメイン・ミキシング(IIDM)とイントラ・ドメイン・ミキシング(IIDM)の両方を組み込んだ新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T08:44:21Z) - Gradual Domain Adaptation via Normalizing Flows [2.7467053150385956]
ソースドメインとターゲットドメインの間には大きなギャップがある。
グラデーショナル・ドメイン適応(Gradual Domain adapt)は、この問題に対処するために使用されるアプローチの1つである。
本稿では,この問題に対処するための正規化フローを提案する。
論文 参考訳(メタデータ) (2022-06-23T06:24:50Z) - Domain-Agnostic Prior for Transfer Semantic Segmentation [197.9378107222422]
教師なしドメイン適応(UDA)はコンピュータビジョンコミュニティにおいて重要なトピックである。
ドメインに依存しない事前学習(DAP)を用いてドメイン間表現学習を規則化する機構を提案する。
我々の研究は、UDAがより良いプロキシ、おそらく他のデータモダリティの恩恵を受けていることを明らかにしている。
論文 参考訳(メタデータ) (2022-04-06T09:13:25Z) - ConDA: Unsupervised Domain Adaptation for LiDAR Segmentation via
Regularized Domain Concatenation [10.65673380743972]
ConDAは、LiDARセグメンテーションのための結合ベースのドメイン適応フレームワークである。
本稿では, エイリアスや偽ラベルによる負の効果を低減するために, アンチエイリアス・レギュレータとエントロピー・アグリゲータを提案する。
論文 参考訳(メタデータ) (2021-11-30T09:53:24Z) - IDM: An Intermediate Domain Module for Domain Adaptive Person Re-ID [58.46907388691056]
ソースとターゲットドメイン間のブリッジは、UDA re-IDタスクに対処するために有効である、と我々は主張する。
中間ドメインの表現をオンザフライで生成するための中間ドメインモジュール(IDM)を提案する。
提案手法は,UDAのre-IDタスクに共通するタスクにおいて,最先端のタスクよりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2021-08-05T07:19:46Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Effective Label Propagation for Discriminative Semi-Supervised Domain
Adaptation [76.41664929948607]
半教師付き領域適応(SSDA)法は,大規模な画像分類タスクにおいて大きな可能性を示している。
本稿では、ドメイン間およびドメイン内セマンティック情報を効果的に伝達することにより、この問題に対処する新しい効果的な方法を提案する。
ソースコードと事前訓練されたモデルも間もなくリリースされる予定です。
論文 参考訳(メタデータ) (2020-12-04T14:28:19Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z) - MADAN: Multi-source Adversarial Domain Aggregation Network for Domain
Adaptation [58.38749495295393]
ドメイン適応は、あるラベル付きソースドメインと、わずかにラベル付けまたはラベル付けされていないターゲットドメインの間のドメインシフトをブリッジするために、転送可能なモデルを学ぶことを目的としています。
近年のマルチソース領域適応法(MDA)では,ソースとターゲット間の画素レベルのアライメントは考慮されていない。
これらの課題に対処するための新しいMDAフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T21:22:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。