論文の概要: From Big to Small: Adaptive Learning to Partial-Set Domains
- arxiv url: http://arxiv.org/abs/2203.07375v1
- Date: Mon, 14 Mar 2022 07:02:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-19 15:51:51.158495
- Title: From Big to Small: Adaptive Learning to Partial-Set Domains
- Title(参考訳): 大きなものから小さなものへ:適応学習から部分集合領域へ
- Authors: Zhangjie Cao, Kaichao You, Ziyang Zhang, Jianmin Wang, Mingsheng Long
- Abstract要約: ドメイン適応は、分布シフト中のラベル付きソースドメインからラベルなしターゲットドメインへの知識獲得と普及を目標とする。
近年の進歩は、大規模の深層学習モデルにより、小規模の下流の多様な課題に取り組むための豊富な知識が得られていることを示している。
本稿では,学習パラダイムである部分領域適応(Partial Domain Adaptation, PDA)を紹介する。
- 参考スコア(独自算出の注目度): 94.92635970450578
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domain adaptation targets at knowledge acquisition and dissemination from a
labeled source domain to an unlabeled target domain under distribution shift.
Still, the common requirement of identical class space shared across domains
hinders applications of domain adaptation to partial-set domains. Recent
advances show that deep pre-trained models of large scale endow rich knowledge
to tackle diverse downstream tasks of small scale. Thus, there is a strong
incentive to adapt models from large-scale domains to small-scale domains. This
paper introduces Partial Domain Adaptation (PDA), a learning paradigm that
relaxes the identical class space assumption to that the source class space
subsumes the target class space. First, we present a theoretical analysis of
partial domain adaptation, which uncovers the importance of estimating the
transferable probability of each class and each instance across domains. Then,
we propose Selective Adversarial Network (SAN and SAN++) with a bi-level
selection strategy and an adversarial adaptation mechanism. The bi-level
selection strategy up-weighs each class and each instance simultaneously for
source supervised training, target self-training, and source-target adversarial
adaptation through the transferable probability estimated alternately by the
model. Experiments on standard partial-set datasets and more challenging tasks
with superclasses show that SAN++ outperforms several domain adaptation
methods.
- Abstract(参考訳): ドメイン適応は、分布シフト中のラベル付きソースドメインからラベルなしターゲットドメインへの知識獲得と拡散をターゲットとする。
それでも、ドメイン間で共有される同一クラス空間の共通要件は、部分集合ドメインへのドメイン適応の適用を妨げる。
近年の進歩は、大規模の深層学習モデルにより、小規模の下流の多様な課題に取り組むための豊富な知識が得られていることを示している。
したがって、大規模ドメインから小規模ドメインへのモデルの適用には強いインセンティブがある。
本稿では,同一クラス空間仮定を緩和する学習パラダイムである部分領域適応(pda)について述べる。
まず,各クラスと各インスタンスのドメイン間の移動確率を推定することの重要性を明らかにする,部分領域適応の理論的解析を行う。
そこで我々は,2レベル選択戦略と逆適応機構を備えたSAN(Selective Adversarial Network)を提案する。
バイレベル選択戦略は、モデルによって交互に推定される移動可能確率を通じて、ソース教師付きトレーニング、目標自己訓練、およびソースターゲット敵適応のために、各クラスと各インスタンスを同時に強化する。
標準部分集合データセットの実験とスーパークラスによるより困難なタスクは、SAN++がいくつかのドメイン適応メソッドより優れていることを示している。
関連論文リスト
- Contrastive Adversarial Training for Unsupervised Domain Adaptation [2.432037584128226]
様々なドメイン適応タスクにおいて、ドメイン逆行訓練がうまく採用されている。
大規模なモデルでは、敵のトレーニングがソースドメインに偏りやすく、ターゲットドメインにはほとんど適応しない。
本稿では、ラベル付きソースドメインのサンプルを利用して、ターゲットドメインの機能生成を強化・調整するコントラッシブ・逆行訓練(CAT)手法を提案する。
論文 参考訳(メタデータ) (2024-07-17T17:59:21Z) - Adaptive Domain Generalization via Online Disagreement Minimization [17.215683606365445]
ドメインの一般化は、モデルを目に見えないターゲットのドメインに安全に転送することを目的としています。
AdaODMは、異なるターゲットドメインに対するテスト時にソースモデルを適応的に修正する。
その結果,AdaODMは未確認領域の一般化能力を安定的に向上することがわかった。
論文 参考訳(メタデータ) (2022-08-03T11:51:11Z) - MemSAC: Memory Augmented Sample Consistency for Large Scale Unsupervised
Domain Adaptation [71.4942277262067]
本稿では,ソースドメインとターゲットドメイン間のサンプルレベルの類似性を利用して識別的転送を実現するMemSACを提案する。
我々は,MemSACの有効性に関する詳細な分析と知見を提供する。
論文 参考訳(メタデータ) (2022-07-25T17:55:28Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Adaptively-Accumulated Knowledge Transfer for Partial Domain Adaptation [66.74638960925854]
部分ドメイン適応(PDA)は、ソースドメインラベル空間がターゲットドメインを置き換えるとき、現実的で困難な問題を扱う。
本稿では,2つの領域にまたがる関連カテゴリを整合させる適応的知識伝達フレームワーク(A$2KT)を提案する。
論文 参考訳(メタデータ) (2020-08-27T00:53:43Z) - Adversarial Network with Multiple Classifiers for Open Set Domain
Adaptation [9.251407403582501]
本稿では、対象ドメインがプライベート(未知クラス)ラベル空間と共有(未知クラス)ラベル空間の両方を持つようなオープンセットドメイン適応設定のタイプに焦点を当てる。
分布整合領域適応法はそのような設定では不十分である。
本稿では,複数の補助分類器を用いた新しい対向領域適応モデルを提案する。
論文 参考訳(メタデータ) (2020-07-01T11:23:07Z) - Deep Residual Correction Network for Partial Domain Adaptation [79.27753273651747]
ディープドメイン適応法は、よくラベルされたソースドメインから異なるが関連する未ラベルのターゲットドメインへの転送可能な表現を学習することで、魅力的なパフォーマンスを実現している。
本稿では,効率よく実装された深部残留補正網を提案する。
部分的、伝統的、微粒なクロスドメイン認識に関する総合的な実験は、DRCNが競合深いドメイン適応アプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2020-04-10T06:07:16Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。