論文の概要: High-level semantic feature matters few-shot unsupervised domain
adaptation
- arxiv url: http://arxiv.org/abs/2301.01956v1
- Date: Thu, 5 Jan 2023 08:39:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 14:09:23.643458
- Title: High-level semantic feature matters few-shot unsupervised domain
adaptation
- Title(参考訳): 高レベルセマンティックな特徴はドメイン適応の非教師なしを重要視する
- Authors: Lei Yu, Wanqi Yang, Shengqi Huang, Lei Wang, Ming Yang
- Abstract要約: FS-UDAのためのタスク固有意味特徴学習法(TSECS)を提案する。
TSECSは画像とクラス間の類似度測定のための高レベルの意味的特徴を学習する。
提案手法はFS-UDAのSOTA法よりも大きなマージンで優れていることを示す。
- 参考スコア(独自算出の注目度): 15.12545632709954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In few-shot unsupervised domain adaptation (FS-UDA), most existing methods
followed the few-shot learning (FSL) methods to leverage the low-level local
features (learned from conventional convolutional models, e.g., ResNet) for
classification. However, the goal of FS-UDA and FSL are relevant yet distinct,
since FS-UDA aims to classify the samples in target domain rather than source
domain. We found that the local features are insufficient to FS-UDA, which
could introduce noise or bias against classification, and not be used to
effectively align the domains. To address the above issues, we aim to refine
the local features to be more discriminative and relevant to classification.
Thus, we propose a novel task-specific semantic feature learning method (TSECS)
for FS-UDA. TSECS learns high-level semantic features for image-to-class
similarity measurement. Based on the high-level features, we design a
cross-domain self-training strategy to leverage the few labeled samples in
source domain to build the classifier in target domain. In addition, we
minimize the KL divergence of the high-level feature distributions between
source and target domains to shorten the distance of the samples between the
two domains. Extensive experiments on DomainNet show that the proposed method
significantly outperforms SOTA methods in FS-UDA by a large margin (i.e., 10%).
- Abstract(参考訳): 数ショットの非教師付きドメイン適応(FS-UDA)では、ほとんどの既存の手法は、低レベルの局所的特徴(例えばResNetのような従来の畳み込みモデルから派生した)を分類するために、数ショットの学習(FSL)法に従った。
fs-uda はソースドメインではなくターゲットドメインのサンプルを分類することを目的としているため、fs-uda と fsl の目標は別物である。
局所的な特徴はFS-UDAには不十分であり, 分類に対するノイズや偏見を生じさせる可能性があり, ドメインを効果的に整合させるには使用できないことがわかった。
上記の問題に対処するため,我々は,より識別的で分類に関連のある局所的な特徴を洗練することを目指している。
そこで本研究では,FS-UDAのためのタスク固有意味特徴学習法(TSECS)を提案する。
TSECSは画像間類似度測定のための高レベルの意味的特徴を学習する。
高レベルな機能に基づいて、ソースドメイン内の少数のラベル付きサンプルを活用してターゲットドメインに分類器を構築するために、クロスドメインの自己学習戦略を設計します。
さらに、ソース領域とターゲット領域の間の高レベル特徴分布のkl分岐を最小化し、2つのドメイン間のサンプル距離を短縮する。
DomainNetの大規模な実験により、提案手法はFS-UDAのSOTA法を大きなマージン(10%)で大幅に上回ることがわかった。
関連論文リスト
- Domain Adaptive Few-Shot Open-Set Learning [36.39622440120531]
本稿では,DA-FSOS(Domain Adaptive Few-Shot Open Set Recognition)を提案する。
我々のトレーニングアプローチは、DAFOS-NETがターゲットドメインの新しいシナリオにうまく適応できるようにします。
本稿では,Office-Home,mini-ImageNet/CUB,DomainNetデータセットに基づくDA-FSOSの3つのベンチマークを示す。
論文 参考訳(メタデータ) (2023-09-22T12:04:47Z) - Unsupervised Domain Adaptation via Style-Aware Self-intermediate Domain [52.783709712318405]
非教師なしドメイン適応(UDA)は、ラベル豊富なソースドメインから関連するがラベルのないターゲットドメインに知識を伝達する、かなりの注目を集めている。
本研究では,大規模なドメインギャップと伝達知識を橋渡しし,クラス非ネイティブ情報の損失を軽減するために,SAFF(style-aware feature fusion)法を提案する。
論文 参考訳(メタデータ) (2022-09-05T10:06:03Z) - From Big to Small: Adaptive Learning to Partial-Set Domains [94.92635970450578]
ドメイン適応は、分布シフト中のラベル付きソースドメインからラベルなしターゲットドメインへの知識獲得と普及を目標とする。
近年の進歩は、大規模の深層学習モデルにより、小規模の下流の多様な課題に取り組むための豊富な知識が得られていることを示している。
本稿では,学習パラダイムである部分領域適応(Partial Domain Adaptation, PDA)を紹介する。
論文 参考訳(メタデータ) (2022-03-14T07:02:45Z) - Improving Transferability of Domain Adaptation Networks Through Domain
Alignment Layers [1.3766148734487902]
マルチソースアン教師付きドメイン適応(MSDA)は、ソースモデルの袋から弱い知識を割り当てることで、ラベルのないドメインの予測子を学習することを目的としている。
我々は,DomaIn Alignment Layers (MS-DIAL) のマルチソースバージョンを予測器の異なるレベルに埋め込むことを提案する。
我々の手法は最先端のMSDA法を改善することができ、分類精度の相対利得は+30.64%に達する。
論文 参考訳(メタデータ) (2021-09-06T18:41:19Z) - Few-shot Unsupervised Domain Adaptation with Image-to-class Sparse
Similarity Encoding [24.64900089320843]
本稿では,FS-UDA ( few-shot unsupervised domain adaptation) という貴重な設定について検討する。
この設定では、ソースドメインデータはラベル付けされるが、ターゲットドメインデータはラベル付けされない。
我々は,カテゴリごとのラベル付きラベル付きデータと,サポートセットとクエリセット間のドメイン適応を解決するための汎用UDAモデルを開発した。
論文 参考訳(メタデータ) (2021-08-06T06:15:02Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Effective Label Propagation for Discriminative Semi-Supervised Domain
Adaptation [76.41664929948607]
半教師付き領域適応(SSDA)法は,大規模な画像分類タスクにおいて大きな可能性を示している。
本稿では、ドメイン間およびドメイン内セマンティック情報を効果的に伝達することにより、この問題に対処する新しい効果的な方法を提案する。
ソースコードと事前訓練されたモデルも間もなくリリースされる予定です。
論文 参考訳(メタデータ) (2020-12-04T14:28:19Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。