論文の概要: Shuffle Augmentation of Features from Unlabeled Data for Unsupervised
Domain Adaptation
- arxiv url: http://arxiv.org/abs/2201.11963v1
- Date: Fri, 28 Jan 2022 07:11:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-31 14:30:59.982094
- Title: Shuffle Augmentation of Features from Unlabeled Data for Unsupervised
Domain Adaptation
- Title(参考訳): 教師なし領域適応のためのラベルなしデータによる特徴のシャッフル強化
- Authors: Changwei Xu, Jianfei Yang, Haoran Tang, Han Zou, Cheng Lu, Tianshuo
Zhang
- Abstract要約: Unsupervised Domain Adaptation (UDA) は、ターゲットサンプルのラベルが利用できない転送学習の分野である。
本稿では,新しいUDAフレームワークとしてShuffle Augmentation of Features (SAF)を提案する。
SAFはターゲットサンプルから学習し、クラス認識対象の特徴を適応的に蒸留し、クラス境界を見つけるために分類器を暗黙的にガイドする。
- 参考スコア(独自算出の注目度): 21.497019000131917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised Domain Adaptation (UDA), a branch of transfer learning where
labels for target samples are unavailable, has been widely researched and
developed in recent years with the help of adversarially trained models.
Although existing UDA algorithms are able to guide neural networks to extract
transferable and discriminative features, classifiers are merely trained under
the supervision of labeled source data. Given the inevitable discrepancy
between source and target domains, the classifiers can hardly be aware of the
target classification boundaries. In this paper, Shuffle Augmentation of
Features (SAF), a novel UDA framework, is proposed to address the problem by
providing the classifier with supervisory signals from target feature
representations. SAF learns from the target samples, adaptively distills
class-aware target features, and implicitly guides the classifier to find
comprehensive class borders. Demonstrated by extensive experiments, the SAF
module can be integrated into any existing adversarial UDA models to achieve
performance improvements.
- Abstract(参考訳): 対象サンプルのラベルが利用できない転写学習の分野であるUnsupervised Domain Adaptation (UDA) は, 近年, 逆学習モデルの助けを借りて, 広く研究・開発されている。
既存のUDAアルゴリズムは、ニューラルネットワークを誘導して転送可能で識別可能な特徴を抽出するが、分類器はラベル付きソースデータの監督下でのみ訓練される。
ソースドメインとターゲットドメインの区別が避けられないため、分類器はターゲットの分類境界をほとんど認識できない。
本稿では,新たなUDAフレームワークであるShuffle Augmentation of Features (SAF)を提案する。
SAFはターゲットサンプルから学習し、クラス認識対象の特徴を適応的に蒸留し、クラス境界を見つけるために暗黙的に分類器を誘導する。
広範な実験によって実証されたSAFモジュールは、既存のUDAモデルに組み込むことができ、性能改善を実現している。
関連論文リスト
- Uncertainty-guided Open-Set Source-Free Unsupervised Domain Adaptation with Target-private Class Segregation [22.474866164542302]
UDAアプローチはソースとターゲットドメインが同じラベル空間を共有していると一般的に仮定する。
本稿では、SF-OSDA(Source-Free Open-set Domain Adaptation)設定の課題について考察する。
本稿では,サンプルを複数の未知のクラスに分離することで,ターゲット・プライベートカテゴリの粒度を利用したSF-OSDAの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-16T13:52:00Z) - Progressive Classifier and Feature Extractor Adaptation for Unsupervised Domain Adaptation on Point Clouds [36.596096617244655]
非教師なしドメイン適応(UDA)は、ポイントクラウド分析の分野において重要な課題である。
本稿では,3次元UDAのための分類器と特徴抽出器を深く結合した新しいフレームワークを提案する。
われわれのPCFEAはマクロレベルとマイクロレベルという2つの異なる視点から3D UDAを実施している。
論文 参考訳(メタデータ) (2023-11-27T07:33:15Z) - Divide and Adapt: Active Domain Adaptation via Customized Learning [56.79144758380419]
対象インスタンスを成層化可能な4つのカテゴリに分割する新しいADAフレームワークであるDiaNA(Divide-and-Adapt)を提案する。
不確実性とドメイン性に基づく新しいデータ分割プロトコルにより、DiaNAは最も有利なサンプルを正確に認識することができる。
の精神のおかげで、DiaNAはドメインギャップの大きなバリエーションでデータを処理できる。
論文 参考訳(メタデータ) (2023-07-21T14:37:17Z) - Generative Model Based Noise Robust Training for Unsupervised Domain
Adaptation [108.11783463263328]
本稿では, 生成モデルに基づくノイズ・ロバスト訓練法(GeNRT)を提案する。
ラベルノイズを緩和しながらドメインシフトを除去する。
Office-Home、PACS、Digit-Fiveの実験は、GeNRTが最先端のメソッドに匹敵するパフォーマンスを実現していることを示している。
論文 参考訳(メタデータ) (2023-03-10T06:43:55Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Unsupervised Domain Adaptation via Style-Aware Self-intermediate Domain [52.783709712318405]
非教師なしドメイン適応(UDA)は、ラベル豊富なソースドメインから関連するがラベルのないターゲットドメインに知識を伝達する、かなりの注目を集めている。
本研究では,大規模なドメインギャップと伝達知識を橋渡しし,クラス非ネイティブ情報の損失を軽減するために,SAFF(style-aware feature fusion)法を提案する。
論文 参考訳(メタデータ) (2022-09-05T10:06:03Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Adaptive Pseudo-Label Refinement by Negative Ensemble Learning for
Source-Free Unsupervised Domain Adaptation [35.728603077621564]
既存のUnsupervised Domain Adaptation (UDA)メソッドは、トレーニング中にソースとターゲットのドメインデータを同時に利用できると仮定する。
訓練済みのソースモデルは、よく知られたドメインシフトの問題により、ターゲットに対して性能が悪くても、常に利用可能であると考えられている。
適応型ノイズフィルタリングと擬似ラベル改良に取り組むための統一手法を提案する。
論文 参考訳(メタデータ) (2021-03-29T22:18:34Z) - Source Data-absent Unsupervised Domain Adaptation through Hypothesis
Transfer and Labeling Transfer [137.36099660616975]
Unsupervised Adapt Adaptation (UDA) は、関連性のある異なるラベル付きソースドメインから新しいラベルなしターゲットドメインへの知識の転送を目標としている。
既存のudaメソッドの多くはソースデータへのアクセスを必要としており、プライバシ上の懸念からデータが機密で共有できない場合は適用できない。
本稿では、ソースデータにアクセスする代わりに、トレーニング済みの分類モデルのみを用いて現実的な設定に取り組むことを目的とする。
論文 参考訳(メタデータ) (2020-12-14T07:28:50Z) - Enlarging Discriminative Power by Adding an Extra Class in Unsupervised
Domain Adaptation [5.377369521932011]
新たに人工的なクラスを追加し、新しいクラスのGAN生成サンプルとともにデータ上でモデルをトレーニングする。
私たちのアイデアは、DANN、VADA、DIRT-Tといった既存のメソッドと互換性がある、非常に一般的なものです。
論文 参考訳(メタデータ) (2020-02-19T07:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。