論文の概要: Improving Unsupervised Domain Adaptation by Reducing Bi-level Feature
Redundancy
- arxiv url: http://arxiv.org/abs/2012.15732v1
- Date: Mon, 28 Dec 2020 08:00:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 15:17:38.734126
- Title: Improving Unsupervised Domain Adaptation by Reducing Bi-level Feature
Redundancy
- Title(参考訳): biレベル特徴冗長性低減による教師なしドメイン適応の改善
- Authors: Mengzhu Wang, Xiang Zhang, Long Lan, Wei Wang, Huibin Tan, Zhigang Luo
- Abstract要約: 本稿では,UDAを両面的に改善する上で,特徴冗長性を低減することの重要性を強調した。
最初のレベルでは、転送可能な非相関正規化モジュールを用いて、コンパクトなドメイン特化機能を保証する。
第2のレベルでは、ドメイン共有表現によって引き起こされるドメイン不変特徴冗長性は、代替ブランド性によってさらに軽減される。
- 参考スコア(独自算出の注目度): 14.94720207222332
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reducing feature redundancy has shown beneficial effects for improving the
accuracy of deep learning models, thus it is also indispensable for the models
of unsupervised domain adaptation (UDA). Nevertheless, most recent efforts in
the field of UDA ignores this point. Moreover, main schemes realizing this in
general independent of UDA purely involve a single domain, thus might not be
effective for cross-domain tasks. In this paper, we emphasize the significance
of reducing feature redundancy for improving UDA in a bi-level way. For the
first level, we try to ensure compact domain-specific features with a
transferable decorrelated normalization module, which preserves specific domain
information whilst easing the side effect of feature redundancy on the sequel
domain-invariance. In the second level, domain-invariant feature redundancy
caused by domain-shared representation is further mitigated via an alternative
brand orthogonality for better generalization. These two novel aspects can be
easily plugged into any BN-based backbone neural networks. Specifically, simply
applying them to ResNet50 has achieved competitive performance to the
state-of-the-arts on five popular benchmarks. Our code will be available at
https://github.com/dreamkily/gUDA.
- Abstract(参考訳): 特徴冗長性の低減はディープラーニングモデルの精度向上に有効な効果を示しており、教師なしドメイン適応(UDA)モデルにも不可欠である。
しかし、UDA分野における最近の取り組みはこの点を無視している。
さらに、UDAから独立してこれを実現できる主要なスキームは、純粋に単一のドメインを含むため、クロスドメインタスクには有効ではないかもしれない。
本稿では,UDAを両面的に改善する上で,特徴冗長性を低減することの重要性を強調した。
第1のレベルでは、sequel domain-invarianceにおける機能冗長性の副作用を緩和しながら、特定のドメイン情報を保存しながら、転送可能なdecorrelated normalizationモジュールでコンパクトなドメイン固有の機能を保証する。
第2のレベルでは、ドメイン共有表現によって生じるドメイン不変の特徴冗長性は、より良い一般化のために代替ブランド直交によってさらに緩和される。
これら2つの新しい側面は、BNベースのバックボーンニューラルネットワークに簡単に接続できる。
具体的には、単にresnet50に適用するだけで、5つの人気のあるベンチマークで最先端のパフォーマンスを達成できます。
私たちのコードはhttps://github.com/dreamkily/gudaで入手できる。
関連論文リスト
- Contrastive Adversarial Training for Unsupervised Domain Adaptation [2.432037584128226]
様々なドメイン適応タスクにおいて、ドメイン逆行訓練がうまく採用されている。
大規模なモデルでは、敵のトレーニングがソースドメインに偏りやすく、ターゲットドメインにはほとんど適応しない。
本稿では、ラベル付きソースドメインのサンプルを利用して、ターゲットドメインの機能生成を強化・調整するコントラッシブ・逆行訓練(CAT)手法を提案する。
論文 参考訳(メタデータ) (2024-07-17T17:59:21Z) - Gradually Vanishing Gap in Prototypical Network for Unsupervised Domain Adaptation [32.58201185195226]
プロトタイプネットワーク(GVG-PN)におけるGradually Vanishing Gapという効率的なUDAフレームワークを提案する。
我々のモデルは,グローバルとローカルの両方の観点からの伝達学習を実現する。
いくつかのUDAベンチマークの実験では、提案されたGVG-PNがSOTAモデルより明らかに優れていることが検証された。
論文 参考訳(メタデータ) (2024-05-28T03:03:32Z) - Adversarial Bi-Regressor Network for Domain Adaptive Regression [52.5168835502987]
ドメインシフトを軽減するために、クロスドメインレグレッタを学ぶことが不可欠です。
本稿では、より効果的なドメイン間回帰モデルを求めるために、ABRNet(Adversarial Bi-Regressor Network)を提案する。
論文 参考訳(メタデータ) (2022-09-20T18:38:28Z) - FRIDA -- Generative Feature Replay for Incremental Domain Adaptation [34.00059350161178]
FRIDA(Feature Based Incremental Domain Adaptation)と呼ばれる新しいフレームワークを提案する。
ドメインアライメントのために,DANN-IBと呼ばれる,一般的なドメイン対向ニューラルネットワーク(DANN)の簡単な拡張を提案する。
Office-Home、Office-CalTech、DomainNetデータセットの実験結果は、FRIDAが文献よりも優れた安定性と塑性のトレードオフを維持していることを確認した。
論文 参考訳(メタデータ) (2021-12-28T22:24:32Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - A New Bidirectional Unsupervised Domain Adaptation Segmentation
Framework [27.13101555533594]
異なるドメイン間のギャップを埋めるために、教師なしドメイン適応(UDA)技術が提案されている。
本稿では,両方向のUDA演奏に対して,非交互表現学習に基づく双方向UDAフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-18T05:25:11Z) - Feature Alignment and Restoration for Domain Generalization and
Adaptation [93.39253443415392]
クロスドメイン機能アライメントは、ドメイン不変表現を学ぶために、異なるドメインの特徴分布を抽出するために広く研究されてきた。
本稿では,FAR(Feature Alignment and Restoration)と呼ばれる統合フレームワークを提案する。
複数の分類ベンチマークの実験は、ドメインの一般化と教師なしドメインの適応の両方のためのFARフレームワークの性能と強力な一般化を実証している。
論文 参考訳(メタデータ) (2020-06-22T05:08:13Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z) - Deep Residual Correction Network for Partial Domain Adaptation [79.27753273651747]
ディープドメイン適応法は、よくラベルされたソースドメインから異なるが関連する未ラベルのターゲットドメインへの転送可能な表現を学習することで、魅力的なパフォーマンスを実現している。
本稿では,効率よく実装された深部残留補正網を提案する。
部分的、伝統的、微粒なクロスドメイン認識に関する総合的な実験は、DRCNが競合深いドメイン適応アプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2020-04-10T06:07:16Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。