論文の概要: Dual-Correction Adaptation Network for Noisy Knowledge Transfer
- arxiv url: http://arxiv.org/abs/2207.04423v1
- Date: Sun, 10 Jul 2022 09:18:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 14:23:33.839779
- Title: Dual-Correction Adaptation Network for Noisy Knowledge Transfer
- Title(参考訳): 雑音情報伝達のための二重補正適応ネットワーク
- Authors: Yunyun Wang and Weiwen Zheng and Songcan Chen
- Abstract要約: 教師なしドメイン適応(UDA)手法は,ラベル豊富なソースドメインからラベルなしターゲットドメインへの単一方向の知識伝達を通じて,ターゲット学習を促進することを目的としている。
ラベル付けされていないターゲットからラベル付きソースへ転送するDual-Correction Adaptation Network (DualCAN)を提案する。
実験結果からDualCANの有効性が確認された。
- 参考スコア(独自算出の注目度): 23.337080690698855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous unsupervised domain adaptation (UDA) methods aim to promote target
learning via a single-directional knowledge transfer from label-rich source
domain to unlabeled target domain, while its reverse adaption from target to
source has not jointly been considered yet so far. In fact, in some real
teaching practice, a teacher helps students learn while also gets promotion
from students to some extent, which inspires us to explore a dual-directional
knowledge transfer between domains, and thus propose a Dual-Correction
Adaptation Network (DualCAN) in this paper. However, due to the asymmetrical
label knowledge across domains, transfer from unlabeled target to labeled
source poses a more difficult challenge than the common source-to-target
counterpart. First, the target pseudo-labels predicted by source commonly
involve noises due to model bias, hence in the reverse adaptation, they may
hurt the source performance and bring a negative target-to-source transfer.
Secondly, source domain usually contains innate noises, which will inevitably
aggravate the target noises, leading to noise amplification across domains. To
this end, we further introduce a Noise Identification and Correction (NIC)
module to correct and recycle noises in both domains. To our best knowledge,
this is the first naive attempt of dual-directional adaptation for noisy UDA,
and naturally applicable to noise-free UDA. A theory justification is given to
state the rationality of our intuition. Empirical results confirm the
effectiveness of DualCAN with remarkable performance gains over
state-of-the-arts, particularly for extreme noisy tasks (e.g., ~+ 15% on Pw->Pr
and Pr->Rw of Office-Home).
- Abstract(参考訳): 従来のunsupervised domain adaptation(uda)メソッドは、ラベル豊富なソースドメインからラベルなしのターゲットドメインへの単一方向の知識転送を通じてターゲット学習を促進することを目的としている。
実際、ある実教育実践において、教師は学生の学習を助けながら、ある程度の昇進を得、ドメイン間の双方向の知識伝達を探求することを促し、この論文において双正適応ネットワーク(dualcan)を提案する。
しかし、ドメイン間の非対称なラベル知識のため、ラベルのないターゲットからラベル付きソースへの転送は、共通のソースからターゲットへの変換よりも難しい課題となる。
まず、ソースによって予測されるターゲットの擬似ラベルは、一般的にモデルバイアスによるノイズを伴うため、逆適応では、ソースのパフォーマンスを損なう可能性がある。
第二に、ソースドメインは通常固有のノイズを含み、それは必然的にターゲットのノイズを増大させ、ドメイン間のノイズ増幅につながる。
この目的のために、両領域のノイズを補正・リサイクルするためのノイズ識別・補正(NIC)モジュールを更に導入する。
我々の知る限り、これはノイズのないUDAに自然に適用できる、ノイズの多いUDAに対する二方向適応の最初のナイーブな試みである。
理論の正当化は、我々の直感の合理性を示すために与えられる。
実験結果から,DualCANは最先端技術よりも顕著な性能向上を示し,特に極度ノイズの多いタスク(Pw->PrとPr->Rw of Office-Home)に有効であることが確認された。
関連論文リスト
- A3: Active Adversarial Alignment for Source-Free Domain Adaptation [0.0]
Unsupervised domain adapt (UDA) は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
最近の研究は、ターゲットデータのみが利用可能な、ソースフリーのUDAに焦点を当てている。
本研究では, 自己教師型学習, 対人訓練, アクティブラーニングを組み合わせた, 頑健なソースレスUDAのための新しいフレームワークであるActive Adversarial Alignment (A3)を提案する。
論文 参考訳(メタデータ) (2024-09-27T03:17:01Z) - De-Confusing Pseudo-Labels in Source-Free Domain Adaptation [14.954662088592762]
ソースのないドメイン適応は、ソースデータにアクセスすることなく、未ラベルのターゲットドメインにソース訓練されたモデルを適用することを目的としている。
本稿では,ドメイン適応設定における雑音分布に対処するための新しいノイズ学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-03T10:07:11Z) - A denoised Mean Teacher for domain adaptive point cloud registration [81.43344461130474]
ポイントクラウドベースの医療登録は、計算効率の向上、強度シフトに対する堅牢性、匿名性保護を約束する。
合成変形に関する教師付きトレーニングは代替となるが、ドメインギャップと実際のドメインとの差に悩まされる。
本稿では,2つの相補的デノベーション戦略を含む,ポイントクラウド登録のための教師/学生の指導パラダイムを提案する。
論文 参考訳(メタデータ) (2023-06-26T15:03:47Z) - Adversarial Bi-Regressor Network for Domain Adaptive Regression [52.5168835502987]
ドメインシフトを軽減するために、クロスドメインレグレッタを学ぶことが不可欠です。
本稿では、より効果的なドメイン間回帰モデルを求めるために、ABRNet(Adversarial Bi-Regressor Network)を提案する。
論文 参考訳(メタデータ) (2022-09-20T18:38:28Z) - Joint Attention-Driven Domain Fusion and Noise-Tolerant Learning for
Multi-Source Domain Adaptation [2.734665397040629]
マルチソースUnsupervised Domain Adaptationはラベル付きデータを持つ複数のソースドメインからラベル付きターゲットドメインに知識を転送する。
異なるドメインとターゲットドメイン内のノイズの多い擬似ラベル間の分散の相違は、どちらもパフォーマンスのボトルネックにつながる。
本稿では,意識駆動型ドメイン融合(ADNT)と雑音耐性学習(ADNT)を統合し,上記の2つの問題に対処するアプローチを提案する。
論文 参考訳(メタデータ) (2022-08-05T01:08:41Z) - Prior Knowledge Guided Unsupervised Domain Adaptation [82.9977759320565]
本稿では,対象とするクラス分布に関する事前知識を利用できる知識誘導型非教師付きドメイン適応(KUDA)設定を提案する。
特に,対象領域におけるクラス分布に関する2種類の事前知識について考察する。
このような事前知識を用いて生成した擬似ラベルを精査する修正モジュールを提案する。
論文 参考訳(メタデータ) (2022-07-18T18:41:36Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - Adaptive Pseudo-Label Refinement by Negative Ensemble Learning for
Source-Free Unsupervised Domain Adaptation [35.728603077621564]
既存のUnsupervised Domain Adaptation (UDA)メソッドは、トレーニング中にソースとターゲットのドメインデータを同時に利用できると仮定する。
訓練済みのソースモデルは、よく知られたドメインシフトの問題により、ターゲットに対して性能が悪くても、常に利用可能であると考えられている。
適応型ノイズフィルタリングと擬似ラベル改良に取り組むための統一手法を提案する。
論文 参考訳(メタデータ) (2021-03-29T22:18:34Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z) - Deep Residual Correction Network for Partial Domain Adaptation [79.27753273651747]
ディープドメイン適応法は、よくラベルされたソースドメインから異なるが関連する未ラベルのターゲットドメインへの転送可能な表現を学習することで、魅力的なパフォーマンスを実現している。
本稿では,効率よく実装された深部残留補正網を提案する。
部分的、伝統的、微粒なクロスドメイン認識に関する総合的な実験は、DRCNが競合深いドメイン適応アプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2020-04-10T06:07:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。