論文の概要: Dynamic Weighted Learning for Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2103.13814v1
- Date: Mon, 22 Mar 2021 16:11:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 13:32:01.105736
- Title: Dynamic Weighted Learning for Unsupervised Domain Adaptation
- Title(参考訳): 教師なしドメイン適応のための動的重み付き学習
- Authors: Ni Xiao and Lei Zhang
- Abstract要約: unsupervised domain adaptation (uda) は、完全なラベル付きソースドメインからの情報を活用し、ラベルなしのターゲットドメインの分類性能を向上させることを目的としている。
最近のアプローチでは、このタスクに取り組むためにドメイン不変およびクラス差別表現を検討している。
過度のアライメント学習による識別性消失問題や過度の識別学習によるドメイン不整合問題を回避するために,動的重み学習(DWL)を提案する。
- 参考スコア(独自算出の注目度): 8.561417040954742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation (UDA) aims to improve the classification
performance on an unlabeled target domain by leveraging information from a
fully labeled source domain. Recent approaches explore domain-invariant and
class-discriminant representations to tackle this task. These methods, however,
ignore the interaction between domain alignment learning and class
discrimination learning. As a result, the missing or inadequate tradeoff
between domain alignment and class discrimination are prone to the problem of
negative transfer. In this paper, we propose Dynamic Weighted Learning (DWL) to
avoid the discriminability vanishing problem caused by excessive alignment
learning and domain misalignment problem caused by excessive discriminant
learning. Technically, DWL dynamically weights the learning losses of alignment
and discriminability by introducing the degree of alignment and
discriminability. Besides, the problem of sample imbalance across domains is
first considered in our work, and we solve the problem by weighing the samples
to guarantee information balance across domains. Extensive experiments
demonstrate that DWL has an excellent performance in several benchmark
datasets.
- Abstract(参考訳): unsupervised domain adaptation (uda) は、完全なラベル付きソースドメインからの情報を活用し、ラベルなしのターゲットドメインの分類性能を向上させることを目的としている。
最近のアプローチでは、この課題に取り組むために、ドメイン不変およびクラス判別表現を探求している。
しかし、これらの手法はドメインアライメント学習とクラス識別学習の相互作用を無視している。
その結果、ドメインアライメントとクラス識別の間の欠如または不適切なトレードオフは、負の転送の問題に直結する。
本稿では,過度なアライメント学習による識別可能性消失問題や過度な判別学習によるドメインミスアライメント問題を回避するために,動的重み付け学習(dwl)を提案する。
技術的には、DWLはアライメントと差別性の程度を導入することによって、アライメントと差別性の学習損失を動的に重み付けする。
また,本研究では,ドメイン間のサンプル不均衡の問題をまず検討し,各ドメイン間の情報バランスを確保するために,サンプルを重み付けして解決する。
大規模な実験により、DWLはいくつかのベンチマークデータセットで優れた性能を示した。
関連論文リスト
- Overcoming Negative Transfer by Online Selection: Distant Domain Adaptation for Fault Diagnosis [42.85741244467877]
遠距離領域適応問題」という用語は、ラベル付きソースドメインからラベル付き未ラベルのターゲットドメインへの適応の難しさを記述している。
この問題は、ソースドメインからの外部知識がターゲットドメインのパフォーマンスに悪影響を及ぼす、負の転送のリスクを示す。
この課題に対応するために、我々は、新しいオンライン選択適応(OSAA)アプローチを提案する。
論文 参考訳(メタデータ) (2024-05-25T07:17:47Z) - AIDA: Legal Judgment Predictions for Non-Professional Fact Descriptions
via Partial-and-Imbalanced Domain Adaptation [12.455186698657451]
本研究では,不均衡なソースドメインから部分的ターゲットドメインへの法的ドメイン適応問題について検討する。
本課題は,非専門的事実記述に対する法的判断の予測を改善することである。
我々はこのタスクを部分的・不均衡な領域適応問題として定式化する。
論文 参考訳(メタデータ) (2023-02-12T07:04:55Z) - Domain Confused Contrastive Learning for Unsupervised Domain Adaptation [45.40427576684924]
本研究では,Unsupervised Domain Adaptation (UDA) を挑戦的な自己教師型アプローチで研究する。
課題の1つは、ターゲットラベルがない場合にタスクの識別を学習する方法である。
本稿では、ソースとターゲットドメインをブリッジするために、ドメイン混乱型コントラスト学習(DCCL)を提案する。
論文 参考訳(メタデータ) (2022-07-10T23:23:38Z) - Learning Unbiased Transferability for Domain Adaptation by Uncertainty
Modeling [107.24387363079629]
ドメイン適応は、ラベル付けされたソースドメインからラベル付けされていない、あるいはラベル付けされていないが関連するターゲットドメインに知識を転送することを目的としています。
ソース内のアノテートされたデータの量とターゲットドメインとの間の不均衡のため、ターゲットの分布のみがソースドメインにアライメントされる。
本稿では,非暴力的非暴力的移動可能性推定プラグイン(UTEP)を提案し,非暴力的移動を最適化するDA法において,識別器の不確実性をモデル化する。
論文 参考訳(メタデータ) (2022-06-02T21:58:54Z) - Joint Distribution Alignment via Adversarial Learning for Domain
Adaptive Object Detection [11.262560426527818]
教師なしのドメイン適応オブジェクト検出は、リッチラベル付きデータで訓練された元のソースドメインから、ラベルなしデータで新しいターゲットドメインに適応することを目的としている。
近年、主流のアプローチは、敵対的学習を通じてこのタスクを実行するが、それでも2つの制限に悩まされている。
上記の課題に対処するために,JADF(Joint Adaptive Detection framework)を提案する。
論文 参考訳(メタデータ) (2021-09-19T00:27:08Z) - Re-energizing Domain Discriminator with Sample Relabeling for
Adversarial Domain Adaptation [88.86865069583149]
Unsupervised Domain Adapt (UDA)メソッドは、ドメインの競合トレーニングを利用して、機能を調整してドメインのギャップを減らす。
本研究では,Re-enforceable Adversarial Domain Adaptation (RADA) と呼ばれる効率的な最適化戦略を提案する。
RADAは、動的ドメインラベルを使用して、トレーニング中にドメイン識別器を再活性化することを目指しています。
論文 参考訳(メタデータ) (2021-03-22T08:32:55Z) - Selective Pseudo-Labeling with Reinforcement Learning for
Semi-Supervised Domain Adaptation [116.48885692054724]
半教師付きドメイン適応のための強化学習に基づく選択擬似ラベル法を提案する。
高精度かつ代表的な擬似ラベルインスタンスを選択するための深層Q-ラーニングモデルを開発する。
提案手法は, SSDAのベンチマークデータセットを用いて評価し, 全ての比較手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-12-07T03:37:38Z) - Learning Task-oriented Disentangled Representations for Unsupervised
Domain Adaptation [165.61511788237485]
Unsupervised domain adapt (UDA) は、ラベル付きソースドメインとラベルなしターゲットドメインの間のドメインシフト問題に対処することを目的としている。
UDAのための動的タスク指向の非絡合ネットワーク(DTDN)を提案し,非絡合表現をエンドツーエンドで学習する。
論文 参考訳(メタデータ) (2020-07-27T01:21:18Z) - Attract, Perturb, and Explore: Learning a Feature Alignment Network for
Semi-supervised Domain Adaptation [34.81203184926791]
半教師付きドメイン適応(SSDA)問題の新しい設定について検討する。
我々の枠組みは3つのスキーム、すなわちアトラクション、摂動、探索から構成される。
提案手法は,全データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-18T09:26:25Z) - Uncertainty-Aware Consistency Regularization for Cross-Domain Semantic
Segmentation [63.75774438196315]
Unsupervised Domain adapt (UDA) は、未ラベルのデータのみを持つ新しいターゲットドメインにソースドメインの既存のモデルを適用することを目的としている。
既存のほとんどの手法は、エラーを起こしやすい識別器ネットワークまたは不合理な教師モデルから生じる顕著な負の伝達に悩まされている。
ドメイン間セマンティックセグメンテーションのための不確実性を考慮した整合性正規化手法を提案する。
論文 参考訳(メタデータ) (2020-04-19T15:30:26Z) - A Balanced and Uncertainty-aware Approach for Partial Domain Adaptation [142.31610972922067]
この研究は、特にターゲットドメインのクラスラベルがソースドメインのサブセットである場合に、教師なしのドメイン適応問題に対処する。
本稿では,ドメイン逆境学習に基づく新しいドメイン適応手法 BA$3$US を提案し,BAA(Ba balanced Adversarial Alignment)とAUS(Adaptive Uncertainty Suppression)の2つの新しい手法を提案する。
複数のベンチマーク実験の結果、BA$3$USが部分的なドメイン適応タスクの最先端を超越していることが示されている。
論文 参考訳(メタデータ) (2020-03-05T11:37:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。