論文の概要: Prior Knowledge Guided Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2207.08877v1
- Date: Mon, 18 Jul 2022 18:41:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 13:19:22.139346
- Title: Prior Knowledge Guided Unsupervised Domain Adaptation
- Title(参考訳): 事前知識による教師なしドメイン適応
- Authors: Tao Sun, Cheng Lu, Haibin Ling
- Abstract要約: 本稿では,対象とするクラス分布に関する事前知識を利用できる知識誘導型非教師付きドメイン適応(KUDA)設定を提案する。
特に,対象領域におけるクラス分布に関する2種類の事前知識について考察する。
このような事前知識を用いて生成した擬似ラベルを精査する修正モジュールを提案する。
- 参考スコア(独自算出の注目度): 82.9977759320565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The waive of labels in the target domain makes Unsupervised Domain Adaptation
(UDA) an attractive technique in many real-world applications, though it also
brings great challenges as model adaptation becomes harder without labeled
target data. In this paper, we address this issue by seeking compensation from
target domain prior knowledge, which is often (partially) available in
practice, e.g., from human expertise. This leads to a novel yet practical
setting where in addition to the training data, some prior knowledge about the
target class distribution are available. We term the setting as
Knowledge-guided Unsupervised Domain Adaptation (KUDA). In particular, we
consider two specific types of prior knowledge about the class distribution in
the target domain: Unary Bound that describes the lower and upper bounds of
individual class probabilities, and Binary Relationship that describes the
relations between two class probabilities. We propose a general rectification
module that uses such prior knowledge to refine model generated pseudo labels.
The module is formulated as a Zero-One Programming problem derived from the
prior knowledge and a smooth regularizer. It can be easily plugged into
self-training based UDA methods, and we combine it with two state-of-the-art
methods, SHOT and DINE. Empirical results on four benchmarks confirm that the
rectification module clearly improves the quality of pseudo labels, which in
turn benefits the self-training stage. With the guidance from prior knowledge,
the performances of both methods are substantially boosted. We expect our work
to inspire further investigations in integrating prior knowledge in UDA. Code
is available at https://github.com/tsun/KUDA.
- Abstract(参考訳): ターゲットドメイン内のラベルの放棄は、教師なしドメイン適応(uda)を多くの現実世界アプリケーションにおいて魅力的な技術にするが、ラベル付きターゲットデータなしではモデル適応が難しくなるという大きな課題をもたらす。
本稿では,対象分野の事前知識から補償を求めることでこの問題に対処する。
これにより、トレーニングデータに加えて、対象のクラス分布に関する事前知識が利用可能となる、新しい実践的な設定がもたらされる。
この設定を知識誘導非教師付きドメイン適応(KUDA)と呼ぶ。
特に,対象領域におけるクラス分布について,個々のクラス確率の下限と上限を記述する一意境界と,2つのクラス確率の関係を記述する二項関係という,2種類の事前知識について考察する。
本稿では,このような事前知識を用いてモデル生成擬似ラベルを洗練する一般整流モジュールを提案する。
モジュールは、事前の知識とスムーズな正規化子から導かれるゼロワンプログラミング問題として定式化される。
自己学習に基づくUDA手法に簡単に接続でき、SHOTとDINEの2つの最先端手法と組み合わせることができる。
4つのベンチマークによる実験結果から,修正モジュールは疑似ラベルの品質を向上し,自己学習段階の恩恵を受けることが明らかとなった。
事前知識からのガイダンスにより、両方の方法のパフォーマンスが大幅に向上する。
私たちは、udaに事前知識を統合することで、さらなる調査を促すことを期待しています。
コードはhttps://github.com/tsun/KUDAで入手できる。
関連論文リスト
- Open-Set Domain Adaptation for Semantic Segmentation [6.3951361316638815]
対象ドメインが未知のクラスを含むセマンティック(OSDA-SS)を初めて導入する。
これらの問題に対処するため,BUS を作成したBundary and Unknown Shape-Aware Open-set Domain adaptationを提案する。
我々のBUSは、新しい拡張浸食に基づくコントラスト損失を用いて、未知のクラスと未知のクラスの境界を正確に識別することができる。
論文 参考訳(メタデータ) (2024-05-30T09:55:19Z) - Test-Time Domain Adaptation by Learning Domain-Aware Batch Normalization [39.14048972373775]
テストタイムドメイン適応は、ソースドメインでトレーニングされたモデルを、ラベルのないいくつかのイメージを使用して、未表示のターゲットドメインに適応することを目的としている。
従来の作業は通常、ラベルとドメイン間の知識を明示的に分離することなく、ネットワーク全体をナビゲート的に更新する。
本稿では,BN層のみを操作することにより,そのような学習の干渉を低減し,ドメイン知識の学習を高めることを提案する。
論文 参考訳(メタデータ) (2023-12-15T19:22:21Z) - Unified Instance and Knowledge Alignment Pretraining for Aspect-based
Sentiment Analysis [96.53859361560505]
Aspect-based Sentiment Analysis (ABSA) は、ある側面に対する感情の極性を決定することを目的としている。
事前トレーニングと下流ABSAデータセットの間には、常に深刻なドメインシフトが存在する。
我々は,バニラ・プレトレイン・ファインチューンパイプラインにアライメント事前訓練フレームワークを導入する。
論文 参考訳(メタデータ) (2021-10-26T04:03:45Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - Adaptive Pseudo-Label Refinement by Negative Ensemble Learning for
Source-Free Unsupervised Domain Adaptation [35.728603077621564]
既存のUnsupervised Domain Adaptation (UDA)メソッドは、トレーニング中にソースとターゲットのドメインデータを同時に利用できると仮定する。
訓練済みのソースモデルは、よく知られたドメインシフトの問題により、ターゲットに対して性能が悪くても、常に利用可能であると考えられている。
適応型ノイズフィルタリングと擬似ラベル改良に取り組むための統一手法を提案する。
論文 参考訳(メタデータ) (2021-03-29T22:18:34Z) - Your Classifier can Secretly Suffice Multi-Source Domain Adaptation [72.47706604261992]
マルチソースドメイン適応(MSDA)は、複数のラベル付きソースドメインからラベルなしターゲットドメインへのタスク知識の転送を扱う。
ラベル管理下のドメインを暗黙的に整列させる深層モデルが観察されるMSDAに対して、異なる視点を提示する。
論文 参考訳(メタデータ) (2021-03-20T12:44:13Z) - Domain Adaption for Knowledge Tracing [65.86619804954283]
本稿では,DAKT問題に対処するための新しい適応型フレームワーク,すなわち知識追跡(AKT)を提案する。
まず,Deep Knowledge Trace(DKT)に基づく教育的特徴(スリップ,推測,質問文など)を取り入れ,優れた知識追跡モデルを得る。
第2の側面として、3つのドメイン適応プロセスを提案し、採用する。まず、ターゲットモデルトレーニングに有用なソースインスタンスを選択するために、自動エンコーダを事前訓練する。
論文 参考訳(メタデータ) (2020-01-14T15:04:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。