論文の概要: Local Context-Aware Active Domain Adaptation
- arxiv url: http://arxiv.org/abs/2208.12856v1
- Date: Fri, 26 Aug 2022 20:08:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 13:14:13.954332
- Title: Local Context-Aware Active Domain Adaptation
- Title(参考訳): ローカルコンテキスト対応アクティブドメイン適応
- Authors: Tao Sun, Cheng Lu, Haibin Ling
- Abstract要約: Active Domain Adaptation (ADA)は、選択されたターゲットサンプルのラベルをクエリして、関連するソースドメインからターゲットドメインへのモデル適応を支援する。
既存のADAメソッドは、クエリされたデータのローカルコンテキストを完全に活用していない。
本稿では2つの重要なモジュールから構成されるローカルコンテキスト対応アクティブドメイン適応(LADA)の新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 82.9977759320565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active Domain Adaptation (ADA) queries the label of selected target samples
to help adapting a model from a related source domain to a target domain. It
has attracted increasing attention recently due to its promising performance
with minimal labeling cost. Nevertheless, existing ADA methods have not fully
exploited the local context of queried data, which is important to ADA,
especially when the domain gap is large. In this paper, we propose a novel
framework of Local context-aware Active Domain Adaptation (LADA), which is
composed of two key modules. The Local context-aware Active Selection (LAS)
module selects target samples whose class probability predictions are
inconsistent with their neighbors. The Local context-aware Model Adaptation
(LMA) module refines a model with both queried samples and their expanded
neighbors, regularized by a context-preserving loss. Extensive experiments show
that LAS selects more informative samples than existing active selection
strategies. Furthermore, equipped with LMA, the full LADA method outperforms
state-of-the-art ADA solutions on various benchmarks. Code is available at
https://github.com/tsun/LADA.
- Abstract(参考訳): Active Domain Adaptation (ADA)は、選択されたターゲットサンプルのラベルをクエリして、関連するソースドメインからターゲットドメインへのモデル適応を支援する。
ラベル付けコストの最小化による有望なパフォーマンスのため、最近注目を集めている。
それでも、既存のADAメソッドはクエリされたデータのローカルコンテキストを完全に活用していない。
本稿では,2つの主要なモジュールから構成されるローカルコンテキスト対応アクティブドメイン適応(LADA)の新しいフレームワークを提案する。
Local context-aware Active Selection (LAS)モジュールは、クラス確率予測が隣人と矛盾するターゲットサンプルを選択する。
Local context-aware Model Adaptation (LMA)モジュールは、クエリされたサンプルと拡張された隣人の両方でモデルを洗練する。
広範囲な実験により、LASは既存のアクティブな選択戦略よりも情報的なサンプルを選択することが示されている。
さらに、LMAを用いて、LADA法は様々なベンチマークで最先端のADAソリューションより優れている。
コードはhttps://github.com/tsun/LADA.comで入手できる。
関連論文リスト
- SKADA-Bench: Benchmarking Unsupervised Domain Adaptation Methods with Realistic Validation [55.87169702896249]
Unsupervised Domain Adaptation (DA) は、ラベル付きソースドメインでトレーニングされたモデルを適用して、ラベルなしのターゲットドメインでデータ分散シフトをうまく実行する。
本稿では,DA手法の評価と,再重み付け,マッピング,部分空間アライメントなど,既存の浅層アルゴリズムの公平な評価を行うフレームワークを提案する。
本ベンチマークでは,現実的な検証の重要性を強調し,現実的なアプリケーションに対する実践的なガイダンスを提供する。
論文 参考訳(メタデータ) (2024-07-16T12:52:29Z) - Revisiting the Domain Shift and Sample Uncertainty in Multi-source
Active Domain Transfer [69.82229895838577]
Active Domain Adaptation (ADA)は、アノテートするターゲットデータの限られた数を選択することで、新しいターゲットドメインにおけるモデル適応を最大限に向上することを目的としている。
この設定は、複数のソースからトレーニングデータを収集するより実践的なシナリオを無視します。
これは、ADAを単一のソースドメインから複数のソースドメインに拡張する、新しい、挑戦的な知識転送の設定を目標にしています。
論文 参考訳(メタデータ) (2023-11-21T13:12:21Z) - Divide and Adapt: Active Domain Adaptation via Customized Learning [56.79144758380419]
対象インスタンスを成層化可能な4つのカテゴリに分割する新しいADAフレームワークであるDiaNA(Divide-and-Adapt)を提案する。
不確実性とドメイン性に基づく新しいデータ分割プロトコルにより、DiaNAは最も有利なサンプルを正確に認識することができる。
の精神のおかげで、DiaNAはドメインギャップの大きなバリエーションでデータを処理できる。
論文 参考訳(メタデータ) (2023-07-21T14:37:17Z) - Combating Label Distribution Shift for Active Domain Adaptation [16.270897459117755]
我々は、未ラベルのターゲットデータに対するアクティブドメイン適応(ADA)の問題を考える。
ドメイン適応におけるソースとターゲット間のラベル分布ミスマッチから重要な問題に対する最近の分析から着想を得て,ADAで初めてこの問題に対処する手法を考案した。
論文 参考訳(メタデータ) (2022-08-13T09:06:45Z) - Loss-based Sequential Learning for Active Domain Adaptation [14.366263836801485]
本稿では,ドメインタイプ(ソース/ターゲット)とラベルネス(ラベル付き/ラベルなし)の両方を考慮した逐次学習を導入する。
我々のモデルは、様々なベンチマークデータセットのベースラインモデルと同様に、従来の手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2022-04-25T14:00:04Z) - S$^3$VAADA: Submodular Subset Selection for Virtual Adversarial Active
Domain Adaptation [49.01925978752677]
現実のシナリオでは、少数のターゲットデータに対してラベルを取得することは可能かもしれません。
我々は,S$3$VAADAを提案する。これは,ラベルに対する最大情報サブセットを選択するための,新しいサブモジュール基準を導入し,また,クラスタベースのDA手順を強化する。
我々のアプローチは、ドメインシフトの度合いの異なるデータセットにおいて、競合する最先端のアプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2021-09-18T10:53:57Z) - OVANet: One-vs-All Network for Universal Domain Adaptation [78.86047802107025]
既存のメソッドは、検証または未知のサンプルの事前定義された比率に基づいて未知のサンプルを拒否するしきい値を手動で設定します。
本稿では,ソースサンプルを用いて閾値を学習し,対象領域に適応する手法を提案する。
私たちの考えは、ソースドメインの最小クラス間距離は、ターゲットの既知のか未知かを決定するための良いしきい値であるべきです。
論文 参考訳(メタデータ) (2021-04-07T18:36:31Z) - Test-time Unsupervised Domain Adaptation [3.4188171733930584]
畳み込みニューラルネットワークは、しばしば異なるスキャナや取得プロトコル(ターゲットドメイン)に一般化する。
対象領域から特定の対象領域に適応したモデルは、対象領域のより多くのデータを見たが、対象領域の特定の対象領域に適応していないドメイン適応法より優れていることを示す。
論文 参考訳(メタデータ) (2020-10-05T11:30:36Z) - Enlarging Discriminative Power by Adding an Extra Class in Unsupervised
Domain Adaptation [5.377369521932011]
新たに人工的なクラスを追加し、新しいクラスのGAN生成サンプルとともにデータ上でモデルをトレーニングする。
私たちのアイデアは、DANN、VADA、DIRT-Tといった既存のメソッドと互換性がある、非常に一般的なものです。
論文 参考訳(メタデータ) (2020-02-19T07:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。