論文の概要: Multi-Source Domain Adaptation for Text Classification via
DistanceNet-Bandits
- arxiv url: http://arxiv.org/abs/2001.04362v3
- Date: Tue, 3 Mar 2020 21:21:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 22:22:40.827602
- Title: Multi-Source Domain Adaptation for Text Classification via
DistanceNet-Bandits
- Title(参考訳): distancenet-banditsによるテキスト分類のためのマルチソースドメイン適応
- Authors: Han Guo, Ramakanth Pasunuru, Mohit Bansal
- Abstract要約: 本研究では,NLPタスクのコンテキストにおいて,サンプル推定に基づく領域間の相違を特徴付ける様々な距離ベース尺度について検討する。
タスクの損失関数と協調して最小化するために,これらの距離測度を付加的な損失関数として用いるディスタンスネットモデルを開発した。
マルチアーム・バンド・コントローラを用いて複数のソース・ドメインを動的に切り替えるDistanceNet-Banditモデルに拡張する。
- 参考スコア(独自算出の注目度): 101.68525259222164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptation performance of a learning algorithm on a target domain is a
function of its source domain error and a divergence measure between the data
distribution of these two domains. We present a study of various distance-based
measures in the context of NLP tasks, that characterize the dissimilarity
between domains based on sample estimates. We first conduct analysis
experiments to show which of these distance measures can best differentiate
samples from same versus different domains, and are correlated with empirical
results. Next, we develop a DistanceNet model which uses these distance
measures, or a mixture of these distance measures, as an additional loss
function to be minimized jointly with the task's loss function, so as to
achieve better unsupervised domain adaptation. Finally, we extend this model to
a novel DistanceNet-Bandit model, which employs a multi-armed bandit controller
to dynamically switch between multiple source domains and allow the model to
learn an optimal trajectory and mixture of domains for transfer to the
low-resource target domain. We conduct experiments on popular sentiment
analysis datasets with several diverse domains and show that our DistanceNet
model, as well as its dynamic bandit variant, can outperform competitive
baselines in the context of unsupervised domain adaptation.
- Abstract(参考訳): 対象領域における学習アルゴリズムのドメイン適応性能は、そのソース領域エラーの関数であり、これら2つの領域のデータ分布間の分岐測度である。
本研究では,NLPタスクのコンテキストにおいて,サンプル推定に基づく領域間の相違を特徴付ける様々な距離ベース尺度について検討する。
まず,これらの距離尺度のどれが同一領域と異なる領域のサンプルを最もよく区別できるか分析実験を行い,実験結果と相関した。
次に、タスクの損失関数と共同で最小化するための追加損失関数として、これらの距離測度、またはこれらの距離測度の混合を用いた距離ネットモデルを開発し、教師なしドメイン適応をより良くする。
最後に、このモデルをDistanceNet-Banditモデルに拡張し、マルチアームのBanditコントローラを用いて複数のソースドメインを動的に切り替え、低リソースターゲットドメインに転送するための最適軌道と混合領域を学習できるようにする。
我々は、様々なドメインを持つ一般的な感情分析データセットの実験を行い、DistanceNetモデルとその動的帯域変動は、教師なしドメイン適応の文脈における競争ベースラインよりも優れていることを示す。
関連論文リスト
- Revisiting the Domain Shift and Sample Uncertainty in Multi-source
Active Domain Transfer [69.82229895838577]
Active Domain Adaptation (ADA)は、アノテートするターゲットデータの限られた数を選択することで、新しいターゲットドメインにおけるモデル適応を最大限に向上することを目的としている。
この設定は、複数のソースからトレーニングデータを収集するより実践的なシナリオを無視します。
これは、ADAを単一のソースドメインから複数のソースドメインに拡張する、新しい、挑戦的な知識転送の設定を目標にしています。
論文 参考訳(メタデータ) (2023-11-21T13:12:21Z) - Dynamic Domain Discrepancy Adjustment for Active Multi-Domain Adaptation [3.367755441623275]
マルチソースアン教師付きドメイン適応(MUDA)は、関連するソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
アクティブマルチドメイン適応(D3AAMDA)のための動的ドメイン不一致適応法(Dynamic Domain Disrepancy Adjustment)を提案する。
このメカニズムは、ソースドメインとターゲットドメイン間の特徴のアライメントレベルを制御し、ソースドメイン内のローカルな有利な特徴情報を効果的に活用する。
論文 参考訳(メタデータ) (2023-07-26T09:40:19Z) - Meta-causal Learning for Single Domain Generalization [102.53303707563612]
単一ドメインの一般化は、単一のトレーニングドメイン(ソースドメイン)からモデルを学び、それを複数の未確認テストドメイン(ターゲットドメイン)に適用することを目的としている。
既存の方法は、ターゲットドメインをカバーするためのトレーニングドメインの配布拡大に重点を置いているが、ソースとターゲットドメイン間のドメインシフトを見積もることはできない。
そこで本研究では,まず,対象ドメインとして補助ドメインを構築することによってドメインシフトをシミュレートし,ドメインシフトの原因を解析し,最終的にモデル適応のためのドメインシフトを低減する,新たな学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-07T15:46:38Z) - T-SVDNet: Exploring High-Order Prototypical Correlations for
Multi-Source Domain Adaptation [41.356774580308986]
マルチソースドメイン適応の課題に対処するために,T-SVDNetという新しい手法を提案する。
複数のドメインとカテゴリの高次相関は、ドメインギャップを埋めるため、完全に検討されている。
ノイズ源データによる負の伝達を回避するため,新しい不確実性を考慮した重み付け手法を提案する。
論文 参考訳(メタデータ) (2021-07-30T06:33:05Z) - Gradual Domain Adaptation via Self-Training of Auxiliary Models [50.63206102072175]
ソースとターゲットドメイン間のギャップを増やすことで、ドメイン適応はより難しくなります。
中間領域のモデルを学習する補助モデル(AuxSelfTrain)の自己学習を提案する。
教師なしおよび半教師付きドメイン適応のベンチマークデータセットの実験は、その有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:15:25Z) - FixBi: Bridging Domain Spaces for Unsupervised Domain Adaptation [26.929772844572213]
我々は、ソースとターゲットドメイン間の複数の中間ドメインを拡大するために、固定比に基づくミックスアップを導入する。
我々は、相補的な特性を持つソース支配モデルとターゲット支配モデルを訓練する。
提案手法により,モデルが対象ドメインに徐々にドメイン知識を伝達する。
論文 参考訳(メタデータ) (2020-11-18T11:58:19Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。