論文の概要: Co-Regularized Adversarial Learning for Multi-Domain Text Classification
- arxiv url: http://arxiv.org/abs/2201.12796v1
- Date: Sun, 30 Jan 2022 12:15:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 17:13:17.324407
- Title: Co-Regularized Adversarial Learning for Multi-Domain Text Classification
- Title(参考訳): 多領域テキスト分類のための共正規化adversarial learning
- Authors: Yuan Wu, Diana Inkpen, Ahmed El-Roby
- Abstract要約: マルチドメインテキスト分類(MDTC)は、複数のドメインから利用可能なすべてのリソースを活用して、これらのドメインをうまく一般化できる予測モデルを学ぶことを目的としている。
近年,多くのMDTC手法が対向学習,共有私的パラダイム,エントロピー最小化を採用して最先端の成果を上げている。
ドメイン分割の最小化はドメインアライメントの成功を完全に保証できない、(2)限界特徴分布のアライメントは学習特徴の識別性を完全に保証できない、(3)標準エントロピーの最小化は、ラベルなしデータの予測を過度に信頼し、ディスクを劣化させる、という3つの問題に直面している。
- 参考スコア(独自算出の注目度): 19.393393465837377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-domain text classification (MDTC) aims to leverage all available
resources from multiple domains to learn a predictive model that can generalize
well on these domains. Recently, many MDTC methods adopt adversarial learning,
shared-private paradigm, and entropy minimization to yield state-of-the-art
results. However, these approaches face three issues: (1) Minimizing domain
divergence can not fully guarantee the success of domain alignment; (2)
Aligning marginal feature distributions can not fully guarantee the
discriminability of the learned features; (3) Standard entropy minimization may
make the predictions on unlabeled data over-confident, deteriorating the
discriminability of the learned features. In order to address the above issues,
we propose a co-regularized adversarial learning (CRAL) mechanism for MDTC.
This approach constructs two diverse shared latent spaces, performs domain
alignment in each of them, and punishes the disagreements of these two
alignments with respect to the predictions on unlabeled data. Moreover, virtual
adversarial training (VAT) with entropy minimization is incorporated to impose
consistency regularization to the CRAL method. Experiments show that our model
outperforms state-of-the-art methods on two MDTC benchmarks.
- Abstract(参考訳): マルチドメインテキスト分類(MDTC)は、複数のドメインから利用可能なすべてのリソースを活用して、これらのドメインをうまく一般化できる予測モデルを学ぶことを目的としている。
近年,多くのMDTC手法が対向学習,共有私的パラダイム,エントロピー最小化を採用して最先端の成果を上げている。
ドメイン分割の最小化はドメインアライメントの成功を完全に保証できない; (2) 限界特徴分布のアライメントは学習特徴の識別性を十分に保証できない; (3) 標準エントロピーの最小化は、未ラベルデータの予測を過度に信頼し、学習特徴の識別性を損なう可能性がある。
上記の課題に対処するため,MDTCのための協調正規化逆学習(CRAL)機構を提案する。
このアプローチは2つの異なる共有潜在空間を構築し、それぞれにドメインアライメントを行い、ラベルなしデータの予測に関してこれらの2つのアライメントの不一致を罰する。
さらに、エントロピーを最小化した仮想対位訓練(VAT)を導入し、CRAL法に整合性正規化を課す。
2つのMDTCベンチマークにおいて,本モデルが最先端の手法より優れていることを示す。
関連論文リスト
- Margin Discrepancy-based Adversarial Training for Multi-Domain Text
Classification [6.629561563470492]
マルチドメインテキスト分類(MDTC)は、対象ドメインの分類精度を高めるために、関連ドメインから利用可能なリソースを活用する。
ほとんどのMDTCアプローチは、敵の訓練を取り入れ、共有私的パラダイムは最先端のパフォーマンスを示す。
MDTCに対する差分差に基づく対位法 (MDAT) のアプローチを理論的解析に基づいて提案する。
論文 参考訳(メタデータ) (2024-03-01T11:54:14Z) - Regularized Conditional Alignment for Multi-Domain Text Classification [6.629561563470492]
本稿では,正規化条件アライメント(RCA)と呼ばれる手法を提案する。
我々は、ラベルのないデータに関する予測の不確実性を抑制するために、エントロピーの最小化と仮想対位トレーニングを採用している。
2つのベンチマークデータセットによる実験結果から、我々のRCAアプローチは最先端のMDTC技術より優れていることが示された。
論文 参考訳(メタデータ) (2023-12-18T05:52:05Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Generalizable Representation Learning for Mixture Domain Face
Anti-Spoofing [53.82826073959756]
ドメイン一般化(DG)に基づく対スプーフィングアプローチは、予期せぬシナリオの堅牢性のために注目を集めています。
ドメインダイナミック調整メタラーニング(D2AM)についてドメインラベルを使わずに提案する。
この制限を克服するため,ドメインダイナミック調整メタラーニング(D2AM)を提案する。
論文 参考訳(メタデータ) (2021-05-06T06:04:59Z) - Margin Preserving Self-paced Contrastive Learning Towards Domain
Adaptation for Medical Image Segmentation [51.93711960601973]
クロスモーダル医療画像セグメンテーションのための自己ペースコントラスト学習モデルを保存する新しいマージンを提案する。
プログレッシブに洗練されたセマンティックプロトタイプの指導により、埋め込み表現空間の識別性を高めるために、コントラスト損失を減少させる新しいマージンが提案される。
クロスモーダル心セグメンテーションタスクの実験は、MPSCLが意味セグメンテーション性能を大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-03-15T15:23:10Z) - Mixup Regularized Adversarial Networks for Multi-Domain Text
Classification [16.229317527580072]
マルチドメインテキスト分類(MDTC)モデルの性能は,共有プライベートパラダイムと敵対的トレーニングによって大幅に向上した。
しかし、既存の方法には2つの問題がある。
この2つの問題に対処するために、MRAN(Mixup regularized adversarial network)を提案する。
論文 参考訳(メタデータ) (2021-01-31T15:24:05Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Adaptively-Accumulated Knowledge Transfer for Partial Domain Adaptation [66.74638960925854]
部分ドメイン適応(PDA)は、ソースドメインラベル空間がターゲットドメインを置き換えるとき、現実的で困難な問題を扱う。
本稿では,2つの領域にまたがる関連カテゴリを整合させる適応的知識伝達フレームワーク(A$2KT)を提案する。
論文 参考訳(メタデータ) (2020-08-27T00:53:43Z) - Dual Mixup Regularized Learning for Adversarial Domain Adaptation [19.393393465837377]
教師なしドメイン適応のための二重混合正規化学習(DMRL)法を提案する。
DMRLは、サンプル間の一貫した予測を強化するために分類器をガイドし、潜在空間の内在構造を豊かにする。
4つのドメイン適応ベンチマークに関する一連の実証研究は、我々のアプローチが最先端を実現することを実証している。
論文 参考訳(メタデータ) (2020-07-07T00:24:14Z) - Learning transferable and discriminative features for unsupervised
domain adaptation [6.37626180021317]
教師なしのドメイン適応は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を移すことで、この課題を克服することができる。
本稿では,これら2つの目的を同時に最適化するために,教師なしドメイン適応(Learning)のためのテキスト学習トランスフェラブルと識別機能と呼ばれる新しい手法を提案する。
5つの実世界のデータセットを用いて総合実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-03-26T03:15:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。