論文の概要: Learning to Share by Masking the Non-shared for Multi-domain Sentiment
Classification
- arxiv url: http://arxiv.org/abs/2104.08480v1
- Date: Sat, 17 Apr 2021 08:15:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:14:37.440770
- Title: Learning to Share by Masking the Non-shared for Multi-domain Sentiment
Classification
- Title(参考訳): 多ドメイン感情分類のための非共有性マスキングによる共有学習
- Authors: Jianhua Yuan, Yanyan Zhao, Bing Qin, Ting Liu
- Abstract要約: テキストからドメイン関連語を明示的にマスキングし,これらのドメインに依存しないテキストからドメイン不変感の特徴を学習し,それらのマスキング語を用いてドメイン認識文表現を形成するネットワークを提案する。
適応度の高い複数領域感情分類データセットの実証実験により,提案モデルの有効性が実証された。
- 参考スコア(独自算出の注目度): 24.153584996936424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-domain sentiment classification deals with the scenario where labeled
data exists for multiple domains but insufficient for training effective
sentiment classifiers that work across domains. Thus, fully exploiting
sentiment knowledge shared across domains is crucial for real world
applications. While many existing works try to extract domain-invariant
features in high-dimensional space, such models fail to explicitly distinguish
between shared and private features at text-level, which to some extent lacks
interpretablity. Based on the assumption that removing domain-related tokens
from texts would help improve their domain-invariance, we instead first
transform original sentences to be domain-agnostic. To this end, we propose the
BertMasker network which explicitly masks domain-related words from texts,
learns domain-invariant sentiment features from these domain-agnostic texts,
and uses those masked words to form domain-aware sentence representations.
Empirical experiments on a well-adopted multiple domain sentiment
classification dataset demonstrate the effectiveness of our proposed model on
both multi-domain sentiment classification and cross-domain settings, by
increasing the accuracy by 0.94% and 1.8% respectively. Further analysis on
masking proves that removing those domain-related and sentiment irrelevant
tokens decreases texts' domain distinction, resulting in the performance
degradation of a BERT-based domain classifier by over 12%.
- Abstract(参考訳): マルチドメインの感情分類は、複数のドメインにラベル付きデータが存在するが、ドメイン間で機能する効果的な感情分類器のトレーニングには不十分なシナリオを扱う。
したがって、ドメイン間で共有される感情知識を完全に活用することは、現実世界のアプリケーションにとって重要である。
既存の多くの作品は高次元空間でドメイン不変な特徴を抽出しようとするが、そのようなモデルはテキストレベルで共有特徴とプライベート特徴を明確に区別することができない。
テキストからドメイン関連トークンを削除することがドメイン非分散を改善するのに役立つという仮定に基づいて、まずオリジナルの文をドメイン非依存に変換します。
この目的のために,テキストからドメイン関連語を明示的にマスキングし,これらのドメインに依存しないテキストからドメイン不変感の特徴を学習するBertMaskerネットワークを提案する。
精度を0.94%, 精度を1.8%向上させることで, マルチドメイン感情分類とクロスドメイン設定の両方において, 提案モデルの有効性を実証した。
マスキングに関するさらなる分析は、これらのドメイン関連および感情非関連トークンを削除することで、テキストのドメインの区別が減少し、BERTベースのドメイン分類器のパフォーマンスが12%以上低下することを示した。
関連論文リスト
- ReMask: A Robust Information-Masking Approach for Domain Counterfactual
Generation [16.275230631985824]
ドメインのカウンターファクト生成は、テキストをソースドメインから特定のターゲットドメインに変換することを目的としています。
我々は、周波数とアテンションノルムに基づくマスキングを含む3段階のドメイン難読化アプローチを用いて、ドメイン固有のキューをマスキングし、ドメインの一般的なコンテキストを復元する。
本モデルは, 対向領域適応設定における平均精度を1.4%向上させることにより, 最先端技術よりも優れる。
論文 参考訳(メタデータ) (2023-05-04T14:19:02Z) - Discovering Domain Disentanglement for Generalized Multi-source Domain
Adaptation [48.02978226737235]
典型的なマルチソースドメイン適応(MSDA)アプローチは、ラベル付きソースドメインから学習した知識をラベル付きターゲットドメインに転送することを目的としている。
本稿では、各インスタンスのドメイン表現と意味的特徴を分割し、次元的独立性を奨励する変動型ドメイン・アンタングルメント(VDD)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-11T04:33:08Z) - Domain Invariant Masked Autoencoders for Self-supervised Learning from
Multi-domains [73.54897096088149]
マルチドメインからの自己教師型学習のためのドメイン不変のMasked AutoEncoder (DiMAE)を提案する。
中心となる考え方は、入力画像を異なるドメインからのスタイルノイズで拡張し、拡張イメージの埋め込みからイメージを再構築することである。
PACSとDomainNetの実験は、最近の最先端の手法と比較して、DiMAEがかなりの利益を得ていることを示している。
論文 参考訳(メタデータ) (2022-05-10T09:49:40Z) - Topic Driven Adaptive Network for Cross-Domain Sentiment Classification [6.196375060616161]
ドメイン間感情分類のためのトピック駆動適応ネットワーク(TDAN)を提案する。
このネットワークはセマンティックスアテンションネットワークとドメイン固有のワードアテンションネットワークの2つのサブネットワークで構成されている。
ドメイン間の感情分類におけるTDANの有効性を検証する実験を行った。
論文 参考訳(メタデータ) (2021-11-28T10:17:11Z) - Domain Consistency Regularization for Unsupervised Multi-source Domain
Adaptive Classification [57.92800886719651]
近年,深層学習に基づくマルチソース非教師付きドメイン適応(MUDA)が活発に研究されている。
MUDAのドメインシフトは、ソースドメインとターゲットドメインの間だけでなく、複数のソースドメインの間にも存在します。
本稿では、教師なしマルチソースドメイン適応分類において、ドメインの一貫性規則化を利用するエンドツーエンドのトレーニング可能なネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-16T07:29:27Z) - Domain Agnostic Learning for Unbiased Authentication [47.85174796247398]
ドメインラベルなしでドメインの差分を除去するドメインに依存しない手法を提案する。
潜伏領域は入力と出力の間の不均一な予測関係を学習することによって発見される。
提案手法をメタラーニングフレームワークに拡張し,ドメイン差分除去をより徹底的に進める。
論文 参考訳(メタデータ) (2020-10-11T14:05:16Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z) - Cross-domain Self-supervised Learning for Domain Adaptation with Few
Source Labels [78.95901454696158]
ドメイン適応のためのクロスドメイン自己教師型学習手法を提案する。
本手法は,ソースラベルが少ない新しいターゲット領域において,ターゲット精度を著しく向上させる。
論文 参考訳(メタデータ) (2020-03-18T15:11:07Z) - Improving Domain-Adapted Sentiment Classification by Deep Adversarial
Mutual Learning [51.742040588834996]
ドメイン適応型感情分類(ドメイン適応型感情分類、Domain-adapted sentiment classification)は、ラベル付きソースドメインでトレーニングを行い、ラベルなしターゲットドメイン上で文書レベルの感情を適切に推測する。
本稿では,2つの特徴抽出器群,ドメイン識別器群,感情分類器群,ラベル探索器群を包含する新たな相互学習手法を提案する。
論文 参考訳(メタデータ) (2020-02-01T01:22:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。