論文の概要: Cross-Domain Sentiment Classification with Contrastive Learning and
Mutual Information Maximization
- arxiv url: http://arxiv.org/abs/2010.16088v2
- Date: Thu, 12 Nov 2020 02:52:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 15:59:46.606019
- Title: Cross-Domain Sentiment Classification with Contrastive Learning and
Mutual Information Maximization
- Title(参考訳): コントラスト学習と相互情報最大化を用いたクロスドメイン感情分類
- Authors: Tian Li, Xiang Chen, Shanghang Zhang, Zhen Dong, Kurt Keutzer
- Abstract要約: CLIM: Contrastive Learning with mutual Information Maximization, to explore the potential of CL on cross-domain sentiment classification。
対象ドメインにラベルが不足しているため、最終予測を最も支援する特徴を活用するために、CLとは別に相互情報(MIM)を導入する。
提案手法であるCLIMの有効性を示すため,Amazon-Reviewデータセットと航空会社データセットを用いて,新たな最先端結果を実現する。
- 参考スコア(独自算出の注目度): 48.41392004071199
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive learning (CL) has been successful as a powerful representation
learning method. In this work we propose CLIM: Contrastive Learning with mutual
Information Maximization, to explore the potential of CL on cross-domain
sentiment classification. To the best of our knowledge, CLIM is the first to
adopt contrastive learning for natural language processing (NLP) tasks across
domains. Due to scarcity of labels on the target domain, we introduce mutual
information maximization (MIM) apart from CL to exploit the features that best
support the final prediction. Furthermore, MIM is able to maintain a relatively
balanced distribution of the model's prediction, and enlarges the margin
between classes on the target domain. The larger margin increases our model's
robustness and enables the same classifier to be optimal across domains.
Consequently, we achieve new state-of-the-art results on the Amazon-review
dataset as well as the airlines dataset, showing the efficacy of our proposed
method CLIM.
- Abstract(参考訳): コントラスト学習(CL)は強力な表現学習手法として成功している。
本稿では,クロスドメイン感情分類におけるclの可能性を探るために,相互情報最大化によるコントラスト学習を提案する。
私たちの知る限りでは、CLIMはドメイン間の自然言語処理(NLP)タスクに対して、初めて対照的な学習を採用する。
対象領域にラベルが不足しているため、最終予測を最も支援する特徴を活用するために、CLとは別に相互情報最大化(MIM)を導入する。
さらに、mimはモデルの予測の相対的にバランスのとれた分布を維持し、対象ドメインのクラス間のマージンを拡大することができる。
より大きなマージンはモデルの堅牢性を高め、同じ分類器をドメイン間で最適なものにします。
その結果、Amazon-Reviewデータセットと航空会社のデータセットで最新の結果が得られ、提案手法であるCLIMの有効性が示された。
関連論文リスト
- CLLMFS: A Contrastive Learning enhanced Large Language Model Framework for Few-Shot Named Entity Recognition [3.695767900907561]
CLLMFSは、Few-Shot Named Entity RecognitionのためのContrastive LearningEnhanced Large Language Modelフレームワークである。
Low-Rank Adaptation (LoRA)と、数発のNER用に特別に調整された対照的な学習メカニズムを統合している。
提案手法は,F1スコアの現行性能を2.58%から97.74%まで向上させた。
論文 参考訳(メタデータ) (2024-08-23T04:44:05Z) - Improving Intrusion Detection with Domain-Invariant Representation Learning in Latent Space [4.871119861180455]
マルチタスク学習を用いた2相表現学習手法を提案する。
我々は、先行空間と潜時空間の間の相互情報の最小化により、潜時空間を解き放つ。
モデルの有効性を複数のサイバーセキュリティデータセットで評価する。
論文 参考訳(メタデータ) (2023-12-28T17:24:13Z) - Multi-level Consistency Learning for Semi-supervised Domain Adaptation [85.90600060675632]
半教師付きドメイン適応(SSDA)は、完全にラベル付けされたソースドメインから学習した知識をわずかにラベル付けされたターゲットドメインに適用することを目的としている。
SSDAのための多レベル一貫性学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-09T06:41:18Z) - Unified Instance and Knowledge Alignment Pretraining for Aspect-based
Sentiment Analysis [96.53859361560505]
Aspect-based Sentiment Analysis (ABSA) は、ある側面に対する感情の極性を決定することを目的としている。
事前トレーニングと下流ABSAデータセットの間には、常に深刻なドメインシフトが存在する。
我々は,バニラ・プレトレイン・ファインチューンパイプラインにアライメント事前訓練フレームワークを導入する。
論文 参考訳(メタデータ) (2021-10-26T04:03:45Z) - Unsupervised Domain Adaptation for Semantic Segmentation via Low-level
Edge Information Transfer [27.64947077788111]
セマンティックセグメンテーションのための教師なしドメイン適応は、合成データに基づいて訓練されたモデルを実際の画像に適応させることを目的としている。
従来の特徴レベルの対数学習手法は、高レベルの意味的特徴に適応するモデルのみを考慮していた。
本稿では,ドメイン間ギャップが小さい低レベルエッジ情報を明示的に利用して意味情報の伝達をガイドする試みについて紹介する。
論文 参考訳(メタデータ) (2021-09-18T11:51:31Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - Dual-Teacher++: Exploiting Intra-domain and Inter-domain Knowledge with
Reliable Transfer for Cardiac Segmentation [69.09432302497116]
最先端の半教師付きドメイン適応フレームワークである Dual-Teacher++ を提案する。
ソースドメイン(MRなど)からのクロスモダリティ優先度を探索するドメイン間教師モデルと、ラベルのないターゲットドメインの知識を調査するドメイン内教師モデルを含む、新しいデュアル教師モデルを設計する。
このようにして、学生モデルは信頼できる二重ドメイン知識を得て、ターゲットドメインデータのパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2021-01-07T05:17:38Z) - Cluster, Split, Fuse, and Update: Meta-Learning for Open Compound Domain
Adaptive Semantic Segmentation [102.42638795864178]
セマンティックセグメンテーションのための原則的メタラーニングに基づくOCDAアプローチを提案する。
対象ドメインを複数のサブターゲットドメインに,教師なしの方法で抽出した画像スタイルでクラスタリングする。
その後、メタラーニングがデプロイされ、スタイルコードに条件付きでサブターゲットドメイン固有の予測を融合するように学習される。
モデルに依存しないメタラーニング(MAML)アルゴリズムにより,モデルをオンライン更新することを学び,一般化をさらに改善する。
論文 参考訳(メタデータ) (2020-12-15T13:21:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。