論文の概要: Emotions are Subtle: Learning Sentiment Based Text Representations Using
Contrastive Learning
- arxiv url: http://arxiv.org/abs/2112.01054v1
- Date: Thu, 2 Dec 2021 08:29:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-04 01:39:37.494475
- Title: Emotions are Subtle: Learning Sentiment Based Text Representations Using
Contrastive Learning
- Title(参考訳): 感情は微妙:コントラスト学習を用いた感情に基づくテキスト表現の学習
- Authors: Ipsita Mohanty, Ankit Goyal, Alex Dotterweich
- Abstract要約: 比較学習の埋め込みを感情分析タスクに拡張する。
これらの埋め込みの微調整は、BERTベースの埋め込みの微調整よりも改善されていることを示す。
- 参考スコア(独自算出の注目度): 6.6389732792316005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contrastive learning techniques have been widely used in the field of
computer vision as a means of augmenting datasets. In this paper, we extend the
use of these contrastive learning embeddings to sentiment analysis tasks and
demonstrate that fine-tuning on these embeddings provides an improvement over
fine-tuning on BERT-based embeddings to achieve higher benchmarks on the task
of sentiment analysis when evaluated on the DynaSent dataset. We also explore
how our fine-tuned models perform on cross-domain benchmark datasets.
Additionally, we explore upsampling techniques to achieve a more balanced class
distribution to make further improvements on our benchmark tasks.
- Abstract(参考訳): コントラスト学習技術は、データセットを増強する手段としてコンピュータビジョンの分野で広く用いられている。
本稿では,これらの対比学習組込みを感情分析タスクに拡張し,これらの組込みの微調整がbertに基づく組込みの微調整よりも改善し,dynasentデータセット上で評価した場合の感情分析タスクの高水準化を実現することを実証する。
また、クロスドメインベンチマークデータセット上での微調整モデルのパフォーマンスについても検討します。
さらに、よりバランスの取れたクラス分散を実現し、ベンチマークタスクをさらに改善するためのアップサンプリング手法も検討します。
関連論文リスト
- TG-LLaVA: Text Guided LLaVA via Learnable Latent Embeddings [61.9257731511557]
視覚言語モデル(VLM)を最適化するためのテキストガイド付きLLaVA(TG-LLaVA)を提案する。
学習可能な潜伏埋め込みをブリッジとして使用し、テキスト命令を分析し、視覚エンコーダに解析結果をガイダンスとして付加する。
テキストのガイダンスによって、視覚エンコーダは、人間が質問を考えるとき、画像の最も関連性の高い部分に集中する方法と同様に、テキスト関連の特徴を抽出することができる。
論文 参考訳(メタデータ) (2024-09-15T00:38:34Z) - Evaluating the Effectiveness of Data Augmentation for Emotion Classification in Low-Resource Settings [1.387446067205368]
低リソースデータセットを用いたマルチラベル感情分類タスクにおける異なるデータ拡張手法の有効性を評価した。
Back Translationはオートエンコーダベースのアプローチよりも優れており、トレーニングインスタンス毎に複数の例を生成することで、さらなるパフォーマンス向上につながった。
論文 参考訳(メタデータ) (2024-06-07T18:13:27Z) - Data Augmentation for Traffic Classification [54.92823760790628]
Data Augmentation (DA) はコンピュータビジョン(CV)と自然言語処理(NLP)に広く採用されている技術である。
DAはネットワークのコンテキスト、特にトラフィック分類(TC)タスクにおいて、牽引力を得るのに苦労しています。
論文 参考訳(メタデータ) (2024-01-19T15:25:09Z) - REDAffectiveLM: Leveraging Affect Enriched Embedding and
Transformer-based Neural Language Model for Readers' Emotion Detection [3.6678641723285446]
本稿では,REDAffectiveLMと呼ばれる深層学習モデルを用いて,短文文書からの読み手感情検出のための新しい手法を提案する。
コンテクストに特化してリッチ表現に影響を与え, リッチBi-LSTM+Attentionに影響を及ぼすタンデムにおいて, トランスフォーマーに基づく事前学習言語モデルを用いることで, リッチ表現に影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-21T19:28:25Z) - Transfer of Representations to Video Label Propagation: Implementation
Factors Matter [31.030799003595522]
特徴抽出とラベル伝搬における重要な実装要因の影響について検討する。
映像ベースの通信手段を静止画像ベースで拡張することで、さらなる性能向上が期待できることを示す。
本研究は, 評価実践の改善と, 時間的対応における今後の研究方向性の報知に役立つことを期待する。
論文 参考訳(メタデータ) (2022-03-10T18:58:22Z) - Improving BERT Model Using Contrastive Learning for Biomedical Relation
Extraction [13.354066085659198]
対比学習は、テキストデータの一般的なデータ拡張方法が不足しているため、自然言語処理では広く利用されていない。
本研究では, 対比学習を用いてBERTモデルからのテキスト表現を改善し, 関係抽出を行う手法を検討する。
3つの関係抽出ベンチマークデータセットの実験結果から,本手法がBERTモデル表現を改善し,最新性能を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-28T17:50:24Z) - Weakly Supervised Video Salient Object Detection [79.51227350937721]
本稿では,relabeled relabeled "fixation guided scribble annotations" に基づく最初の弱教師付きビデオサリエント物体検出モデルを提案する。
効果的なマルチモーダル学習と長期時間文脈モデリングを実現するために,「アプレンス・モーション・フュージョン・モジュール」と双方向のConvLSTMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-06T09:48:38Z) - Representation Matters: Assessing the Importance of Subgroup Allocations
in Training Data [85.43008636875345]
訓練データにおける多様な表現は,サブグループのパフォーマンス向上と集団レベルの目標達成の鍵である。
分析と実験は、データセット構成がパフォーマンスにどのように影響するかを説明し、既存のデータにおけるトレンドとドメイン知識を用いて、意図的かつ客観的なデータセット設計を導くのに役立つ構成結果を提供する。
論文 参考訳(メタデータ) (2021-03-05T00:27:08Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - DAGA: Data Augmentation with a Generation Approach for Low-resource
Tagging Tasks [88.62288327934499]
線形化ラベル付き文に基づいて訓練された言語モデルを用いた新しい拡張手法を提案する。
本手法は, 教師付き設定と半教師付き設定の両方に適用可能である。
論文 参考訳(メタデータ) (2020-11-03T07:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。