論文の概要: Quantifying Valence and Arousal in Text with Multilingual Pre-trained
Transformers
- arxiv url: http://arxiv.org/abs/2302.14021v1
- Date: Mon, 27 Feb 2023 18:25:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 14:23:45.388518
- Title: Quantifying Valence and Arousal in Text with Multilingual Pre-trained
Transformers
- Title(参考訳): 多言語事前学習トランスフォーマーを用いたテキスト中の価数と覚醒の定量化
- Authors: Gon\c{c}alo Azevedo Mendes and Bruno Martins
- Abstract要約: この研究は、テキスト中の感情を連続的に予測するための事前訓練されたトランスフォーマーの使用を評価する。
過去の研究から得られた複数の注釈付きデータセットを,情緒的語彙と短文文書のいずれに対しても組み合わせた。
以上の結果から,モデルサイズが予測品質に重大な影響を及ぼす可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.9355115132408681
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The analysis of emotions expressed in text has numerous applications. In
contrast to categorical analysis, focused on classifying emotions according to
a pre-defined set of common classes, dimensional approaches can offer a more
nuanced way to distinguish between different emotions. Still, dimensional
methods have been less studied in the literature. Considering a valence-arousal
dimensional space, this work assesses the use of pre-trained Transformers to
predict these two dimensions on a continuous scale, with input texts from
multiple languages and domains. We specifically combined multiple annotated
datasets from previous studies, corresponding to either emotional lexica or
short text documents, and evaluated models of multiple sizes and trained under
different settings. Our results show that model size can have a significant
impact on the quality of predictions, and that by fine-tuning a large model we
can confidently predict valence and arousal in multiple languages. We make
available the code, models, and supporting data.
- Abstract(参考訳): テキストで表現された感情の分析には多くの応用がある。
カテゴリー分析とは対照的に、既定の共通クラスに従って感情を分類することに焦点を当てた次元的アプローチは、異なる感情を区別するよりニュアンスな方法を提供する。
しかし、次元的手法は文献ではあまり研究されていない。
原子価-陽電子次元空間を考えると、この研究は、複数の言語や領域からの入力テキストを用いて、これらの2次元を連続的に予測するための事前学習された変換器の使用を評価する。
先行研究から得られた複数の注釈付きデータセットを,感情的な語彙や短いテキスト文書に対応させて,複数のサイズのモデルを評価し,異なる設定下でトレーニングした。
この結果から,モデルサイズが予測品質に大きく影響しうること,また,大規模モデルを微調整することにより,複数の言語で精度と覚醒を確実に予測できることが示唆された。
コード、モデル、サポートデータを利用可能にしています。
関連論文リスト
- We're Calling an Intervention: Exploring the Fundamental Hurdles in Adapting Language Models to Nonstandard Text [8.956635443376527]
非標準テキストへの言語モデル適応の根底にある課題を理解するための一連の実験を提示する。
我々は、言語モデルの既存バイアスとの相互作用と、いくつかの種類の言語的変動を近似する介入を設計する。
学習データのサイズや性質の異なる言語モデル適応時の介入を適用することで、知識伝達がいつ成功するかについて重要な洞察を得ることができる。
論文 参考訳(メタデータ) (2024-04-10T18:56:53Z) - Fine-grained Affective Processing Capabilities Emerging from Large
Language Models [7.17010996725842]
本稿では,ChatGPTのゼロショット機能について,プロンプトのみを用いて情緒的な計算処理を行う方法について検討する。
b) 感情カテゴリーの観点で意味のある感情表現を持ち, c) 状況の基本的な評価に基づく感情誘発を行うことができることを示す。
論文 参考訳(メタデータ) (2023-09-04T15:32:47Z) - Emotion Embeddings $\unicode{x2014}$ Learning Stable and Homogeneous
Abstractions from Heterogeneous Affective Datasets [4.720033725720261]
感情の共有潜在表現を学習する訓練手順を提案する。
幅広い異種感情データセットの実験は、このアプローチが望ましい相互運用性をもたらすことを示している。
論文 参考訳(メタデータ) (2023-08-15T16:39:10Z) - TextMI: Textualize Multimodal Information for Integrating Non-verbal
Cues in Pre-trained Language Models [5.668457303716451]
マルチモーダルな行動分析タスクのための汎用的,競争的なベースラインとして,TextMIを提案する。
我々のアプローチは、モデルの複雑さを著しく減らし、モデルの判断に解釈可能性を追加し、様々なタスクに適用できます。
論文 参考訳(メタデータ) (2023-03-27T17:54:32Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Detecting Text Formality: A Study of Text Classification Approaches [78.11745751651708]
本研究は,統計的,ニューラルベース,トランスフォーマーベースの機械学習手法に基づく形式性検出手法の体系的研究を初めて行う。
単言語,多言語,言語横断の3種類の実験を行った。
本研究は,モノリンガルおよび多言語形式分類タスクのためのトランスフォーマーベースモデルに対するChar BiLSTMモデルの克服を示す。
論文 参考訳(メタデータ) (2022-04-19T16:23:07Z) - Exploring Dimensionality Reduction Techniques in Multilingual
Transformers [64.78260098263489]
本稿では,多言語シームス変圧器の性能に及ぼす次元還元法の影響を包括的に考察する。
これは、それぞれ91.58% pm 2.59%$と54.65% pm 32.20%$の次元を平均で減少させることが可能であることを示している。
論文 参考訳(メタデータ) (2022-04-18T17:20:55Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - Sentiment analysis in tweets: an assessment study from classical to
modern text representation models [59.107260266206445]
Twitterで公開された短いテキストは、豊富な情報源として大きな注目を集めている。
非公式な言語スタイルや騒々しい言語スタイルといったそれらの固有の特徴は、多くの自然言語処理(NLP)タスクに挑戦し続けている。
本研究では,22データセットの豊富なコレクションを用いて,ツイートに表される感情を識別する既存言語モデルの評価を行った。
論文 参考訳(メタデータ) (2021-05-29T21:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。